
Sous le slogan "Ne laisser personne derrière", la semaine du 19 au 22 août a eu lieu à Brasilia la 10ème édition du Forum interreligieux du Sommet du G20, avec la présence de plus de 500 personnalités internationales dans les domaines religieux, académiques et politiques.
Parmi les représentants religieux les plus remarquables se trouvait l'Argentin Fishel Szlajen, rabbin et docteur en philosophie, qui est un bioéthicien reconnu au niveau international, membre de l'Académie pontificale pour la vie au Vatican, récent Fellow du programme sur la religion et l'État de droit à l'Université d'Oxford, membre de l'Académie nationale de médecine et du CALIR, dont le nouveau président est David Frol.
Le rabbin et académicien argentin, après avoir précédemment disserté à l'OEA sur la liberté religieuse, a participé à ce Forum interreligieux du G20 sur le jugement et les manières de favoriser les processus de gouvernance sur les thèmes identifiés comme priorités du G20.

Fishel Szlajen a commenté à Infobae les cinq domaines sur lesquels ce forum a débattu et établi des mesures et des actions prioritaires : 1) Crises alimentaires, offrant le potentiel encore inexploité pour renforcer les efforts globaux, nationaux et locaux dans la lutte contre la faim et la malnutrition. 2) Environnement, trouvant des solutions viables et appropriées pour le changement climatique et d'autres problèmes écologiques, y compris la protection de la forêt tropicale, vitale pour le séquestration naturel du carbone et travaillant pour une transition énergétique juste et inclusive. 3) Programmes d'alphabétisation religieuse interculturelle comme engagement stratégique favorisant l'harmonie sociale. 4) Stratégies pour une éthique dans l'utilisation, le développement et l'implémentation de l'intelligence artificielle (IA). 5) Accroître le financement contre la traite des êtres humains et le trafic d'organes.
Particulièrement sur l'éthique dans l'IA, Fishel Szlajen a soulevé des défis importants qui doivent être abordés. L'une des principales préoccupations, a déclaré le clerc et académicien, est la opacité des algorithmes, qui érode la confiance publique et soulève des questions sur la responsabilité.
Par exemple, quel est le critère de prise de décision des algorithmes d'IA en cas d'urgence liée à des véhicules autonomes ? Quel est le degré d'audit dans l'utilisation de l'IA dans l'automatisation des décisions en gouvernance pouvant affecter de grandes populations et manipuler l'opinion publique ? Comme cela a été le cas avec Cambridge Analytica lors des élections américaines de 2016.

De plus, certains pays plaident pour remplacer le système de vote par des algorithmes prédictifs qui analysent les préférences politiques des citoyens via la big data et la biovigilance. Cet usage de l'IA sape l'autonomie des citoyens, leur liberté et la légitimité des institutions démocratiques, nous conduisant à un Léviathan technologique.
Un autre problème éthique de l'IA mentionné par Szlajen est le biais des algorithmes prédictifs perpétuant et amplifiant les injustices en prenant des décisions discriminatoires dans divers domaines, tels que le travail, la banque, la justice et la sécurité. Selon ses dires, à travers des dossiers médicaux et des consommations pharmaceutiques utilisant des algorithmes prédictifs biaisés, la validation des prêts, les couvertures et les primes d'assurance, la détention préventive ou la libération conditionnelle pourraient être mal déterminées.
Les biais dans les systèmes de reconnaissance faciale ont déjà provoqué des arrestations erronées et des refus de services basés sur une identification inexacte, affectant particulièrement certaines ethnies. Dans la justice, les magistrats ont été influencés négativement par des algorithmes prédictifs biaisés qui déterminaient incorrectement un risque accru de récidive chez certaines ethnies.

Ces cas, poursuit Szlajen, ont un dénominateur commun qui est le remplacement du jugement humain par l'IA dans les processus de prise de décision, sapant les principes d'autonomie humaine, de libre arbitre et de jugement moral. C'est pourquoi, et pour sauvegarder cette essentialité de la dignité humaine, il est nécessaire d'établir des normes qui garantissent que l'IA est utilisée comme un outil d'assistance et non comme un substitut au jugement humain.
En réponse à ces défis, Szlajen a proposé un projet dont le critère de non-délégation accorde la priorité au jugement humain et défend des normes éthiques de transparence, de responsabilité et de limites dans l'utilisation de l'IA. Cette approche vise à intégrer l'IA dans les processus décisionnels tout en préservant les conditions du raisonnement, qui inclut des aspects complexes tels que l'intuition, l'expérience, le contexte et l'empathie difficiles à traduire en syntaxe algorithmique, a ajouté Szlajen.
À travers l'application de directives qui exigent de maintenir le jugement humain pour les décisions, en établissant transparence et audit dans les algorithmes d'IA, il sera possible de tirer pleinement parti des avancées technologiques tout en respectant et en préservant la dignité humaine, a conclu Szlajen.