
Lors de l'inauguration du Congrès International sur l'Intelligence Artificielle Appliquée à la Justice et aux Droits de l'Homme, qui s'est tenu à Montería, Cordoue, le défenseur des droits, Julio Balanta Mina, a appelé de manière emphatique à la protection des droits des citoyens dans la mise en œuvre de l'intelligence artificielle (IA) dans le système judiciaire colombien.
Dans son intervention, Balanta Mina a expliqué l'importance que, bien que les technologies émergentes, notamment l'IA, aient le potentiel d'enrichir et d'optimiser le processus de prise de décision dans le domaine judiciaire, il est crucial que leur application soit soumise à un cadre réglementaire strict. Il a souligné que, pour éviter d'éventuelles violations des droits fondamentaux, il est indispensable d'établir des limites claires et des réglementations garantissant une utilisation éthique et responsable de ces outils avancés.

En référence à la Sentencia T-323 de 2024 émise par la Cour Constitutionnelle, le défenseur des droits, Julio Balanta Mina, a insisté sur le fait que l'intelligence artificielle n'est pas destinée à remplacer la fonction du juge dans la prise de décisions judiciaires, quelle que soit la complexité de l'affaire en question.
Selon le jugement, l'IA doit être considérée comme un outil d'appui, et non comme un remplacement du jugement humain dans le domaine judiciaire. Balanta Mina a également souligné la nécessité de disposer d'une infrastructure technologique solide pour garantir que les droits fondamentaux ne soient pas violés au cours du processus judiciaire.
Dans son discours, il a abordé l'importance de faire face aux défis éthiques qui surgissent avec l'utilisation de ces technologies, en particulier ceux liés à la vie privée des individus et à l'équité dans l'accès à la justice. Il a noté que, pour sauvegarder le droit à un procès équitable, il est essentiel d'établir des mécanismes garantissant que la mise en œuvre de l'IA ne compromet pas ces principes fondamentaux.

L'événement, coordonné par le Défenseur des droits en collaboration avec la Mairie de Montería, sera le point de départ pour un suivi approfondi de l'utilisation de l'intelligence artificielle dans le système judiciaire. Son objectif principal est de garantir que cette technologie ne porte pas atteinte aux droits humains essentiels, en établissant un cadre pour une supervision continue et une évaluation de son impact sur la justice.
Le débat sur la mesure
Sur les réseaux sociaux, les opinions étaient partagées sur l'utilisation de l'IA dans la justice. D'un côté, ceux qui soutiennent la mesure soutiennent que l'IA a le potentiel de transformer positivement le système judiciaire en rendant les processus plus efficaces et moins sujets à des erreurs humaines.
Ces défenseurs estiment qu'en utilisant l'intelligence artificielle comme un outil d'appui, les juges peuvent accéder à des analyses plus précises et détaillées, ce qui pourrait améliorer la qualité des décisions judiciaires. De plus, ils soulignent que cela pourrait aider à réduire la congestion dans les tribunaux, en accélérant la résolution des affaires et en garantissant un accès plus rapide à la justice pour tous les citoyens.
Cependant, ceux qui s'opposent à la mesure, y compris de nombreux experts en droits humains et en technologie, expriment des préoccupations profondes sur les implications éthiques et légales potentielles. L'un des principaux arguments contre est que l'IA, malgré sa sophistication, ne peut pas répliquer le jugement humain nécessaire à la prise de décisions judiciaires, en particulier dans des affaires complexes qui nécessitent une interprétation approfondie des circonstances et de la loi.

Selon ces critiques, faire trop confiance à l'outil pourrait conduire à des décisions déshumanisées et potentiellement injustes, portant atteinte aux droits fondamentaux des personnes impliquées.
De plus, des préoccupations existent concernant la vie privée et l'équité dans l'accès à la justice. Les opposants craignent que l'absence d'une infrastructure technologique robuste et de réglementations adéquates ne conduise à une application inégale de la justice, où certains groupes pourraient être plus susceptibles de subir des décisions injustes basées sur des algorithmes.