
Les risques peuvent être filtrés selon deux taxonomies générales et peuvent être facilement accessibles, modifiés et mis à jour via le site web (https://airisk.mit.edu/) et une feuille de calcul publique Google Sheets.
Le dépôt offre une base de données détaillée et catégorisée pour aborder le manque de compréhension commune sur les risques de l'IA, ce qui "peut entraver" la capacité des universitaires, des auditeurs, des législateurs, des entreprises d'IA et du grand public à discuter, enquêter et répondre de manière globale au sujet.

Quels sont les risques de l'IA selon le MIT
Une première classification des risques de l'intelligence artificielle a été réalisée par une Taxonomie des Risques de l'IA par Domaine. Cette classification identifie sept domaines clés :
- Discrimination et toxicité
Elle se réfère à la manière dont les modèles d'intelligence artificielle peuvent perpétuer des stéréotypes sociaux et encourager une discrimination injuste. Cela se produit lorsque ces modèles reproduisent ou amplifient un langage discriminatoire, générant des inégalités dans le traitement ou l'accès aux ressources basées sur des caractéristiques sensibles telles que le sexe, la religion, le genre, l'orientation sexuelle, la capacité et l'âge.
- Confidentialité et sécurité
Elle aborde les risques associés à la génération de contenu par les modèles d'intelligence artificielle qui peuvent inclure des informations personnelles sensibles, un phénomène connu sous le nom de fuite de confidentialité. Cette situation peut entraîner l'exposition non autorisée de données privées, ce qui représente une menace considérable pour la sécurité et la confidentialité des utilisateurs.

- Désinformation
Ces dommages incluent la propagation de désinformation, la contamination, l'épuisement des ressources, des maladies mentales ou des injustices, affectant négativement la société.
- Acteurs malveillants et usage abusif
Elle fait référence au risque que l'intelligence artificielle soit utilisée par des personnes ou des groupes aux intentions nuisibles pour causer du tort à grande échelle.
- Interaction humain-ordinateur
La cinquième catégorie, interaction humain-ordinateur, examine les risques associés à l'influence négative de l'intelligence artificielle sur les utilisateurs. Si un modèle de langage (LM) promeut des comportements ou points de vue éthiquement discutables, cela pourrait inciter les utilisateurs à réaliser des actions nuisibles qu'ils n'auraient pas envisagées par eux-mêmes.

Ce problème est particulièrement alarmant lorsque l'IA est perçue comme une autorité ou un assistant fiable, car elle peut induire des comportements nuisibles sans que l'utilisateur ait eu cette intention initiale.
- Dommages socioéconomiques et environnementaux
La catégorie, dommages socioéconomiques et environnementaux, se réfère à l'impact négatif de l'intelligence artificielle sur la durabilité et l'environnement.
- Sécurité, pannes et limitations des systèmes d'IA
La septième catégorie, sécurité, pannes et limitations des systèmes d'IA, se réfère aux risques associés aux attaques qui exploitent les vulnérabilités dans l'intelligence artificielle pour maximiser la consommation d'énergie et affecter les performances du système.

Qui s'est impliqué dans la création du dépôt
Pour développer le dépôt, les chercheurs du MIT ont collaboré avec des experts de l'Université du Queensland, de l'Future of Life Institute (une organisation à but non lucratif), de la KU Leuven et de la startup d'intelligence artificielle Harmony Intelligence. Ensemble, ils ont exploré des bases de données académiques et rassemblé des milliers de documents liés à l'évaluation des risques de l'intelligence artificielle.
“Il s'agit d'une tentative de sélectionner et d'analyser rigoureusement les risques de l'IA dans une base de données de risques publiquement accessible, complète, extensible et catégorisée que quiconque peut copier et utiliser, et qui sera maintenue à jour dans le temps”, a déclaré Peter Slattery, chercheur du groupe FutureTech du MIT et leader du projet du dépôt de risques de l'IA, à TechCrunch.
“Nous l'avons créé à ce moment parce que nous en avions besoin pour notre projet et nous nous sommes rendu compte que beaucoup d'autres en avaient également besoin”, a-t-il ajouté.