
Le phénomène, désigné sous le terme de "collapse du modèle", suggère qu'en formant de nouveaux modèles d'IA en utilisant des données générées par des IA précédentes, le risque est que les résultats deviennent de moins en moins cohérents et précis avec le temps.
Quel est l'ennemi de l'avancement de l'intelligence artificielle

L'ennemi de l'intelligence artificielle, selon les conclusions de l'étude d'Oxford, serait les mêmes modèles d'IA existants. Ceci est dû au fait qu'à mesure que les données originales sont remplacées par des informations générées par des IA, les modèles suivants pourraient commencer à produire des réponses sans signification.
Ce phénomène a de sérieuses implications pour la qualité des modèles d'apprentissage automatique et, par conséquent, pour les utilisateurs qui dépendent de ces technologies.
Par exemple, une IA dédiée à résumer des articles scientifiques pourrait finir par générer des réponses erronées ou non pertinentes, affectant la confiance et la qualité de l'information présentée.
Comment l'IA se trompera à l'avenir, selon l'université d'Oxford

L'étude de l'Université d'Oxford a mentionné un cas frappant illustrant le risque futur. Dans ce cas, un modèle d'IA a été initialement formé avec du texte sur l'architecture médiévale.
Après avoir passé neuf générations de formation avec des données générées par IA, le modèle a abouti à une sortie complètement déconnectée du contenu original : une liste de lièvres nord-américains. Ce résultat reflète comment la précision et la véracité de l'information peuvent se détériorer considérablement.
Le groupe d'experts suggère que cet effet de "collapse du modèle" est presque inévitable si l'on continue à utiliser des données générées par des IA antérieures. L'étude met en lumière la nécessité impérative d'utiliser des données fiables et, de préférence, des données générées par des humains pour l'entraînement de ces modèles.
La précision et la cohérence à long terme des modèles d'IA et leur impact au niveau social pourraient largement dépendre de cette pratique.
Pourquoi la précision de l'intelligence artificielle alerte

Que l'intelligence artificielle soit plus précise est quelque chose qui préoccupe plusieurs secteurs qui pourraient subsister et améliorer leur opérabilité grâce à elle.
Néanmoins, malgré la gravité de la découverte, de nombreuses entreprises technologiques choisissent d'utiliser des données générées par leurs propres IA, essayant ainsi d'éviter des poursuites coûteuses ou de réduire les coûts.
Cette stratégie commerciale, bien que économique à court terme, pourrait accélérer le processus dégénératif décrit dans l'étude d'Oxford, compromettant la qualité et la fiabilité de leurs produits d'IA à long terme.
Que se passe-t-il si le modèle de l'intelligence artificielle s'effondre

Le “collapse du modèle” soulève des questions cruciales sur la véritable valeur et l'application pratique de ces technologies. Si la tendance à dépendre de plus en plus de données générées par IA persiste, l'utilité et la fiabilité des modèles d'IA pourraient être compromises.
Plusieurs experts ont exprimé leurs préoccupations concernant l'utilisation indiscriminée de données générées par IA, alerte étant donnée que la qualité de ces technologies pourrait se dégrader, les transformant en outils potentiellement nuisibles.
De plus, certains ont une position plus optimiste par rapport aux conclusions de l'étude. Certains experts soutiennent que, dans la pratique, il y aura toujours une quantité suffisante de données générées par des humains qui pourraient atténuer partiellement les effets du “collapse du modèle”.
Cette perspective présente la possibilité qu'un équilibre bien géré entre données humaines et données générées par IA puisse aider à maintenir la qualité et la précision des futurs modèles d'IA.
Nouveau