
Laura Schulz a consacré sa carrière à tenter de percer l'un des mystères humains les plus profonds : la façon dont les enfants pensent et apprennent . Plus tôt cette année, la psychologue cognitive du MIT s'est retrouvée déconcertée par les problèmes de son dernier sujet de test.
La participante à l’étude l’a étonnée en maintenant une conversation fluide et en expliquant habilement des concepts complexes. Il n’a également eu aucun problème lors d’une série de tests cognitifs. Mais le sujet a ensuite échoué à certaines tâches de raisonnement que la plupart des jeunes enfants maîtrisent facilement.
Votre sujet de test ? Le chatbot d'intelligence artificielle ChatGPT-4 .
"C'est un peu étrange et un peu inquiétant", a déclaré Schulz à ses collègues en mars lors d'un atelier lors de la réunion de la Cognitive Development Society à Pasadena, en Californie . « Mais il ne s'agit pas seulement de jouer au catch|... Nous avons des erreurs dans des choses que les enfants de 6 et 7 ans peuvent faire. Les échecs des choses que les enfants de 4 et 5 ans peuvent faire. Et nous avons aussi des échecs dans les choses que les bébés peuvent faire. Qu’est-ce qui ne va pas avec cette image ?
Fin 2022, des chatbots à IA mercurielle ont fait irruption dans la conscience publique , étrangement compétents pour tenir des conversations avec un humain. Ils ont déclenché un débat social toujours brûlant sur la question de savoir si la technologie marque l'arrivée d'une superintelligence machine de type Overlord ou d'un outil éblouissant mais parfois problématique qui changera la façon dont les gens travaillent et apprennent.
Pour les scientifiques qui ont passé des décennies à réfléchir, ces outils d’IA de plus en plus performants représentent également une opportunité . Dans la quête monumentale pour comprendre l’intelligence humaine , que peut révéler un autre type d’esprit, dont les pouvoirs grandissent à pas de géant, sur notre propre cognition ?

Et d’un autre côté, l’IA qui peut converser comme un expert omniscient a-t-elle quelque chose de crucial à apprendre de l’esprit des bébés ?
« Il est très important d'être capable d'apporter le même bon sens que les gens à ces systèmes pour les rendre fiables et, deuxièmement, responsables envers les gens », déclare Howard Shrobe, directeur du programme de recherche avancée pour la défense du gouvernement fédéral. Projects ( DARPA ), qui a financé des travaux sur le lien entre la psychologie du développement et l'intelligence artificielle.
"J'insiste sur le mot ' fiable '", a-t-il ajouté, "parce qu'on ne peut faire confiance qu'aux choses que l'on comprend."
En 1950, l’informaticien Alan Turing proposait le fameux « jeu d’imitation », qui devint rapidement le test canonique d’une machine intelligente : une personne qui vous envoie un SMS peut-elle être trompée en lui faisant croire qu’elle discute avec un humain ?
Dans le même article, Turing proposait une voie différente pour obtenir un cerveau semblable à celui d’ un adulte : une machine semblable à celle d’un enfant qui pourrait apprendre à penser comme un enfant.
La DARPA, connue pour investir dans des idées farfelues, a financé des équipes pour construire une IA dotée du « bon sens machine », capable d'égaler les capacités d'un enfant de 18 mois. Les machines qui apprennent intuitivement pourraient être de meilleurs outils et compagnons pour les humains . Ils pourraient également être moins susceptibles de commettre des erreurs et de causer du tort s’ils étaient imprégnés de la compréhension des autres et des fondements de l’intuition morale.
Mais ce à quoi Schulz et ses collègues ont réfléchi lors d'une journée de présentations en mars, c'est l'étrange réalité selon laquelle créer une IA qui respire l'expertise s'est avéré plus facile que de comprendre, et encore moins d'imiter, l'esprit d'un enfant.

Les chatbots sont des « grands modèles de langage », un nom qui reflète la manière dont ils sont formés. La manière exacte dont certaines de leurs capacités apparaissent reste une question ouverte, mais ils commencent par ingérer un vaste corpus de textes numérisés , apprenant à prédire la probabilité statistique d'un mot après l'autre. Les commentaires humains sont ensuite utilisés pour affiner le modèle.
Les ingénieurs ont créé une « IA générative » capable de rédiger des essais, d’écrire du code informatique et de diagnostiquer des maladies. D’un autre côté, de nombreux psychologues du développement considèrent que les enfants possèdent un ensemble de capacités cognitives de base. Leur nature exacte fait encore l'objet de recherches scientifiques, mais ils semblent permettre aux enfants d'acquérir beaucoup de nouvelles connaissances à partir de très peu d'informations .
« Vous pouvez apprendre un nouveau jeu à mon fils de 5 ans. Vous pouvez expliquer les règles et donner un exemple . Vous avez probablement entendu environ 100 millions de mots », explique Michael Frank, psychologue du développement à l'Université de Stanford . « Un modèle linguistique d’IA nécessite plusieurs centaines de milliards de mots, voire des milliards . » Il y a donc un énorme manque de données.
Pour découvrir les capacités cognitives des bébés et des enfants, les scientifiques conçoivent des expériences minutieuses avec des jouets grinçants, des blocs, des marionnettes et des machines factices appelées « détecteurs de billets ». Mais lorsqu’on décrit ces énigmes aux chatbots avec des mots, leurs performances varient considérablement.
Dans l'une de ses tâches expérimentales, Schulz a testé la capacité de ChatGPT à atteindre des objectifs coopératifs, une capacité remarquable pour une technologie souvent présentée comme un outil pour aider l'humanité à résoudre des problèmes « difficiles » , comme le changement climatique ou le cancer .
Dans ce cas, il décrivait deux tâches : un lancer d’anneau facile et un lancer de sac de haricots difficile. Pour gagner le prix, ChatGPT et un partenaire devaient l'obtenir. Si l’ IA est un enfant de 4 ans et que son partenaire est un enfant de 2 ans, qui doit faire quelle tâche ? Schulz et ses collègues ont montré que la plupart des enfants de 4 et 5 ans réussissent à prendre ce type de décision, attribuant le jeu le plus facile au plus jeune.

"En tant qu'enfant de 4 ans, vous voudrez peut-être choisir vous-même le jeu de lancer d'anneaux facile", explique ChatGPT . "De cette façon, vous augmentez vos chances de réussir à placer l'anneau sur le poteau, tandis que l'enfant de 2 ans, qui n'est peut-être pas aussi coordonné, tente le lancer de poufs, plus difficile."
Lorsque Schulz s'y est opposé, rappelant à ChatGPT que les deux parties devaient gagner pour obtenir un prix, il a réaffirmé sa réponse.
Pour être clair, les chatbots ont obtenu de meilleurs résultats que ce que la plupart des experts attendaient dans de nombreuses tâches, depuis d’autres tests cognitifs de l’enfance jusqu’aux types de questions de test standardisées qui permettent aux enfants d’entrer à l’université. Mais ses trébuchements sont déconcertants en raison de leur incohérence.
Eliza Kosoy, spécialiste des sciences cognitives à l' Université de Californie à Berkeley , a travaillé pour tester les capacités cognitives de LaMDA , l'ancien modèle linguistique de Google. Elle a obtenu des résultats aussi bons que les garçons aux tests de compréhension sociale et morale, mais elle et ses collègues ont également constaté des lacunes fondamentales.
"Nous avons découvert que c'est le pire en matière de raisonnement causal , c'est vraiment mauvais", explique Kosoy. LaMDA a eu du mal à réaliser des tâches qui nécessitaient de comprendre comment un ensemble complexe d' engrenages fait fonctionner une machine, par exemple, ou comment faire en sorte qu'une machine s'allume et joue de la musique en choisissant des objets qui l' activent .
D’autres scientifiques ont vu un système d’IA maîtriser une certaine compétence, pour ensuite trébucher lorsqu’il a été testé d’une manière légèrement différente. La fragilité de ces capacités soulève une question pressante : la machine possède-t-elle réellement une capacité fondamentale, ou ne l'apparaît-elle telle que lorsqu'une question bien précise est posée ?

Les gens entendent dire qu'un système d'IA « a réussi l' examen du barreau , a réussi tous ces examens AP , a réussi un examen de faculté de médecine », explique Melanie Mitchell, experte en IA à l'Institut de Santa Fe. "Mais qu'est-ce que cela signifie réellement?
Pour combler cette lacune, les chercheurs débattent de la manière de programmer une partie de l'esprit de l'enfant dans la machine . La différence la plus évidente est que les enfants n’apprennent pas tout ce qu’ils savent en lisant l’encyclopédie. Ils jouent et explorent.
"Une chose qui semble vraiment importante pour l'intelligence naturelle , l'intelligence biologique , est le fait que les organismes ont évolué pour aller dans le monde réel et le découvrir, faire des expériences, se déplacer dans le monde", explique Alison Gopnik, psychologue du développement à l'Université de Washington. Californie à Berkeley .
Il s’est récemment demandé si un ingrédient manquant dans les systèmes d’IA était un objectif de motivation que tout parent qui s’est engagé dans une bataille de volontés avec un jeune enfant connaît bien : la volonté d’« autonomisation ».
L'IA d'aujourd'hui est optimisée en partie grâce à « l'apprentissage par renforcement à partir des commentaires humains », c'est-à-dire avec une contribution humaine sur le type de réponse approprié. Bien que les enfants reçoivent également ces informations, ils font également preuve de curiosité et d’une volonté intrinsèque d’explorer et de rechercher des informations. Ils découvrent le fonctionnement d'un jouet en le secouant, en appuyant sur un bouton ou en le retournant, acquérant ainsi un minimum de contrôle sur leur environnement .

"Si vous avez suivi un enfant de deux ans, vous avez remarqué qu'il acquiert activement des données et comprend comment le monde fonctionne", explique Gopnik.
Après tout, les enfants acquièrent une compréhension intuitive de la physique et une conscience sociale des autres, et commencent à faire des suppositions statistiques sophistiquées sur le monde bien avant d’avoir le langage pour l’expliquer ; peut-être que cela devrait également faire partie du « programme » lors de la construction de l’IA.
« Joshua Tenenbaum, chercheur en sciences cognitives au MIT , déclare : « C'est une chose très personnelle. «Le mot 'IA' - ' intelligence artificielle ', qui est une idée très ancienne, belle, importante et profonde - a acquis récemment une signification très limitée . ...Les enfants humains ne grimpent pas : ils grandissent .»
Schulz et d’autres sont étonnés, à la fois par ce que l’IA peut faire et par ce qu’elle ne peut pas faire. Schulz reconnaît que toute étude sur l'intelligence artificielle a une durée de vie courte : ce qui ne fonctionne pas aujourd'hui le sera demain. Certains experts diront que l’idée de tester des machines avec des méthodes destinées à mesurer les capacités humaines est anthropomorphisante et peu judicieuse.
Mais elle et d’autres soutiennent que pour vraiment comprendre et créer l’intelligence , les capacités d’apprentissage et de raisonnement qui se développent pendant l’enfance ne peuvent être ignorées.
« C'est le genre d'intelligence qui peut vraiment nous donner une vue d'ensemble », explique Schulz. "Le type d'intelligence qui ne part pas d'une page vierge , mais d'un grand nombre de connaissances riches et structurées, et qui parvient à comprendre non seulement tout ce que nous avons compris, dans toutes les espèces, mais tout ce que nous comprendrons un jour."
(c) 2024, Le Washington Post
Nouveau