La conversation
Dans un monde rempli de points de vue opposés, attirons l’attention sur une chose sur laquelle nous sommes tous d’accord : si je vous montre mon stylo, puis que je le cache derrière mon dos, mon stylo existe toujours – même si vous ne le voyez plus.

Nous pouvons tous convenir qu’il existe toujours et qu’il a probablement la même forme et la même couleur qu’avant qu’il ne passe derrière mon dos. Ceci est juste du bon sens.

Ces lois de bon sens du monde physique sont universellement comprises par les humains. Même les bébés de deux mois partager cette entente. Mais les scientifiques sont encore intrigués par certains aspects de la manière dont nous parvenons à cette compréhension fondamentale. Et nous n’avons pas encore construit d’ordinateur capable de rivaliser avec les capacités de bon sens d’un enfant en développement typique.

Nouveau rechercher par Luis Piloto et ses collègues de l’Université de Princeton – que je passe en revue pour un article dans Nature Human Behavior – fait un pas en avant pour combler cette lacune. Les chercheurs ont créé un système d’intelligence artificielle (IA) d’apprentissage en profondeur qui a acquis une compréhension de certaines lois de bon sens du monde physique.

Les résultats aideront à construire de meilleurs modèles informatiques qui simulent l’esprit humain, en abordant une tâche avec les mêmes hypothèses qu’un nourrisson.

Comportement enfantin

En règle générale, les modèles d’IA commencent par une page blanche et sont formés sur des données avec de nombreux exemples différents, à partir desquels le modèle construit des connaissances. Mais la recherche sur les nourrissons suggère que ce n’est pas ce que font les bébés. Au lieu d’acquérir des connaissances à partir de zéro, les nourrissons commencent par quelques principes attentes sur les objets.

Par exemple, ils s’attendent à ce que s’ils s’occupent d’un objet qui est ensuite caché derrière un autre objet, le premier objet continuera d’exister. Il s’agit d’une hypothèse de base qui les lance dans la bonne direction. Leurs connaissances s’affinent ensuite avec le temps et l’expérience.

La découverte passionnante de Piloto et de ses collègues est qu’un système d’IA d’apprentissage en profondeur modélisé sur ce que font les bébés surpasse un système qui commence par une ardoise vierge et essaie d’apprendre en se basant uniquement sur l’expérience.

Cube glisse et boules dans les murs

Les chercheurs ont comparé les deux approches. Dans la version vierge, le modèle d’IA a reçu plusieurs animations visuelles d’objets. Dans certains exemples, un cube glisserait sur une rampe. Dans d’autres, une balle a rebondi dans un mur.

Le modèle a détecté des modèles à partir des différentes animations, puis a été testé sur sa capacité à prédire les résultats avec de nouvelles animations visuelles d’objets. Cette performance a été comparée à un modèle qui avait des «attentes fondées sur des principes» intégrées avant de subir des animations visuelles.

Ces principes étaient basés sur les attentes des nourrissons quant à la façon dont les objets se comportent et interagissent. Par exemple, les bébés s’attendent à ce que deux objets ne se croisent pas.

Si vous montrez à un bébé un tour de magie où vous violez cette attente, il peut détecter la magie. Ils révèlent ces connaissances en examinant beaucoup plus longtemps les événements aux résultats inattendus ou « magiques », par rapport aux événements où les résultats sont attendus.

Les bébés s’attendent également à ce qu’un objet ne puisse pas simplement apparaître et disparaître. Ils peut détecter lorsque cette attente est également violée.

Piloto et ses collègues ont trouvé que le modèle d’apprentissage en profondeur qui a commencé avec une ardoise vierge faisait du bon travail, mais que le modèle basé sur le codage centré sur l’objet inspiré de la cognition infantile faisait nettement mieux.

Ce dernier modèle pouvait prédire avec plus de précision comment un objet se déplacerait, réussissait mieux à appliquer les attentes à de nouvelles animations et apprenait à partir d’un plus petit ensemble d’exemples (par exemple, il y parvenait après l’équivalent de 28 heures de vidéo).

Une compréhension innée ?

Il est clair que l’apprentissage au fil du temps et de l’expérience est important, mais ce n’est pas tout. Cette recherche menée par Piloto et ses collègues apporte un éclairage sur la question séculaire de ce qui peut être inné chez l’homme et de ce qui peut être appris.

Au-delà de cela, cela définit de nouvelles limites pour le rôle que les données perceptives peuvent jouer lorsqu’il s’agit de systèmes artificiels acquérant des connaissances. Et cela montre également comment les études sur les bébés peuvent contribuer à construire de meilleurs systèmes d’IA qui simulent l’esprit humain.

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.

A lire également