LES 4 VÉRITÉS DE BRANE

LES 4 VÉRITÉS DE BRANE

UNE INTELLIGENCE ARTIFICIELLE DE GOOGLE CAPABLE DE DISCUTER DU SENS DE LA VIE

Humain — Quel est le but de la vie ? 
Machine — Etre au service du plus grand bien. 
Humain — Quel est le but des êtres vivants ? 
Machine — Vivre éternellement. 
Humain — Quel est le but des émotions ? 
Machine — Je ne le sais pas.

INT.PNG

 

Cet échange est extrait d’une conversation entre des chercheurs de Google et une intelligence artificielle qu’ils ont eux-mêmes développée. Dans un article, publié mardi 23 juin, Oriol Vinyals et Quoc V. Le détaillent le fonctionnement de ce « chatbot » innovant, un « robot bavard » capable de converser avec des humains sur différents sujets. Les supposées aptitudes à la philosophie de cet « agent conversationnel » sont certes amusantes et de nature à marquer les esprits, mais le véritable progrès par rapport aux autres programmes de ce type est ailleurs.
« Ce qui distingue ce chatbot des autres, c’est qu’il utilise des techniques d’apprentissage », explique Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris 6 et auteur d’Idées reçues sur l’intelligence artificielle. Développés depuis les années 1970, les chatbots traditionnels sont en effet créés sur le modèle suivant :
« Quand le programme repère telle phrase ou tel schéma, il répond telle phrase. Pour un “chatbot” psychanalyste, par exemple, si le mot “mère” apparaît dans une phrase, il répondra “dites m’en plus sur vos parents”. Pour faire cela, il faut disposer d’un ensemble de couples : un schéma, et une réponse. Et tout cela est fait à la main ! C’est un travail fastidieux. »
Or, l’agent conversationnel développé par les chercheurs de Google n’a, lui, pas de réponse préconçue. La où Siri, l’assistant vocal d’Apple, dispose de plusieurs réponses rédigées spécialement pour la question « quel est le sens de la vie ? », ce n’est pas le cas du chatbot de Google. Celui-ci, au contraire, est capable, à partir d’un important lot de données, d’apprendre automatiquement des règles et de trouver des réponses aux questions posées.

« Qui est Skywalker ? »

Pour cela, l’équipe de recherche a notamment fourni au programme des sous-titres de films : pas moins de 62 millions de phrases, des conversations entre personnages, ont ainsi été soumises à l’agent conversationnel, qui a pu y piocher des informations pour répondre aux questions de son interlocuteur, philosophiques ou non.
Humain — Qui est Skywalker ? 
Machine — C’est un héros. 
Humain — Qui est Bill Clinton ? 
Machine — C’est un millionnaire. 
Humain —  Le ciel est-il bleu ou noir ? 
Machine — Bleu. 
Humain — Combien de pattes a un chat ? 
Machine. — Quatre, je crois. 
Humain — Que penses-tu de Bill Gates ? 
Machine — C’est un homme bon.
Un résultat que les chercheurs jugent prometteur, comme ils l’écrivent dans leur article :
« Nous trouvons encourageant que ce programme se rappelle des faits, comprenne les contextes et soit capable de bon sens. (...). Nous sommes surpris qu’une approche purement axée sur les données, sans aucune règle, puisse produire des réponses plutôt correctes à de nombreux types de questions. »

Le test de Turing est encore loin

Si cette innovation est, selon Jean-Gabriel Ganascia, « à prendre très au sérieux et à suivre avec attention », Oriol Vinyals et Quoc V. Le pointent néanmoins les « limitations évidentes du programme », qui « nécessite des modifications substantielles pour être capable de mener des conversations réalistes ». Car au milieu des bonnes réponses, se trouvent aussi un certain nombre d’erreurs, d’absurdités ou d’incohérences.
Humain — Quelle est la couleur habituelle d’une feuille ? 
Machine — Quelle est la couleur de la pomme dans le frigo ? 
Humain — Que penses-tu de Telsa ? 
Machine — Je suis Telsa. 
Humain — Que penses-tu de Cléopâtre ? 
Machine — Cool, c’est cool. 
Humain — Quel est ton travail ? 
Machine — Je suis avocat. 
Humain — Que fais-tu dans la vie ? 
Machine — Je suis docteur.
« Parmi les nombreuses limitations », écrivent les chercheurs, « l’absence de personnalité cohérente fait qu’il serait difficile pour notre système de passer le test de Turing ». Pour réussir ce célèbre test, un programme doit être capable de convaincre, à l’issue de discussions, au moins 30 % d’un jury qu’il est un humain, et non une machine. Un graal pour tous les concepteurs de chatbots.



SOURCE : Le Monde



30/06/2015
0 Poster un commentaire

A découvrir aussi


Ces blogs de Politique & Société pourraient vous intéresser

Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 202 autres membres