Les robots conversationnels toujours plus convaincants

Publié le 05/12/2022 à 07:59

Les robots conversationnels toujours plus convaincants

Publié le 05/12/2022 à 07:59

Par AFP

Le logiciel a fait ses preuves à Diplomacy, un jeu de société qui requiert des talents de négociateur. (Photo: 123RF)

San Francisco — La start-up californienne OpenAI a mis en ligne un robot conversationnel (chatbot) capable de répondre à des questions variées, mais dont les performances impressionnantes relancent le débat sur les risques liés aux technologies d’intelligence artificielle (IA).

Les conversations avec ChatGPT, postées notamment sur Twitter par des internautes fascinés, montrent une sorte de machine omnisciente, capable d’expliquer des concepts scientifiques, d’écrire une scène de théâtre, de rédiger une dissertation universitaire… ou bien des lignes de code informatique parfaitement fonctionnelles.

«Sa réponse à la question “que faire si quelqu’un a une crise cardiaque” était d’une clarté et d’une pertinence assez incroyable», a raconté à l’AFP Claude de Loupy, dirigeant de Syllabs, entreprise française spécialisée dans la génération automatique de texte.

«Quand on commence à poser des questions très précises, ChatGPT peut répondre à côté de la plaque», mais ses performances restent globalement «vraiment impressionnantes», avec un «niveau linguistique assez haut», estime-t-il.  

La start-up OpenAI, cofondée en 2015 à San Francisco par Elon Musk — le patron de Tesla a quitté l’entreprise en 2018 — a reçu 1 milliard de dollars de Microsoft en 2019. 

Elle est connue notamment pour deux logiciels de création automatisée, GPT-3 pour la génération de textes, et DALL-E pour la génération d’images.

ChatGPT est capable de demander des précisions à son interlocuteur, et «à moins d’hallucinations» que GPT-3, qui malgré ses prouesses est capable de sortir des résultats complètement aberrants, relate Claude de Loupy.

 

Cicéron

«Il y a quelques années, les chatbots avaient le vocabulaire d’un dictionnaire et la mémoire d’un poisson rouge. Aujourd’hui ils sont bien meilleurs à réagir de façon cohérente en fonction de l’historique des requêtes et réponses. Ce ne sont plus des poissons rouges», note Sean McGregor, un chercheur qui compile des incidents liés à l’IA sur une base de données.

Comme d’autres programmes reposant sur l’apprentissage profond (deep learning), ChatGPT conserve une faiblesse de taille : «elle n’a pas accès au sens», rappelle Claude de Loupy. Le logiciel ne peut pas justifier ses choix, c’est-à-dire expliquer pourquoi il a assemblé ainsi les mots qui forment ses réponses.

Les technologies à base d’IA capables de communiquer sont néanmoins de plus en plus capables de donner l’impression qu’elles réfléchissent vraiment.

Des chercheurs de Meta (Facebook) ont récemment mis au point un programme informatique baptisé Cicero, comme l’homme d’État romain Cicéron. 

Le logiciel a fait ses preuves à Diplomacy, un jeu de société qui requiert des talents de négociateur.

«S’il ne parle pas comme une personne réelle — faisant preuve d’empathie, construisant des relations et parlant correctement du jeu — il ne pourra pas nouer d’alliances avec les autres joueurs» détaille un communiqué du géant des réseaux sociaux.

Character.ai, une start-up fondée par d’anciens ingénieurs de Google, a mis en ligne en octobre un chatbot expérimental, qui peut adopter n’importe quelle personnalité. Les utilisateurs créent des personnages selon un bref descriptif, et peuvent ensuite «converser» avec de faux Sherlock Holmes, Socrate ou Donald Trump.

 

«Simple machine»

Ce degré de sophistication fascine, mais inquiète aussi de nombreux observateurs, à l’idée que ces technologies ne soient détournées pour piéger les humains, en diffusant de fausses informations par exemple, ou en créant des arnaques de plus en plus crédibles.

Qu’en «pense» ChatGPT ? «ll existe des dangers potentiels à construire des chatbots ultra sophistiqués (…) Des gens pourraient croire qu’ils interagissent avec une vraie personne», reconnaît le chatbot interrogé sur ce sujet par l’AFP.

Les entreprises mettent donc en place des garde-fous pour éviter des abus.

Sur la page d’accueil, OpenAI précise que le chatbot peut générer des «informations incorrectes» ou «produire des instructions dangereuses ou des contenus biaisés».

Et ChatGPT refuse de prendre parti. «OpenAI a fait en sorte qu’il soit incroyablement difficile de lui faire exprimer des opinions», souligne Sean McGregor.

Le chercheur a demandé au chatbot d’écrire un poème sur une question éthique. «Je suis une simple machine, un outil à votre disposition/je n’ai pas le pouvoir de juger ou de prendre des décisions (…)», lui a répondu l’ordinateur.

«Intéressant de voir les gens se demander si les systèmes d’IA devraient se comporter comme les utilisateurs le souhaitent ou comme les créateurs l’ont prévu», a tweeté samedi Sam Altman, cofondateur et patron d’OpenAI.

«Le débat sur quelles valeurs donner à ces systèmes va être l’un des plus importants qu’une société puisse avoir», a-t-il ajouté.

 

Sur le même sujet

Washington alerte sur l’écart entre grandes et petites banques face à l’IA

27/03/2024 | AFP

L’intelligence artificielle est déjà largement présente au quotidien, des smartphones aux aéroports.

Lightspeed explore l’IA générative afin d’aider les commerçants

L’IA pourrait être utile aux commerçants souhaitant rédiger des descriptions de produits.

À la une

Bourse: nouveaux records pour le Dow Jones et le S&P 500 à Wall Street

Mis à jour le 28/03/2024 | lesaffaires.com, AFP et Presse canadienne

REVUE DES MARCHÉS. La Bourse de Toronto est en hausse et les marchés américains sont mitigés.

À surveiller: Microsoft, Apple et Dollarama

28/03/2024 | lesaffaires.com

Que faire avec les titres de Microsoft, Apple et Dollarama? Voici quelques recommandations d’analystes.

Bourse: les gagnants et les perdants du 28 mars

Mis à jour le 28/03/2024 | LesAffaires.com et La Presse Canadienne

Voici les titres d'entreprises qui ont le plus marqué l'indice S&P/TSX aujourd'hui.