Les géants américains de l’IA font alliance pour s’autoréguler

Publié le 27/07/2023 à 14:14

Les géants américains de l’IA font alliance pour s’autoréguler

Publié le 27/07/2023 à 14:14

Par AFP

Le déploiement rapide de l’IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d’inquiétudes des autorités et de la société civile. (Photo: 123RF)

 

San Francisco — Google, Microsoft, Anthropic et OpenAI, quatre entreprises en tête de la course aux intelligences artificielles de dernière génération, ont annoncé mercredi la création d’une nouvelle organisation professionnelle pour lutter contre les risques liés à cette technologie.
Baptisée «Frontier Model Forum», elle est chargée de promouvoir un «développement responsable» des modèles d’intelligence artificielle (IA) les plus sophistiqués et de «minimiser les risques potentiels», d’après un communiqué.
Les membres s’engagent à partager entre eux et avec des législateurs, chercheurs et associations des bonnes pratiques pour rendre ces nouveaux systèmes moins dangereux.
Le déploiement rapide de l’IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d’inquiétudes des autorités et de la société civile.
L’Union européenne (UE) finalise un projet de régulation de l’IA qui doit imposer des obligations aux entreprises du secteur, comme la transparence avec les utilisateurs ou le contrôle humain sur la machine.
Aux États-Unis, les tensions politiques au Congrès empêchent tout effort en ce sens. La Maison-Blanche incite donc les groupes concernés à s’assurer eux-mêmes de la sûreté de leurs produits, au nom de leur «devoir moral», selon les mots de la vice-présidente américaine Kamala Harris début mai.
La semaine dernière, l’administration de Joe Biden a obtenu des «engagements» d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI à respecter «trois principes» dans le développement de l’IA — la sûreté, la sécurité et la confiance.
Elles sont notamment censées tester leurs programmes en amont, lutter contre les cyberattaques et la fraude, et trouver un moyen de marquer les contenus générés par de l’IA, afin de les authentifier clairement comme tels.
Les dirigeants de ces entreprises ne nient pas les risques, au contraire. En juin, Sam Altman, le patron d’OpenAI et Demis Hassabis, le dirigeant de DeepMind (Google), notamment, ont appelé à lutter contre «les risques d’extinction» de l’humanité «liés à l’IA».
Lors d’une audition au Congrès, Sam Altman a soutenu l’idée en vogue de créer une agence internationale chargée de la gouvernance de l’intelligence artificielle, comme il en existe dans d’autres domaines.
En attendant, OpenAI travaille vers une IA dite «générale», aux capacités cognitives qui seraient similaires à celles des humains.
Dans une publication du 6 juillet, la start-up californienne a défini les «frontier model» d’IA comme des programmes fondamentaux «très perfectionnés qui pourraient comporter des capacités dangereuses de taille à poser des risques graves pour la sécurité du public».
«Des capacités dangereuses peuvent émerger de façon inattendue», prévient encore OpenAI, et «il est difficile de vraiment empêcher qu’un modèle déployé soit utilisé de façon abusive».

 

San Francisco — Google, Microsoft, Anthropic et OpenAI, quatre entreprises en tête de la course aux intelligences artificielles de dernière génération, ont annoncé mercredi la création d’une nouvelle organisation professionnelle pour lutter contre les risques liés à cette technologie. 

Baptisée «Frontier Model Forum», elle est chargée de promouvoir un «développement responsable» des modèles d’intelligence artificielle (IA) les plus sophistiqués et de «minimiser les risques potentiels», d’après un communiqué.

Les membres s’engagent à partager entre eux et avec des législateurs, chercheurs et associations des bonnes pratiques pour rendre ces nouveaux systèmes moins dangereux.

Le déploiement rapide de l’IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d’inquiétudes des autorités et de la société civile.

L’Union européenne (UE) finalise un projet de régulation de l’IA qui doit imposer des obligations aux entreprises du secteur, comme la transparence avec les utilisateurs ou le contrôle humain sur la machine.

Aux États-Unis, les tensions politiques au Congrès empêchent tout effort en ce sens. La Maison-Blanche incite donc les groupes concernés à s’assurer eux-mêmes de la sûreté de leurs produits, au nom de leur «devoir moral», selon les mots de la vice-présidente américaine Kamala Harris début mai.

La semaine dernière, l’administration de Joe Biden a obtenu des «engagements» d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI à respecter «trois principes» dans le développement de l’IA — la sûreté, la sécurité et la confiance.

Elles sont notamment censées tester leurs programmes en amont, lutter contre les cyberattaques et la fraude, et trouver un moyen de marquer les contenus générés par de l’IA, afin de les authentifier clairement comme tels.

Les dirigeants de ces entreprises ne nient pas les risques, au contraire. En juin, Sam Altman, le patron d’OpenAI et Demis Hassabis, le dirigeant de DeepMind (Google), notamment, ont appelé à lutter contre «les risques d’extinction» de l’humanité «liés à l’IA».

Lors d’une audition au Congrès, Sam Altman a soutenu l’idée en vogue de créer une agence internationale chargée de la gouvernance de l’intelligence artificielle, comme il en existe dans d’autres domaines.

En attendant, OpenAI travaille vers une IA dite «générale», aux capacités cognitives qui seraient similaires à celles des humains.

Dans une publication du 6 juillet, la start-up californienne a défini les «frontier model» d’IA comme des programmes fondamentaux «très perfectionnés qui pourraient comporter des capacités dangereuses de taille à poser des risques graves pour la sécurité du public».

«Des capacités dangereuses peuvent émerger de façon inattendue», prévient encore OpenAI, et «il est difficile de vraiment empêcher qu’un modèle déployé soit utilisé de façon abusive».

 

 

Sur le même sujet

Reddit donne accès à ses contenus à OpenAI (ChatGPT)

17/05/2024 | AFP

OpenAI pourra utiliser en temps réel les messages et conversations publiés sur Reddit pour enrichir ses services.

Le bébé de ChatGPT et Shopify est Québécois

13/05/2024 | Emmanuel Martinez

Ursa Marketing a lancé un agent conversationnel basé sur l’IA qui permet aux entreprises de comprendre leurs clients.

À la une

Le Québec pâtira-t-il de la guerre commerciale verte avec la Chine?

17/05/2024 | François Normand

ANALYSE. Les producteurs d’acier craignent que la Chine inonde le marché canadien, étant bloquée aux États-Unis.

Bourse: Wall Street finit en ordre dispersé, le Dow Jones clôture au-dessus des 40 000 points

Mis à jour le 17/05/2024 | lesaffaires.com, AFP et Presse canadienne

REVUE DES MARCHÉS. La Bourse de New York a terminé en ordre dispersé.

À surveiller: AtkinsRéalis, Boralex et Lightspeed

17/05/2024 | Charles Poulin

Que faire avec les titres AtkinsRéalis, Boralex et Lightspeed? Voici des recommandations d’analystes.