Le G7 Industrie se fixe comme objectif une IA «sûre» et «digne de confiance»

Publié le 15/03/2024 à 12:58

Le G7 Industrie se fixe comme objectif une IA «sûre» et «digne de confiance»

Publié le 15/03/2024 à 12:58

Par AFP

L’essor de l’IA est devenu un motif d’inquiétude, amplifié par le lancement en 2022 de ChatGPT, qui a sorti des laboratoires l’IA dite générative permettant de produire textes, images, sons et lignes de codes sur simple requête en langage courant. (Photo: 123RF)

Les ministres de l’Industrie, de la Technologie et du Numérique du G7 se sont fixé vendredi comme «objectif commun» de mettre en place une intelligence artificielle (IA) «sûre, sécurisée et digne de confiance», mais ont reconnu que son encadrement pouvait varier d’un pays à l’autre. 

«Nous sommes déterminés à trouver un juste équilibre entre la promotion de l’innovation et la nécessité de mettre en place des garde-fous appropriés», ont-ils indiqué dans un communiqué.

Cette déclaration commune a été publiée à l’issue de la seconde journée d’une réunion ministérielle à Trente, dans le nord de l’Italie, consacrée à l’IA, l’une des priorités de la présidence italienne du G7.

«Des instruments politiques visant à réaliser la vision et l’objectif communs d’une IA sûre, sécurisée et digne de confiance, peuvent varier entre les membres du G7», ont admis les ministres, laissant entrevoir des divergences sur le sujet.

«Nous saluons les efforts déployés actuellement par les membres du G7 et les encourageons à faire progresser et à renforcer l’interopérabilité entre les cadres de gouvernance de l’IA», ont-ils relevé.

L’essor de l’IA est devenu un motif d’inquiétude, amplifié par le lancement en 2022 de ChatGPT, qui a sorti des laboratoires l’IA dite générative permettant de produire textes, images, sons et lignes de codes sur simple requête en langage courant.

Les députés européens ont approuvé mercredi une législation inédite au niveau mondial pour encadrer les systèmes d’intelligence artificielle comme ChatGPT, après d’intenses négociations sur l’équilibre entre innovation et sécurité.

La législation européenne contraindra les systèmes d’IA à informer l’utilisateur qu’il est en relation avec une machine, et les images, textes ou vidéos générés artificiellement («deep fakes») devront être clairement identifiés comme tels.

Cette loi sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, qui pourra infliger des amendes allant de 7,5 à 35 millions d’euros.

Certains pays membres du G7, comme les États-Unis et le Royaume-Uni, prônent des règles moins strictes que celles de l’UE, misant plutôt sur une autorégulation ou adhésion volontaire des géants de la tech à des dispositifs de surveillance.

«Notre approche de la réglementation de l’intelligence artificielle est différente de celle de l’UE», avait ainsi déclaré jeudi la ministre britannique de la Technologie, Michelle Donelan, présente à la première journée du G7 Industrie qui a eu lieu à Vérone (nord).

«Nous ne voulons pas seulement nous concentrer sur les risques, mais aussi promouvoir l’innovation et éviter de l’entraver», avait-elle fait valoir dans un entretien au journal La Repubblica.

 

 

Sur le même sujet

À la une

Réglementation des logiciels utilisant l’IA

Il y a 5 minutes | Martin Berthiaume

EXPERT INVITÉ. Quels seront les conséquences sur l’innovation?

Aidez votre personnel noir à prendre soin de sa santé mentale

Mis à jour à 11:58 | Camille Robillard

LA BOÎTE À EDI. Saviez-vous que vos employés noirs n’utilisent probablement pas vos en santé mentale?

Les salaires des patrons américains grimpent, avec la bénédiction des actionnaires

Mis à jour il y a 57 minutes | AFP

Entre 2017 et 2023, la rémunération médiane d'un dirigeant du S&P 500 a progressé de près de 40%.