Les grandes entreprises s’accordent sur des garanties pour gérer l’intelligence artificielle
La Maison Blanche a annoncé que sept entreprises leaders dans le domaine de l'intelligence artificielle se sont engagées à gérer les risques posés par cette nouvelle technologie.
Cela impliquera de tester la sécurité de l’intelligence artificielle et de rendre publics les résultats de ces tests.
Des représentants d'Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI se sont joints au président américain Joe Biden pour annoncer cette collaboration.
La rapidité avec laquelle les entreprises développent leurs outils a alimenté les craintes d’une propagation de la désinformation, notamment à l’approche de l’élection présidentielle américaine de 2024.
"Nous devons être clairs et attentifs aux menaces qui découlent des technologies émergentes qui peuvent poser – pas nécessairement, mais peuvent poser – un risque pour la démocratie et nos valeurs", a déclaré le président Joe Biden lors d'un discours vendredi.
La semaine dernière, Meta, la société mère de Facebook, a également annoncé son propre outil d'IA appelé Llama 2.
Dans le cadre de l'accord signé vendredi, les entreprises et le gouvernement américain ont convenu de :
- Tests de sécurité de leurs systèmes d'IA par des experts internes et externes avant leur sortie
- Garantir que le contenu de l'IA peut être remarqué par les humains en introduisant des filigranes
- Rapports publics réguliers sur les capacités et les limites de l'IA
- Explorer les risques tels que les préjugés, la discrimination et l’invasion de la vie privée
L’objectif est de permettre aux gens de savoir facilement quand un contenu en ligne est créé par l’intelligence artificielle.
Les filigranes pour le contenu généré par l'IA figuraient parmi les sujets abordés par le commissaire européen Thierry Breton avec le PDG d'OpenAI, Sam Altman, lors d'une visite à San Francisco en juin.
"J'ai hâte de poursuivre nos discussions – en particulier sur le filigrane", a écrit Breton dans un tweet comprenant un extrait d'une vidéo de lui et de M. Altman.
Dans la vidéo, M. Altman a déclaré que « très bientôt, j'aimerais montrer » ce que fait OpenAI avec les filigranes.
Les garanties volontaires signées vendredi constituent une étape vers une réglementation plus stricte de l'intelligence artificielle aux États-Unis.
La Maison Blanche a déclaré qu’elle travaillerait également avec ses alliés pour établir un cadre international régissant le développement et l’utilisation de l’intelligence artificielle. Les avertissements concernant la technologie incluent qu'elle pourrait être utilisée pour générer de la désinformation et déstabiliser la société, et qu'elle pourrait poser un risque existentiel pour l'humanité – bien que certains experts aient déclaré que les avertissements apocalyptiques sont exagérés.
L’Europe prépare également sa propre loi sur l’intelligence artificielle, qui s’appliquera à tous ceux qui développent et déploient des systèmes d’intelligence artificielle dans l’UE. Il présente de nombreuses similitudes avec le nouveau pacte de coopération américain. L'étendue de la réglementation dépend des risques créés par chaque application, de minimes à « inacceptables ». Les systèmes entrant dans cette dernière catégorie sont totalement interdits. Il s’agit notamment de systèmes de reconnaissance faciale en temps réel dans les espaces publics, d’outils de police prédictive et de systèmes de notation sociale similaires à ceux en Chine qui attribuent aux personnes un « score » en fonction de leur comportement.
La législation fixe également des limites strictes aux applications d'IA « à haut risque », c'est-à-dire celles qui menacent « de nuire de manière significative à la santé humaine, à la sécurité, aux droits fondamentaux ou à l'environnement ».
Il s'agit notamment des systèmes utilisés pour influencer les électeurs lors des élections, ainsi que des plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs qui recommandent du contenu à leurs utilisateurs - une liste qui comprendrait Facebook, Twitter, Instagram et même les derniers Threads.
La loi définit également les exigences de transparence pour les systèmes d’intelligence artificielle.
Par exemple, des systèmes comme ChatGPT devraient révéler que leur contenu a été généré par l’intelligence artificielle, distinguer les images profondément fausses des images réelles et offrir une protection contre la création de contenu illégal.
L’intelligence artificielle a suscité beaucoup d’attention, tant positive que négative. La bonne nouvelle est que les gouvernements et les entreprises ont réagi très tôt aux nombreuses préoccupations du public et ont commencé à réglementer de manière préventive.
Image de couverture : Image de jcomp sur Freepik