Les régulateurs européens sur le robot de Meta doté d'intelligence artificielle
Meta a déclaré avoir interrompu ses projets concernant son assistant d'IA en Europe en raison des objections du régulateur irlandais de la protection de la vie privée.
Meta a déclaré dans un article de blog que la Commission irlandaise de protection des données (DPC) avait demandé à l'entreprise de suspendre la formation de ses grands modèles linguistiques sur le contenu rendu public sur les profils Facebook et Instagram.
Meta s'est dit déçu par cette demande, "d'autant plus que nous avons inclus les commentaires du régulateur et que les autorités européennes de protection des données en ont été informées en mars". Meta a récemment commencé à informer les utilisateurs européens qu'elle collecterait leurs données. Il offrait une option de non-participation pour tenter de se conformer aux lois européennes sur la protection de la vie privée.
L'entreprise affirme qu'elle "continuera à coopérer avec l'Autorité de protection des données". Mais le billet de blog indique que Google et OpenAI "ont déjà utilisé les données des Européens pour former l'IA". Dans ce document, Meta affirme que si les autorités de régulation n'autorisent pas l'utilisation des données des utilisateurs pour former des modèles d'IA, le résultat ne peut être que que Meta ne peut pas fournir un produit suffisamment bon. « En termes simples, sans l’inclusion d’informations locales, nous ne pourrions offrir aux gens qu’une expérience de second ordre. Cela signifie que nous ne pouvons pas introduire le système Meta AI en Europe pour le moment. »
Les régulateurs européens ont en revanche salué cette pause.
"Nous sommes heureux que Meta ait pris en compte nos préoccupations soulevées par les utilisateurs de leurs services au Royaume-Uni et ait répondu à notre demande de suspension et de révision de nos projets d'utilisation des données des utilisateurs de Facebook et d'Instagram pour former l'intelligence artificielle générative", a-t-il déclaré dans un communiqué. . Stephen Almond, directeur exécutif du risque réglementaire au bureau du commissaire à l'information du Royaume-Uni, a déclaré dans un communiqué.