Le aziende leader concordano misure di salvaguardia per gestire l’intelligenza artificiale
La Casa Bianca ha annunciato che sette aziende leader nel campo dell'intelligenza artificiale si sono impegnate a gestire i rischi posti dalla nuova tecnologia.
Ciò includerà testare la sicurezza dell’intelligenza artificiale e rendere pubblici i risultati di tali test.
Rappresentanti di Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI si sono uniti al presidente degli Stati Uniti Joe Biden nell'annunciare la collaborazione.
La velocità con cui le aziende stanno sviluppando i propri strumenti ha alimentato i timori sulla diffusione della disinformazione, soprattutto nel periodo precedente alle elezioni presidenziali americane del 2024.
"Dobbiamo essere chiari e attenti alle minacce derivanti dalle tecnologie emergenti che potrebbero rappresentare - non necessariamente, ma potrebbero rappresentare - un rischio per la democrazia e i nostri valori", ha affermato il presidente Joe Biden durante un discorso venerdì.
La scorsa settimana, Meta, la società madre di Facebook, ha anche annunciato il proprio strumento di intelligenza artificiale chiamato Llama 2.
Nell’ambito dell’accordo firmato venerdì, le aziende e il governo degli Stati Uniti hanno convenuto di:
- Test di sicurezza dei loro sistemi di intelligenza artificiale da parte di esperti interni ed esterni prima del loro rilascio
- Garantire che i contenuti dell'intelligenza artificiale possano essere notati dagli esseri umani introducendo filigrane
- Reporting pubblico regolare sulle capacità e sui limiti dell’intelligenza artificiale
- Esplorare rischi quali pregiudizi, discriminazioni e violazioni della privacy
L’obiettivo è consentire alle persone di capire facilmente quando i contenuti online vengono creati dall’intelligenza artificiale.
Le filigrane per i contenuti generati dall'intelligenza artificiale sono stati tra gli argomenti discussi dal commissario europeo Thierry Breton con il CEO di OpenAI Sam Altman durante una visita a San Francisco a giugno.
"Non vedo l'ora di continuare le nostre discussioni, in particolare sulla filigrana", ha scritto Breton in un tweet che includeva una clip di un video di lui e del signor Altman.
Nel video, il signor Altman ha detto che "molto presto, mi piacerebbe mostrare" cosa sta facendo OpenAI con le filigrane.
Le misure di salvaguardia volontarie firmate venerdì rappresentano un passo verso una regolamentazione più rigorosa dell’intelligenza artificiale negli Stati Uniti.
La Casa Bianca ha affermato che collaborerà anche con gli alleati per stabilire un quadro internazionale per governare lo sviluppo e l’uso dell’intelligenza artificiale. Gli avvertimenti sulla tecnologia includono che potrebbe essere utilizzata per generare disinformazione e destabilizzare la società e che potrebbe rappresentare un rischio esistenziale per l’umanità, sebbene alcuni esperti abbiano affermato che gli avvertimenti apocalittici sono esagerati.
L’Europa sta inoltre preparando una propria legge sull’intelligenza artificiale, che si applicherà a tutti coloro che sviluppano e utilizzano sistemi di intelligenza artificiale nell’UE. Ha non poche somiglianze con il nuovo patto di cooperazione americano. La portata della regolamentazione dipende dai rischi creati da ciascuna applicazione, da minimi a "inaccettabili". I sistemi che rientrano in quest'ultima categoria sono completamente vietati. Questi includono sistemi di riconoscimento facciale in tempo reale negli spazi pubblici, strumenti di polizia predittiva e sistemi di punteggio sociale simili a quelli cinesi che assegnano alle persone un “punteggio” in base al loro comportamento.
La legislazione stabilisce inoltre limiti severi alle applicazioni di intelligenza artificiale “ad alto rischio”, ovvero quelle che minacciano “danni significativi alla salute umana, alla sicurezza, ai diritti fondamentali o all’ambiente”.
Questi includono sistemi utilizzati per influenzare gli elettori alle elezioni, nonché piattaforme di social media con oltre 45 milioni di utenti che consigliano contenuti ai propri utenti: un elenco che includerebbe Facebook, Twitter, Instagram e persino gli ultimi Thread.
La legge delinea anche i requisiti di trasparenza per i sistemi di intelligenza artificiale.
Ad esempio, sistemi come ChatGPT dovrebbero rivelare che i loro contenuti sono stati generati dall’intelligenza artificiale, distinguere le immagini profondamente false da quelle reali e fornire protezione contro la creazione di contenuti illegali.
L’intelligenza artificiale ha attirato molta attenzione, sia positiva che negativa. La buona notizia è che i governi e le aziende hanno risposto tempestivamente a molte delle preoccupazioni del pubblico e hanno iniziato preventivamente a regolamentare.
Immagine di copertina: Immagine di jcomp su Freepik