Geschäftslösungen
Informatik, Telefonie
Sicherheit
24.07.2023 08:40

Mit anderen teilen:

Aktie

Führende Unternehmen einigen sich auf Sicherheitsvorkehrungen für den Umgang mit künstlicher Intelligenz

Foto: jcomp auf Freepik
Foto: jcomp auf Freepik

Das Weiße Haus gab bekannt, dass sich sieben führende Unternehmen im Bereich der künstlichen Intelligenz verpflichtet haben, die von der neuen Technologie ausgehenden Risiken zu bewältigen.

Dazu gehört, die Sicherheit künstlicher Intelligenz zu testen und die Ergebnisse dieser Tests zu veröffentlichen.

Vertreter von Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI kündigten gemeinsam mit US-Präsident Joe Biden die Zusammenarbeit an.

Die Geschwindigkeit, mit der Unternehmen ihre Tools entwickeln, hat insbesondere im Vorfeld der US-Präsidentschaftswahl 2024 Ängste vor der Verbreitung von Desinformation geschürt.

„Wir müssen uns der Bedrohungen bewusst sein, die von neuen Technologien ausgehen, die möglicherweise – nicht unbedingt, aber möglicherweise – ein Risiko für die Demokratie und unsere Werte darstellen“, sagte Präsident Joe Biden während einer Rede am Freitag.

Letzte Woche kündigte Meta, die Muttergesellschaft von Facebook, auch ein eigenes KI-Tool namens Llama 2 an.

Im Rahmen der am Freitag unterzeichneten Vereinbarung einigten sich die Unternehmen und die US-Regierung auf Folgendes:

  • Sicherheitstests ihrer KI-Systeme durch interne und externe Experten vor ihrer Veröffentlichung
  • Durch die Einführung von Wasserzeichen wird sichergestellt, dass KI-Inhalte von Menschen wahrgenommen werden können
  • Regelmäßige öffentliche Berichterstattung über die Möglichkeiten und Grenzen von KI
  • Erkundung von Risiken wie Voreingenommenheit, Diskriminierung und Verletzung der Privatsphäre

Ziel ist es, den Menschen leicht zu erkennen, wann Online-Inhalte durch künstliche Intelligenz erstellt werden.

Wasserzeichen für KI-generierte Inhalte gehörten zu den Themen, die EU-Kommissar Thierry Breton bei einem Besuch in San Francisco im Juni mit OpenAI-CEO Sam Altman besprach.

„Ich freue mich darauf, unsere Diskussionen fortzusetzen – insbesondere zum Thema Wasserzeichen“, schrieb Breton in einem Tweet, der einen Ausschnitt aus einem Video von ihm und Herrn Altman enthielt.

In dem Video sagte Herr Altman, dass ich „sehr bald zeigen möchte“, was OpenAI mit Wasserzeichen macht.

Die am Freitag unterzeichneten freiwilligen Schutzmaßnahmen sind ein Schritt hin zu einer strengeren Regulierung künstlicher Intelligenz in den USA.

Das Weiße Haus sagte, es werde auch mit Verbündeten zusammenarbeiten, um einen internationalen Rahmen für die Entwicklung und Nutzung künstlicher Intelligenz zu schaffen. Zu den Warnungen vor der Technologie gehört, dass sie zur Erzeugung von Desinformation und zur Destabilisierung der Gesellschaft eingesetzt werden könnte und dass sie eine existenzielle Gefahr für die Menschheit darstellen könnte – obwohl einige Experten die apokalyptischen Warnungen für übertrieben halten.

Europa bereitet außerdem ein eigenes Gesetz zur künstlichen Intelligenz vor, das für alle gilt, die Systeme der künstlichen Intelligenz in der EU entwickeln und einsetzen. Es weist einige Ähnlichkeiten mit dem neuen amerikanischen Kooperationspakt auf. Der Umfang der Regulierung hängt von den mit der jeweiligen Anwendung verbundenen Risiken ab und reicht von minimal bis „inakzeptabel“. Systeme, die in die letztgenannte Kategorie fallen, sind völlig verboten. Dazu gehören Echtzeit-Gesichtserkennungssysteme im öffentlichen Raum, prädiktive Polizeiwerkzeuge und soziale Bewertungssysteme ähnlich denen in China, die Menschen anhand ihres Verhaltens eine „Punktzahl“ zuweisen.

Die Gesetzgebung legt außerdem strenge Grenzen für „risikoreiche“ KI-Anwendungen fest, also solche, die „erhebliche Schäden für die menschliche Gesundheit, Sicherheit, Grundrechte oder die Umwelt“ drohen.

Dazu gehören Systeme zur Wählerbeeinflussung bei Wahlen sowie Social-Media-Plattformen mit mehr als 45 Millionen Nutzern, die ihren Nutzern Inhalte empfehlen – eine Liste, die Facebook, Twitter, Instagram und sogar die neuesten Threads umfasst.

Das Gesetz legt auch die Transparenzanforderungen für Systeme der künstlichen Intelligenz fest.

Systeme wie ChatGPT sollten beispielsweise offenlegen, dass ihre Inhalte durch künstliche Intelligenz generiert wurden, stark gefälschte Bilder von echten unterscheiden und Schutz vor der Erstellung illegaler Inhalte bieten.

Künstliche Intelligenz hat viel Aufmerksamkeit erregt, sowohl im Positiven als auch im Negativen. Die gute Nachricht ist, dass Regierungen und Unternehmen frühzeitig auf viele Bedenken der Öffentlichkeit reagiert und präventiv mit der Regulierung begonnen haben.

Titelbild: Bild von jcomp auf Freepik


Interessiert an mehr zu diesem Thema?
ChatGPT Facebook Minze künstliche Intelligenz


Was lesen andere?