Wissenschaftler forschen daran, künstliche Intelligenz zu verstehen
Dieser Ansatz hilft Benutzern, das Innenleben der „Black Boxes“ von KI-Algorithmen zu verstehen, insbesondere im medizinischen Einsatz und im Kontext des bevorstehenden europäischen Gesetzes über künstliche Intelligenz.
Ein Forscherteam der Universität Genf (UNIGE), der Universitätskliniken Genf (HUG) und der National University of Singapore (NUS) hat einen neuen Ansatz zur Bewertung des Verständnisses von Technologien der künstlichen Intelligenz entwickelt.
Dieser Durchbruch ermöglicht eine größere Transparenz und Glaubwürdigkeit von KI-gestützten Diagnose- und Vorhersagetools. Die neue Methode deckt die mysteriöse Funktionsweise der sogenannten „Black Boxes“ von KI-Algorithmen auf und hilft Benutzern zu verstehen, welche Auswirkungen die von KI erzeugten Ergebnisse haben und ob ihnen vertraut werden kann.
Dies ist besonders wichtig in Szenarien, die erhebliche Auswirkungen auf die Gesundheit und das Wohlbefinden des Menschen haben, wie beispielsweise der Einsatz von KI im medizinischen Umfeld. Besondere Bedeutung kommt der Forschung im Zusammenhang mit dem bevorstehenden EU-Gesetz über künstliche Intelligenz zu, das die Entwicklung und Nutzung von KI in der EU regeln soll.
Die Ergebnisse wurden kürzlich in der Fachzeitschrift Nature Machine Intelligence veröffentlicht. Zeitreihen von Daten, die die zeitliche Entwicklung von Informationen darstellen, sind überall vorhanden: zum Beispiel in der Medizin bei der Aufzeichnung der Herzaktivität mit einem Elektrokardiogramm (EKG), bei der Untersuchung von Erdbeben, bei der Verfolgung von Wetterereignissen oder in der Wirtschaftswissenschaft bei der Überwachung von Finanzmärkten.
Diese Daten können mithilfe von KI-Technologien modelliert werden, um Diagnose- oder Vorhersagetools zu erstellen. Fortschritte in der KI und insbesondere im Deep Learning, bei dem eine Maschine mithilfe großer Datenmengen trainiert wird, um diese zu interpretieren und nützliche Muster zu lernen, ebnen den Weg für immer genauere Diagnose- und Vorhersagewerkzeuge. Dennoch wirft der Mangel an Einblicken in die Funktionsweise von KI-Algorithmen und die Auswirkungen auf ihre Ergebnisse wichtige Fragen zur Zuverlässigkeit der „Black-Box“-KI-Technologie auf.
„Die Funktionsweise dieser Algorithmen ist bestenfalls intransparent“, sagt Professor Christian Lovis, Direktor der Abteilung für Radiologie und Medizinische Informatik an der Medizinischen Fakultät der UNIGE und Leiter der Abteilung für Medizinische Informationswissenschaft am HUG und einer der Autoren der Studie zum Verständnis von KI.
„Natürlich steht viel auf dem Spiel, vor allem finanziell. Aber wie können wir einer Maschine vertrauen, ohne die Grundlage ihrer Argumentation zu verstehen? Diese Fragen sind von entscheidender Bedeutung, insbesondere in Branchen wie der Medizin, wo KI-gesteuerte Entscheidungen Auswirkungen auf die Gesundheit und sogar das Leben der Menschen haben können, und im Finanzwesen, wo sie zu enormen Kapitalverlusten führen können.“
Verstehensmethoden versuchen, diese Fragen zu beantworten, indem sie aufdecken, warum und wie die KI zu einer bestimmten Entscheidung kam und welche Gründe dahinter stecken. „Das Wissen um die Elemente, die in einer bestimmten Situation den Ausschlag für oder gegen eine Lösung gegeben haben, und zumindest eine gewisse Transparenz zu ermöglichen, erhöht unser Vertrauen in die Leistung der Tools“, sagt Assistenzprofessor Gianmarco Mengaldo, Direktor des MathEXLab an der Fakultät für Design und Ingenieurwesen, National University of Singapore.
„Aktuelle Verständnismethoden, die in praktischen Anwendungen und industriellen Schaltkreisen weit verbreitet sind, führen jedoch zu sehr unterschiedlichen Ergebnissen, selbst wenn sie auf dieselbe Aufgabe und denselben Datensatz angewendet werden. Dies wirft eine wichtige Frage auf: Welche Methode ist die richtige, wenn es eine eindeutige, richtige Antwort geben soll? Daher wird die Bewertung von Verstehensmethoden genauso wichtig wie das Verstehen selbst?“
Unterscheidung zwischen wichtigen und irrelevanten Informationen
Die Differenzierung der Daten ist der Schlüssel zur Entwicklung von KI-Technologien, um sie vollständig zu verstehen. Wenn KI beispielsweise Bilder analysiert, konzentriert sie sich auf einige hervorstechende Merkmale.
Der Doktorand im Labor von Professor Lovis und Erstautor der KI-Studie Hugues Turbé erklärt: „Zum Beispiel kann KI zwischen einem Bild eines Hundes und einem Bild einer Katze unterscheiden. Das gleiche Prinzip gilt für die Analyse von Zeitabläufen: Die Maschine muss in der Lage sein, die Elemente auszuwählen, auf denen sie schlussfolgern möchte. Bei EKG-Signalen bedeutet das, die Signale verschiedener Elektroden zu koordinieren, um mögliche Schwankungen zu beurteilen, die ein Zeichen für eine bestimmte Herzerkrankung wären.“
Es ist nicht einfach, unter allen für einen bestimmten Zweck verfügbaren Methoden eine Verständnismethode auszuwählen. Verschiedene KI-Methoden liefern oft sehr unterschiedliche Ergebnisse, selbst wenn sie auf denselben Datensatz und dieselbe Aufgabe angewendet werden.
Um dieser Herausforderung zu begegnen, haben die Forscher zwei neue Bewertungsmethoden entwickelt, um zu verstehen, wie KI Entscheidungen trifft: eine zur Identifizierung der wichtigsten Teile des Signals und die andere zur Bewertung ihrer relativen Bedeutung für die endgültige Vorhersage.
Um das Verständnis zu beurteilen, versteckten sie einen Teil der Daten, um zu sehen, ob sie für die KI-Entscheidungsfindung relevant waren. Dieser Ansatz führte jedoch manchmal zu Fehlern in den Ergebnissen. Um dieses Problem zu beheben, trainierten sie die Maschine mit einem erweiterten Datensatz, der versteckte Daten enthält, was dazu beitrug, Ausgewogenheit und Genauigkeit aufrechtzuerhalten. Anschließend entwickelte das Team zwei Möglichkeiten, um die Leistung der Verständnismethoden zu messen und zu zeigen, ob die KI die richtigen Daten für die Entscheidungsfindung verwendete und ob alle Daten ordnungsgemäß berücksichtigt wurden.
„Unsere Methode zielt darauf ab, das Modell zu bewerten, das wir tatsächlich in unserem Einsatzgebiet einsetzen werden, und so seine Zuverlässigkeit sicherzustellen“, erklärt Hugues Turbé. Um die Forschung fortzusetzen, entwickelte das Team einen synthetischen Datensatz, der der wissenschaftlichen Gemeinschaft zur Verfügung steht, um jede neue KI, die darauf ausgelegt ist, Sequenzen im Zeitverlauf zu interpretieren, einfach zu bewerten.
Die Zukunft der künstlichen Intelligenz in der Medizin
Das Team plant, seine Methode in einem klinischen Umfeld zu testen, wo die Angst vor KI noch immer weit verbreitet ist. „Der Aufbau von Vertrauen in die KI-Bewertung ist ein entscheidender Schritt zur Einführung im klinischen Umfeld“, erklärt Dr. Mina Bjelogrlic, die das Team für maschinelles Lernen in der Lovis-Abteilung leitet und Mitautorin dieser Studie ist. „Unsere Forschung konzentriert sich auf die Bewertung von KI basierend auf Zeitsequenzen, aber die gleiche Methodik könnte auch auf KI angewendet werden, die auf anderen Datentypen wie Bild- oder Textdaten basiert. Ziel ist es, Transparenz, Verständlichkeit und Verlässlichkeit von KI für Nutzer zu gewährleisten.“
Das Verständnis der Funktionsweise von KI ist der Schlüssel zum Aufbau von Vertrauen in ihren Einsatz, insbesondere in kritischen Bereichen wie der Medizin und dem Finanzwesen. Die von einem Forscherteam der Universität Genf und der National University of Singapore durchgeführte Studie bietet eine innovative Methode zur Bewertung des Verständnisses künstlicher Intelligenz, die Benutzern hilft, zu verstehen, warum und wie Entscheidungen getroffen werden. Besonders wichtig ist dieser Ansatz für medizinische Anwendungen, bei denen Entscheidungen durch künstliche Intelligenz lebensbedrohlich sein können.