Interview mit AI Ethics Expertin Isabell Neubert
Vor kurzem kursierte ein Bild des ukrainischen Präsidenten Selenskyj, auf dem er mit weißen Kapitulationsflaggen winkte. Was hat das mit Ihrer Arbeit zu tun?
„Die Ukraine hat niemals kapituliert, und das war einer der ersten viralen Fälle, in dem eine künstliche Intelligenz gefälschte Bilder erzeugte, die – wenn man ihnen vertraut hätte – großen Schaden hätten anrichten können. Ähnlich war es mit Papst Franziskus, als er viral ging in seinem luxuriösen weißen Wintermantel.“
Ist künstliche Intelligenz anfällig für Missbrauch?
„Ich bevorzuge eine ganz andere Perspektive: KI ist in der Lage, Ergebnisse von so überragender Qualität zu liefern, dass die Welt gerade in eine Phase nahezu unbegrenzten Potenzials eintritt. Man stelle sich nur vor, welche großartigen Ideen KI im Bereich Klimaschutz oder medizinischer Behandlung, ja sogar Krankheitsprävention, hervorbringen könnte. Allerdings ist KI eine so mächtige Technologie, dass wir starke Regulierung und einen Konsens darüber brauchen, wie wir sie zum Wohle aller einsetzen.“
Sie sprechen von Responsible AI. Warum ist es so wichtig, dass Wirtschaft und Gesellschaft dieser Disziplin Aufmerksamkeit schenken?
„Jeder spricht heutzutage über KI, und Unternehmen fürchten, dass sie irrelevant werden, wenn sie nicht aufspringen. Und das stimmt! Seit dem Start von ChatGPT konnte jeder selbst erleben, welches Potenzial KI eröffnet. Entscheidungsträger denken da nicht anders. Doch wenn etwas schiefgeht, ist auch das Schadenspotenzial enorm – und das muss angegangen werden.“
Wird es für Unternehmen ein Zertifikat geben, damit Nutzer einer bestimmten Technologie vertrauen können?
„Noch nicht, aber ganz ehrlich: Der EU AI Act befindet sich gerade auf dem Weg ins Gesetz. Regulierung ist der Schlüssel zum Erfolg, wenn Menschen und Unternehmen von KI profitieren wollen. Verstöße werden verfolgt – und das ist eine gute Nachricht für KI. Das gilt nicht nur für die EU, auch viele andere Länder weltweit arbeiten derzeit an solchen Regeln. So hat US-Präsident Joe Biden im Herbst 2023 eine Executive Order zur Sicherheit, Vertrauenswürdigkeit und Zuverlässigkeit von KI erlassen.“
Was kann ich selbst tun, um die Kontrolle zu behalten?
„Zunächst sollte jeder die Grundlagen von KI kennen und informiert sein über Entscheidungen, die ihn betreffen und bei denen KI im Einsatz ist. Zweitens – so seltsam es klingen mag – wird KI zunehmend genutzt, um die Schattenseiten von KI zu bekämpfen. Nehmen wir die Nightingale-App: Sie versieht alle Bilder, die man in soziale Medien hochlädt, mit einem Wasserzeichen, sodass sie nicht mehr zum Training einer KI genutzt werden können, die versucht, Bilder aus Webquellen herunterzuladen.“
Wie können Sie nachts ruhig schlafen, angesichts einer Technologie mit solcher unvergleichlichen Macht?
„Sehr gut, im Ernst! Aus einem einfachen Grund: Ich weiß, was mit KI möglich ist, und kann daher die richtigen Fragen stellen und sie dort verbessern, wo sie derzeit noch Schwächen hat. Und ich freue mich auf ein neues Kapitel, in dem wir Lösungen für einige der größten Probleme der Menschheit finden können.“
Welche Rolle spielt dabei der EU AI Act?
„Es ist heute die weltweit relevanteste Gesetzgebung, die die Regeln beschreibt, an die man sich halten muss, wenn man KI-Technologien nutzen möchte. Zum Beispiel darf man keine KI-basierten Tools auf den Markt bringen, ohne vorher das Risikoniveau zu prüfen und einen Risikominderungsplan entsprechend diesem Level vorzulegen. Das ist entscheidend, da die Verantwortlichkeiten im Unternehmen unterschiedlich verteilt sind: Data Scientists entwickeln Technologien, sind aber nicht haftbar – und oft nicht in die strategische Planung des Use Cases eingebunden. Product Owner sind für die Qualität des Ergebnisses verantwortlich, können aber oft nicht alle Risiken und Modellimplikationen überblicken. Und Nutzer wissen nicht, ob eine KI bei einer Entscheidung eingesetzt wurde, wie genau sie funktioniert oder welche Daten verwendet werden – sie müssen also vertrauen. Insgesamt soll der EU AI Act Transparenz über die gesamte Wertschöpfungskette schaffen und so das Risiko eines Missbrauchs von KI-Technologien verringern.“
















