deutschlandfunk.de
EU-Verordnung für
Künstliche Intelligenz - Neue Regeln zum Schutz der
Menschen
Piotr Heller im Gespräch mit Sophie Stigler
6-7 Minuten
Chatbots, die so tun, als wären sie eine echte Person. Solche und ähnliche Systeme mit
Künstlicher Intelligenz sollen nach dem Willen der Europäischen Kommission in Zukunft stärker
reguliert werden. Das sieht der Entwurf einer neuen EU-Verordnung vor.
Hören Sie unsere Beiträge in der Dlf Audiothek
Die EU-Kommission will Künstliche Intelligenz stärker regulieren (imago images / Alexander Limbach)
Künstliche Intelligenz in der EU Schluss mit Krone der Schöpfung
Daten-Ethikerin Christiane Woopen Computer tragen keine Verantwortung
Regeln für die digitale Welt EU-Parlament berät über Künstliche Intelligenz
Algorithmen im Fokus Überholt China die USA bei der Künstlichen Intelligenz?
Automatisierte Waffensysteme „Nur Menschen
können etwas verantworten“
Beispiele für den Einsatz Künstlicher Intelligenzen (KI)
Maschinelles Lernen wird etwa genutzt, um Persönlichkeitsprofile von Internetnutzern
anzulegen, sodass ihnen dann personalisierte
Werbung angezeigt werden kann. Oder wenn man auf der Internetseite seiner Versicherung mit einem Kundenberater chattet, kann es sein, dass man erstmal mit einer KI schreibt. Google bietet in Amerika einen spannenden Dienst an, den man auf seinem Handy aktivieren kann: Wenn jemand anruft, dann geht eine KI von Goolge ran und
spricht mit der Person, findet heraus, was sie will, und zeigt das dem Handybesitzer an. Und der Mensch kann dann entscheiden, ob er selbst rangeht, oder ob die KI den Anrufer abwimmeln soll.
Kann man KIs von echten Menschen unterscheiden?
Es gibt bereits Systeme, bei denen man es nicht mehr auf Anhieb merkt. Noch ein Beispiel von
Google: Die haben in den USA eine Art KI- Assistenz vorgestellt, die automatisch Termine vereinbart. Bei einer Präsentation wurde gezeigt, wie diese KI bei einer Friseurin anruft. Dabei hat die KI wie ein Mensch gesprochen, Pausen
gemacht und auch „mhm“ gesagt. Das ist
unangenehm, weil es die Friseurin hinters Licht geführt hat. So etwas will die Kommission nicht und schreibt vor: Solche Systeme müssen klipp und klar machen: Ich bin kein Mensch!
Das heißt, beim Chat steht dann irgendwo ein Hinweis?
Das ist nicht vorgegeben, aber ja, das wäre ein Weg. Diese Transparenz ist eigentlich ein
Seitenaspekt. In der Verordnung geht es vor allem um Systeme, die die Kommission gleich ganz
verbieten will. Da gibt es drei Felder:
Erstens: Bewertung. Automatische Systeme, die etwa Daten über das Sozialverhalten und die
Persönlichkeit verwenden und daraus berechnen, wie vertrauenswürdig jemand ist, um das in einem anderen Kontext zu nutzen. Das ist zum Beispiel für Banken interessant, wenn sie Kredite vergeben.
So etwas soll verboten werden.
Zweitens: Gesichtserkennung – bis auf einige streng geregelte Ausnahmen.
Drittens: Manipulation – unterschwellige Systeme, die Informationen über die Schwächen vom
Menschen ausnutzen, um sie von etwas zu überzeugen oder irgendwie das Verhalten zu beeinflussen.
Was bedeutet „das Verhalten beeinflussen“?
Das schränkt die EU ein: Diese Beeinflussung muss den Internetnutzern oder jemand anderem schaden, um verboten zu werden. Aber da gibt es Interpretationsspielraum. Das ist ein Punkt, den Experten kritisieren: Die Regeln sind hier und da vielleicht zu grob und unpräzise gefasst. Was viele aber loben ist, dass die EU die Sache überhaupt angeht. Heute haben einige wenige Großkonzerne die Entwicklung der KI finanziell in der Hand.
Gleichzeitig gibt es kaum Regulierung von KI, also können die Konzerne entscheiden, wohin die
Reise geht. Und die EU hat jetzt ein erstes Mittel, diese Entwicklung in die richtige Richtung zu
lenken.
Was ist die richtige Richtung?
Das ist die große Frage. Klar, die Entscheidung, Überwachungs- und Manipulationsmaschinen zu verbieten, ist noch relativ einfach. Kompliziert wird es bei an sich wünschenswerter Technologie. Bei der EU kristallisiert sich seit Jahren ein Ansatz heraus, der auf Risiken abzielt: KI-Anwendungen, die große Risiken bergen, sollen reguliert werden.
Das sind etwa Systeme zur Steuerung von
kritischer Infrastruktur wie der Stromversorgung, Polizeisysteme, Programme, die Bewerber für einen Job auswählen oder juristische Fragen klären, und so weiter.
Was schreibt die EU dazu vor?
Solche Systeme sollen von Menschen überwacht werden. Die Mitgliedstaaten sollen offizielle Stellen benennen, die die risikoreichen Anwendungen
beurteilen. Sie sollen in einer Datenbank auftauchen. Das ist aber nicht unbedingt KI- spezifisch, so etwas kann man sich auch für
andere Technologien vorstellen. Interessant ist: Die
Daten, aus denen die KI-Systeme lernen, sollen darauf überprüft werden, ob sie mit Vorurteilen behaftet sind. Das ist komplex.
Warum ist das so schwierig?
Wir können uns ja mal ein Beispiel anschauen.
Über das hat Reuters mal berichtet. Da soll Amazon ein System entwickelt haben, das
Bewerber vorsortiert. Irgendwann sei aufgefallen, dass es Männer bevorzugt. Das Ding ist aber: Es kannte das Geschlecht der Bewerber gar nicht!
Angeblich hatte es gelernt, Hinweise auf das Geschlecht zu interpretieren. Etwa eine reine Mädchenschule im Lebenslauf. Aber warum
bewertete es die Bewerberinnen schlechter? Weil es – so steht es in dem Bericht – mit alten Daten gelernt hatte, aus einer Zeit, in der in der Tech-
Industrie kaum Frauen eingestellt wurden. Da sieht man, wie problematisch die EU-Verordnung ist:
Klar im Nachhinein sehen wir, wo die Daten vorurteilsbehaftet waren. Aber hätte man es vorhersehen können?
In der Verordnung werden Dinge
verlangt, die noch unmöglich sind?
Sie fordert zumindest einen sehr kritischen
Umgang mit den Daten. Jetzt muss man sehen, wie die Unternehmen es hinbekommen, dem gerecht zu werden.