• Keine Ergebnisse gefunden

EU-Verordnung für Künstliche Intelligenz - Neue Regeln zum Schutz der Menschen

N/A
N/A
Protected

Academic year: 2022

Aktie "EU-Verordnung für Künstliche Intelligenz - Neue Regeln zum Schutz der Menschen"

Copied!
8
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

deutschlandfunk.de

EU-Verordnung für

Künstliche Intelligenz - Neue Regeln zum Schutz der

Menschen

Piotr Heller im Gespräch mit Sophie Stigler

6-7 Minuten

Chatbots, die so tun, als wären sie eine echte Person. Solche und ähnliche Systeme mit

Künstlicher Intelligenz sollen nach dem Willen der Europäischen Kommission in Zukunft stärker

reguliert werden. Das sieht der Entwurf einer neuen EU-Verordnung vor.

Hören Sie unsere Beiträge in der Dlf Audiothek

(2)

Die EU-Kommission will Künstliche Intelligenz stärker regulieren (imago images / Alexander Limbach)

Mehr zum Thema

Künstliche Intelligenz in der EU Schluss mit Krone der Schöpfung

Daten-Ethikerin Christiane Woopen Computer tragen keine Verantwortung

Regeln für die digitale Welt EU-Parlament berät über Künstliche Intelligenz

Algorithmen im Fokus Überholt China die USA bei der Künstlichen Intelligenz?

Automatisierte Waffensysteme „Nur Menschen

(3)

können etwas verantworten“

Beispiele für den Einsatz Künstlicher Intelligenzen (KI)

Maschinelles Lernen wird etwa genutzt, um Persönlichkeitsprofile von Internetnutzern

anzulegen, sodass ihnen dann personalisierte

Werbung angezeigt werden kann. Oder wenn man auf der Internetseite seiner Versicherung mit einem Kundenberater chattet, kann es sein, dass man erstmal mit einer KI schreibt. Google bietet in Amerika einen spannenden Dienst an, den man auf seinem Handy aktivieren kann: Wenn jemand anruft, dann geht eine KI von Goolge ran und

spricht mit der Person, findet heraus, was sie will, und zeigt das dem Handybesitzer an. Und der Mensch kann dann entscheiden, ob er selbst rangeht, oder ob die KI den Anrufer abwimmeln soll.

Kann man KIs von echten Menschen unterscheiden?

Es gibt bereits Systeme, bei denen man es nicht mehr auf Anhieb merkt. Noch ein Beispiel von

(4)

Google: Die haben in den USA eine Art KI- Assistenz vorgestellt, die automatisch Termine vereinbart. Bei einer Präsentation wurde gezeigt, wie diese KI bei einer Friseurin anruft. Dabei hat die KI wie ein Mensch gesprochen, Pausen

gemacht und auch „mhm“ gesagt. Das ist

unangenehm, weil es die Friseurin hinters Licht geführt hat. So etwas will die Kommission nicht und schreibt vor: Solche Systeme müssen klipp und klar machen: Ich bin kein Mensch!

Das heißt, beim Chat steht dann irgendwo ein Hinweis?

Das ist nicht vorgegeben, aber ja, das wäre ein Weg. Diese Transparenz ist eigentlich ein

Seitenaspekt. In der Verordnung geht es vor allem um Systeme, die die Kommission gleich ganz

verbieten will. Da gibt es drei Felder:

Erstens: Bewertung. Automatische Systeme, die etwa Daten über das Sozialverhalten und die

Persönlichkeit verwenden und daraus berechnen, wie vertrauenswürdig jemand ist, um das in einem anderen Kontext zu nutzen. Das ist zum Beispiel für Banken interessant, wenn sie Kredite vergeben.

(5)

So etwas soll verboten werden.

Zweitens: Gesichtserkennung – bis auf einige streng geregelte Ausnahmen.

Drittens: Manipulation – unterschwellige Systeme, die Informationen über die Schwächen vom

Menschen ausnutzen, um sie von etwas zu überzeugen oder irgendwie das Verhalten zu beeinflussen.

Was bedeutet „das Verhalten beeinflussen“?

Das schränkt die EU ein: Diese Beeinflussung muss den Internetnutzern oder jemand anderem schaden, um verboten zu werden. Aber da gibt es Interpretationsspielraum. Das ist ein Punkt, den Experten kritisieren: Die Regeln sind hier und da vielleicht zu grob und unpräzise gefasst. Was viele aber loben ist, dass die EU die Sache überhaupt angeht. Heute haben einige wenige Großkonzerne die Entwicklung der KI finanziell in der Hand.

Gleichzeitig gibt es kaum Regulierung von KI, also können die Konzerne entscheiden, wohin die

Reise geht. Und die EU hat jetzt ein erstes Mittel, diese Entwicklung in die richtige Richtung zu

(6)

lenken.

Was ist die richtige Richtung?

Das ist die große Frage. Klar, die Entscheidung, Überwachungs- und Manipulationsmaschinen zu verbieten, ist noch relativ einfach. Kompliziert wird es bei an sich wünschenswerter Technologie. Bei der EU kristallisiert sich seit Jahren ein Ansatz heraus, der auf Risiken abzielt: KI-Anwendungen, die große Risiken bergen, sollen reguliert werden.

Das sind etwa Systeme zur Steuerung von

kritischer Infrastruktur wie der Stromversorgung, Polizeisysteme, Programme, die Bewerber für einen Job auswählen oder juristische Fragen klären, und so weiter.

Was schreibt die EU dazu vor?

Solche Systeme sollen von Menschen überwacht werden. Die Mitgliedstaaten sollen offizielle Stellen benennen, die die risikoreichen Anwendungen

beurteilen. Sie sollen in einer Datenbank auftauchen. Das ist aber nicht unbedingt KI- spezifisch, so etwas kann man sich auch für

andere Technologien vorstellen. Interessant ist: Die

(7)

Daten, aus denen die KI-Systeme lernen, sollen darauf überprüft werden, ob sie mit Vorurteilen behaftet sind. Das ist komplex.

Warum ist das so schwierig?

Wir können uns ja mal ein Beispiel anschauen.

Über das hat Reuters mal berichtet. Da soll Amazon ein System entwickelt haben, das

Bewerber vorsortiert. Irgendwann sei aufgefallen, dass es Männer bevorzugt. Das Ding ist aber: Es kannte das Geschlecht der Bewerber gar nicht!

Angeblich hatte es gelernt, Hinweise auf das Geschlecht zu interpretieren. Etwa eine reine Mädchenschule im Lebenslauf. Aber warum

bewertete es die Bewerberinnen schlechter? Weil es – so steht es in dem Bericht – mit alten Daten gelernt hatte, aus einer Zeit, in der in der Tech-

Industrie kaum Frauen eingestellt wurden. Da sieht man, wie problematisch die EU-Verordnung ist:

Klar im Nachhinein sehen wir, wo die Daten vorurteilsbehaftet waren. Aber hätte man es vorhersehen können?

In der Verordnung werden Dinge

(8)

verlangt, die noch unmöglich sind?

Sie fordert zumindest einen sehr kritischen

Umgang mit den Daten. Jetzt muss man sehen, wie die Unternehmen es hinbekommen, dem gerecht zu werden.

Referenzen

ÄHNLICHE DOKUMENTE

Der Orientierungsrahmen zeigt, dass präventive und nachhaltige Aushandlungs- und Beteiligungsprozesse zum Einsatz von KI im Betrieb anspruchsvoll und aufwändig

 Welche Konsequenzen sollen daraus für die betriebliche Praxis abgeleitet werden und wer ist (intern)

Manchmal gibt es Ausgangs-Beschränkungen für Menschen, die nicht geimpft oder genesen sind.. Alle anderen sollten dann ihren Impf-Nachweis oder Genesenen-Nachweis draußen

Nur mit Offenheit sei es möglich, gemeinsam eine nationale Batteriezellproduktion aufzubauen, die in jedem Tortendiagramm für Batteriezellpro- duktion auftaucht und nicht in

Wie ein vom Bundesrat in Auftrag gegebener Bericht der «In- terdepartementalen Arbeitsgruppe künstliche Intelligenz» zeigt, ist die Schweiz für die Anwendung und die

Kunden müssen nachweisen, dass sie geimpft oder genesen sind.. Die Geschäfte müssen

Zwei Drittel (65 %) der Befragten glauben nicht, dass Unternehmen im besten Interesse ihrer Kunden han- deln, aber 69 % sind der Meinung, dass Unternehmen moralisch

An vielen Orten müssen Sie zeigen, dass Sie geimpft oder genesen sind.. Manchmal braucht man zusätzlich