Wie uns Microsoft die Angst vor künstlicher Intelligenz nehmen will

Kate Crawford #rpTEN

Prominente Wissenschaftler warnen vor künstlicher Intelligenz. Dabei gehört sie längst zum Alltag, davon ist Microsoft-Forscherin Kate Crawford überzeugt. Auf der Republica präsentiert sie eine Lösung gegen übermächtige Roboter.

Im Jahr 2016 ist es zu spät, vor Big Data wegzulaufen. Überwachungskameras, soziale Netzwerke, Suchmaschinen und „smarte“ Geräte sind längst unser Alltag geworden. Im Sekundentakt sammeln und verarbeiten sie unsere Daten, meist ohne unser Wissen. Schließlich stoßen wir unsere Metadaten ab wie Schuppen, egal wo wir sind.

Für Kate Crawford, leitende Forscherin bei Microsoft Research in New York City, ist das kein Grund, in Panik zu verfallen. Im Gegenteil: Auf der Internetmesse Republica 2016 steht sie für künstliche Intelligenz ein. Sie glaubt, dass selbstlernende Maschinen besser sein könnten als Menschen, nämlich objektiver, verlässlicher und fairer. Man müsse sie nur besser kontrollieren und sich dafür von Science-Fiction-Fantasien befreien.

Killer-Roboter sind nicht das Problem

Mit diesem Optimismus begibt sich Crawford in ein umstrittenes Feld. Seit Jahrzehnten übertreffen sich Kritiker in Weltuntergangs-Fantasien. Viele handeln von selbstlernenden Robotern, die intelligenter werden als Menschen und ein Eigenleben entwickeln. In der Fachsprache heißt der Effekt technologische Singularität. 2014 erschien die einflussreiche Dystopie „Superintelligenz“ von Nick Bostrom. Im Juli 2015 warnten prominente Wissenschaftler wie Stephen Hawking in einem offenen Brief vor einer Zukunft voller Killer-Roboter. Schließlich war für den 19. Mai 2016 die Fortsetzung der Terminator-Filme geplant. In der Science-Fiction-Reihe geht es um den apokalyptischen Kampf zwischen Maschinen und ihren Schöpfern.

„Die Idee, dass wir eine künstliche Intelligenz schaffen, die am Ende die Menschheit versklavt, geistert schon seit den fünfziger Jahren herum“, sagt Kate Crawford. Für sie sind solche Argumente veraltet und weltfremd. Vor allem würden sie, so Crawford, von weißen, reichen Männern vorgetragen. „Wahrscheinlich ist die Angst vor einer neuen Elite besonders groß, wenn man selbst zur Elite gehört.“

Tatsächlich halten viele Forscher technologische Singularität für sehr unwahrscheinlich. Der Philosoph Luciano Floridi schreibt zum Beispiel, dass Singularitäts-Verfechter bewusst mit dem Wort „könnte“ spielen, um Angst zu erzeugen. Dabei würden sie verschweigen, wie absurd ihre Annahme sei: „Könnte eine Form von künstlicher Ultraintelligenz entstehen? Ja. Aber dieses ‚könnte‘ ist ein Trick, der den immensen Unterschied verwischt zwischen ‚Ich könnte morgen krank sein‘ (bei vorhandenem Unwohlsein), und ‚Ich könnte ein Schmetterling sein, der nur davon träumt, ein Mensch zu sein.'“

Wichtiger sind ethische Standards

Kate Crawford wirbt dafür, sich mit echten Problemen auseinanderzusetzen. Schließlich würden Killer-Roboter-Fantasien von der Technologie ablenken, die längst existiert: Ausgeklügelte Iris-Scanner, Software zur massenhaften Auswertung von Bewegungsdaten, Armbänder, die rund um die Uhr unseren Kreislauf und unsere Gefühle überwachen. Was dagegen nicht existiert, sei die umfangreiche Debatte über Ethik und Datenschutz. Dabei seien die Gefahren von Big Data und künstlicher Intelligenz längst bekannt.

In den 1930er Jahren vertrieb zum Beispiel der IT-Konzern IBM das Hollerith-Lochkarten-System. Es war ein Vorgänger der heutigen Computer-Datenbanken und kam auch bei den Nationalsozialisten zum Einsatz. Lochkarten konnten nämlich schnell und effizient die persönlichen Daten aller Reichsbürger speichern. In Warschau wurden so binnen 48 Stunden rund 360.000 Juden erfasst. Man könnte auch sagen: 360.000 Zielscheiben. Für Edwin Black, der diese Verflechtungen 2001 enthüllte, war die beschleunigte Datensammlung ein Katalysator für die massenhafte Vernichtung. Er schrieb: „Das Zeitalter der Information begann mit dem Niedergang des menschlichen Anstandes„.

Nun, fast 80 Jahre später, hat IBM wieder eine Technologie entwickelt, die Menschen voneinander unterscheidet. Die Software heißt „i2 EIA“ und soll mithilfe von Presseberichten, Twitter-Likes und Bewegungsprofilen lernen, dass sie Terroristen von Flüchtlingen zu unterscheiden. Wer gefährlich ist und wer nicht, gibt ein „Terrorist Credit Score“ an. Crawford sagt: „IBM hat zwar klargestellt, dass der Credit Score kein finaler Marker für Schuld oder Unschuld ist. Nichtsdestotrotz schufen sie ein außergewöhnlich intimes Profil darüber, wie jemand ist, wo die Person arbeitet und wie das soziale Umfeld aussieht.“ Ebenso problematisch sei, dass die Software in Flüchtlingslagern getestet werde, also an besonders machtlosen Menschen.

In viele Systeme wird soziale Ungerechtigkeit eingebaut

Ein weiteres Problem: Künstliche Intelligenz kann zu sozialer Ungerechtigkeit führen, je nachdem, mit welchen Daten sie gefüttert wird. In selbstlernende Systeme lassen sich nämlich rassistische und sexistische Muster einbauen – absichtlich oder unabsichtlich. Wenn man zum Beispiel einem System beibringen will, wie eine Katze aussieht, gibt man ihm so viele Fotos einer Katze, bis es automatisch Katzen erkennt. Bei Menschen ist das aber problematisch.

Zum Beispiel identifizierte eine Foto-App von Google in einem prominenten Fall schwarze Menschen als Gorillas, womöglich weil die App vorwiegend mit Fotos von hellhäutigen Menschen trainiert wurde. Ähnlich verhielt sich das bei einer Nikon App, die asiatische Augen für permanentes Blinzeln hielt. Weiterhin wurde bekannt, dass Jobportale männlichen Fake-Accounts bessere Jobangebote vorschlugen als identischen weiblichen Fake-Accounts. Erst als Nutzer protestierten, lenkten die Unternehmen ein und verbesserten ihre Dienste.

Keine so einfache Lösung gibt es hingegen für Polizei-Software, die Verbrechen voraussagen soll. Sie wird mittlerweile auch in mehreren deutschen Bundesländern eingesetzt. Predictive Policing, wie sich die Technik nennt, macht anhand von Daten vergangener Jahre kritische Gegenden sichtbar, in denen besonders viele Verbrechen zu erwarten sind. Das könnte laut Crawford die Polizeiarbeit effizienter machen; es könnten aber auch bestehende Gräben vertieft werden, wenn Kriminalität nur bei bestimmten Leuten verortet wird. „Es sind zwei verschiedene Geschichten, aber dieselben Daten“, sagt Crawford. Daraus müsse die Diskussion folgen, welche Lesart die richtige ist. Für sie ist klar: „Wir brauchen einen viel stärkeren Schutz der Zivilrechte.“

Die Lösung: Mitbestimmung

Ebenso klar ist für sie, dass eine gerechtere und bessere künstliche Intelligenz grundsätzlich möglich ist: „Man kann in Technologien eingreifen, solange sie noch entstehen.“ Das betrifft nicht nur die technische Entwicklung, sondern auch die menschlichen Strukturen dahinter. „Künstliche Intelligenz wird in der absehbaren Zukunft die Werte seiner Schöpfer reflektieren. Deswegen ist es wichtig, wer diese Unternehmen führt, wer diese Systeme entwickelt und wer in den Ethikkommissionen sitzt“, sagt Crawford.

Eine Lösung gegen die Unberechenbarkeit von künstlicher Intelligenz sei Mitbestimmung. Wenn künstliche Intelligenz ohnehin schon das Leben der meisten Menschen prägt und es weiterhin wird, sollte ihre Macht mit demokratischen Mitteln eingeschränkt werden. So bleibe der Hoffnungsschimmer, dass künstliche Intelligenz nicht tyrannischer, sondern besser wird als wir Menschen es derzeit sind, nämlich weniger rassistisch und sexistisch. „Maschinen machen Fehler“, sagt Crawford, „aber Menschen können sie schlimmer machen.“

Hier der ganze Beitrag von Kate Crawford. Ab 30:55 erklärt sie, warum auch du womöglich einen „Terrorist Credit Score“ hast und wo und wie er erfasst wird.

Foto: re:publica/Gregor Fischer (CC BY 2.0)

Facebooktwittermail
Vanessa Vu
1991 im ländlichen Niederbayern geboren, im Internet aufgewachsen, danach rastlos in der Welt herumgeirrt, in drei Ländern studiert und sieben Sprachen gelernt. Jetzt also Journalismus. Twittert als @_vanessavu.

5 thoughts on “Wie uns Microsoft die Angst vor künstlicher Intelligenz nehmen will

  1. Nick Bostroms Superintelligenz in einem Atemzug mit den Terminator Filmen zu nennen, kommt mir schon sehr merkwürdig vor. Auch ist der Text keinesfalls eine Dystopie, da er verschiedene Szenarien – gute und schlechte – beleuchtet. Außerdem ist er keine Erzählung.
    Auch nennt man selbstlernende „Roboter“ und das Auftauchen intelligenter-als Menschen-werdende-Maschinen nicht technologische Singularität, sondern erstmal einfach nur (starke) künstliche Intelligenz.

    Bemerkenswert erscheint mir auch die Argumentative Linie von Kate Crawford, wenn sie die komplette Riege der auf unterschiedlichste Weise renommierten Persönlichkeiten samt Argumente mit der Bemerkung wegwischt, dass das ja alle alte, weiße Männer sind. Tiefer geht wohl nicht mehr.

    Generell argumentiert sie nur auf persönlicher Ebene, charakterisiert Kritiker als emotionale Hysteriker und wirft Leute wie Ray Kurzweil und Nick Bostrom in einen Topf, die an völlig verschiedenen Enden der Debatte stehen.

    Selbstverständlich sollte man dem Thema nicht mit Panik begegnen, aber sich inhaltlich mit den Argumenten der Kritiker auseinander setzen, dass sollte man dann schon.
    Und eine Lobbyistin von Microsoft verdient dann auch mehr Skepsis als ein Fragezeichen in der Überschrift.

    1. Hallo Lukas, vielen Dank für deine differenzierten Anmerkungen! Mein Versuch, Singularität sinnvoll bildlich zu verkürzen, ist wohl gescheitert – und ich hab mich als Neuling in dem Feld geoutet 🙂
      Auch generell gebe ich dir Recht mit der Kritik an Crawfords Argumentation. In der ursprünglichen Fassung war das und vieles mehr drin. Zum Beispiel stieß mir auf, dass Crawfords Argument für ein lückenloses Same-Day-Delivery-Angebot war, dass ohne das Angebot ein Teil der amerikanischen Bevölkerung keinen Zugang zu frischem Obst und Gemüse hätte. Das Problem ist hier aber nicht ein rassistisches Amazon, sondern die verkorkste amerikanische Lebensmittelproduktion und -distribution. Ebenso seltsam fand ich vor dem Hintergrund ihres Arbeitgebers die Forderung nach „inklusiveren“ selbstlernenden Systemen. Der eigentlich schöne Inklusions-Begriff zielte in dem Fall nur auf mehr Nutzer und damit mehr zahlende Kunden ab. Oder der Vergleich, wie man unberechenbare Gefahren eindämmen könne: Bei der Atomkraft hätte es auch geklappt (ja, das sagte sie im Land des Atomausstiegs…).
      Warum ich all das wieder gestrichen habe: Es ging zu weit. Ich wollte einen Text für Leute schreiben, die noch nie von künstlicher Intelligenz gehört haben, und wenn überhaupt, dann höchstens durch die Hollywood-Filme. Für diese Leute wollte ich das Thema künstliche Intelligenz bzw. die Debatten drumherum anreißen und dann Crawfords (wie ich finde: grundsätzlich legitimer) Ethik-Forderung Raum geben. Alles, was darüber hinaus geht – Kapitalismuskritik oder tiefergehende philosophische/ethische Debatten – wäre an der Stelle überfordernd gewesen und ein neuer Text wert. Aber keine Sorge, auch der wird kommen.

  2. Hallo Vanessa,
    Erstmal vielen Dank dafür, dass du dir hier die Zeit nimmst meinen Kommentar so ausführlich zu beantworten. Meine Befürchtung, dass meine Kritik harscher aufgenommen werden würde, als ich das intediert hatte, hat sich somit dann auch zum Glück nicht bewahrheitet 😉
    Ganz Grundsätzlich stimme ich nämlich der Grundaussage, dass bei smarten Systemen, wie sie jetzt überall auftauchen, ethische Regeln stärker beachtet werden müssen, zu. Dass Du die Position aus der Crawford das sagt, also als Sprecherin von Microsoft, auch kritisch siehst und auch erst stärker darauf eingehen wolltest, finde ich gut. Dass du Gleichzeitig den Artikel damit nicht überfrachten wolltest, kann ich auch gut verstehen.

    Ansonsten fällt mir nur immer wieder auf, wie die Debatte um die möglichen Auswirkungen einer KI belächelt wird, was der Sache mMn nicht gerecht wird. Wirkliche Gegenargumente, die nicht nur darauf abzielen persönlich zu diskreditieren, sucht man da oft vergebens (s. Video).
    Das ist aber, wie du schon gesagt hast, ein neues Thema und hat mit Debatte um ethische Regeln bei selbstlernenden Systemen so akut nicht viel zu tun.

  3. Für sie [Kate Crawford] sind solche Argumente veraltet und weltfremd. Vor allem würden sie, so Crawford, von weißen, reichen Männern vorgetragen.

    Korrekt. Das Beschwören einer Roboter-Apokalypse wird als Neoluddismus bezeichnet. Im Kern dieser Ideologie steht eine sogenannte „Strong AI“. Es handelt sich dabei um eine Software die sich selber verbessern kann und dadurch immer intelligenter wird. Die praktische Realisierung von „Strong AI“ wurde mehrfach versucht ist jedoch gescheitert. Was hingegen realistisch ist, dann sind sogenannte „Weak AI“ Systeme. Es sind Computerprogramme die nicht die Weltherschaft übernehmen sondern nur Schachspielen oder niedliche Roboter steuern.

    Um ehrlich zu sein, glaube ich nicht dass man vor Robotern Angst haben muss. Im Gegenteil, jeder wird sie lieben. Roboter werden die Pizza bringen, Roboter werden gefährliche Arbeiten übernehmen und Roboter werden sogar als Freund dienen.

Schreibe einen Kommentar