Steffen Voß - Technologie & Gesellschaft

Künstliche Intelligenz : Was passiert, wenn die Maschine entscheidet?

Ja oder nein?
Foto: pixabay

Steffen Voß

Entscheiden muss man nur Fragen, die unentscheidbar sind. Alles andere ist entweder notwendig oder unmöglich – Was bedeutet das für Entscheidungen, die von Künstlicher Intelligenz getroffen werden?

Der Vortrag von Günther Ortmann im „Hörsaal” von Deutschlandfunk Nova macht ein paar interssante Schleifen, bevor er tatsächlich zur künstlichen Intelligenz kommt:

Entscheidungen

Wenn objektive Gründe für etwas sprechen, dann muss man nicht entscheiden – dann ist es notwendig. Ohne Essen kann ich nicht lange überleben. Ich entscheide mich also nicht, ob ich esse. Es ist notwendig.

Auch die Frage, ob ich einen Spaziergang zum Mond machen möchte, muss ich nicht entscheiden – es ist unmöglich.

Die Fragen aber, was ich essen soll oder wohin ich stattdessen spazieren gehe – auf die gibt es keine objektiv richtige Antwort. Deswegen sind sie eigentlich unentscheinbar. Trotzdem müssen wir Kriterien finden, anhand derer wir entscheiden wollen. Diese Kriterien basieren auf unseren Werten – was ist mir wichtig?

Fakten und Zweifel

Die Wissenschaft soll uns helfen, die Welt besser zu verstehen, damit wir bessere Entscheidungen treffen können. Dabei kann die Wissenschaft selten Gewissheiten schaffen. Sie kann in der Regel nur Dinge mit einer bestimmten Wahrscheinlichkeit feststellen.

Die Erfahrung zeigt, dass wissenschaftliche Ergebnisse immer wieder von neuen Erkenntnissen ersetzt wurden. Die Wissenschaft lebt vom Zweifel an den eigenen Ergebnissen. Etwas ist zu 90 % sicher. Der Rest ist Unsicherheit.

Wie wir mit dieser Restunsicherheit umgehen, ist eine Werte-​Entscheidung. Günther Ortmann gibt als Beispiel: Die 1-%ige Wahrscheinlichkeit, dass ich meinen Anschlusszug verpasse, nehme ich in Kauf. Die 1-%ige Wahrscheinlichkeit, dass man Flugzeug abstürzt eher nicht. Wie ich diese 1%-ige Unsicherheit bewerte, hängt weniger von Fakten ab, sondern von meiner Bewertung der Folgen.

Diese Unsicherheit, die in jeder wissenschaftlichen Erkenntnis vorhanden ist, macht die Wissenschaft produktiv. Die nächste Generation Forscher kann hier ansetzen und das Feld noch genauer beackern. Diese Unsicherheit wird aber von anderen Interessengruppen oft genutzt, um grundsätzlichen Zweifel zu streuen.

Lobbyismus setzt hier an und fokussiert sich vor allem auf die Unsicherheiten in der wissenschaftlichen Erkenntnis. Ist der Klimawandel wirklich menschengemacht? Schadet Diesel wirklich so sehr? Könnten wir nicht längst die Atomkraft sicher handhaben, wenn wir nicht irgendwann aufgehört hätten, daran zu forschen? Zweifel führen dann eher dazu, dass Menschen das Handeln unterlassen – weil man ja nicht entscheiden kann, war zu tun ist.

Worte bewirken etwas

Die Sprachwissenschaft kennt „performative Sprechakte” – Worte bewirken etwas, in dem Moment, in dem sie ausgesprochen werden. „Ich eröffne hiermit die Sitzung” – damit ist die Sitzung eröffnet. Zumindest, wenn man der Versammlungsleiter ist. „Ich erkläre Sie kraft Gesetzes zu rechtmäßig verbundenen Eheleuten,” verheiratet zwei Menschen, wenn der Sprecher der zuständige Standesbeamte ist.

Im Sinne performativer Sprechakte erzeugt Lobbyismus Zweifel, indem er Zweifel äußert. Das sorgt dafür, dass sich Menschen nicht dazu entscheiden auf Basis der wissenschaftlichen Fakten zu handeln.

Künstliche Intelligenz

Maschinelles Lernen soll möglichst viele Fakten wälzen um die Lücke des Zweifels möglichst klein zu machen. Im Gegensatz zum Menschen, kann sich ein Computer 100.000 Fotos von Leberflecken anschauen, um dann relativ sicher zu sagen, ob eine Hautveränderung gesund ist oder nicht.

Künstliche Intelligenz (KI) befriedigt hier unsere Sehsucht nach Gewissheit. Statt eine Entscheidung zu treffen, wollen wir wissen, ob etwas notwendig oder unmöglich ist. Ist es notwenig, den Leberfleck zu entfernen? Die Maschine sagt es uns. Und sie sagt es uns mit einer höheren Autorität als der Arzt. Hoffen wir.

Wichtig finde ich den Hinweis von Prof. Ortmann, dass man Künstliche Intelligenz nicht zuerst für ihre Schwächen kritisieren sollte. KI macht Fehler. Aber der Prinzip lernender Systeme ist, dass sie lernen – dass sie besser werden.

Heute sehen wir durch die gewaltigen Fortschritte an Rechenleistung, wie groß die Vorteile sind, die Deep Learning (DL) mit sich bringen kann. Autos können heute autonom fahren, weil sie ihre Umgebung rasend schnell erkennen und interpretieren. Google Voice verleiht jedem PC und Smartphone die Fähigkeit, Spracheingaben in unzähligen Sprachen zu erkennen – nicht nur die natürliche Sprache, sondern auch die Ausdrucksweise eines individuellen Sprechers. Das ist im Chinesischen, in dem die Bedeutung eines Ausdrucks mit der Tonhöhe wechselt, von besonderer Bedeutung. DL-​Systeme erkennen inzwischen Gesichter, Gesichtsausdrücke und sogar Gefühlsausdrücke, also das Mienenspiel eines Menschen. Affektives Computing, wie die Gartner Group es nennt, ist beinahe schon marktreif.

Die Zahl der Anwendungsgebiete ist schier unendlich und reicht von der Betrugserkennung über Fahndungsmethoden bis hin zur Medizin und dem Transportwesen. DL-​Algorithmen interpretieren nicht nur durch ihr selbstoptimierendes Lernen, sie geben zunehmend auch Handlungs- und Entscheidungsempfehlungen. Die ultimative Prüfung für jedes DL-​System ist der nach Alan Turing benannte Turing-​Test: Gemessen wird, wie gut es einem rechnergestützten System gelingt, einen Menschen nachzuahmen. Wenn der Rechner nicht von einem Menschen (Verhalten, Ausdruck, Wahrnehmung usw.) zu unterscheiden ist, dann gilt der Test als bestanden.

– Michael Matzer /​ Nico Litzel (Big-​Data Insider)

Besser sei eine Kritik an den Stärken von KI: Die Datenbasis aus der KI-​Systeme ihr Lernen aufbauen, stammen oft aus ungezügelten Sammlungen großer Konzerne. „Daten sind das neue Öl,” sagen die und meinen damit, dass sie unser Verhalten, bis ins kleinste genau tracken und analysieren wollen. Das Private wird ökonomisch verwertet.

Zweitens sollten wir die Macht kritisieren, die wir den Ergebnissen von Künstlicher Intelligenz zuschreiben. Der Chinesische Staat will seinen Bürgern Lebenschancen einräumen oder verwehren auf Basis von Computer-​Auswertungen. Die Entscheidungen, trifft dabei in der Regel die Maschine selbst. Die Fakten sammelt das System überall ein. Es spioniert die Menschen aus. Die letztliche Entscheidung wird dann auf Basis der Werte der Regierung getroffen. Für Zweifel ist hier kein Platz.

Und drittens sollten wir skeptisch sein, weil Künstliche Intelligenz in der Regel nicht transparent macht, wie sie zu einem Ergebnis kommt. Was die Datenbasis ist, welche Algorithmen zum Lernen verwendet werden, bleibt Geschäftsgeheimnis

Wenn Künstliche Intelligenz zum Beispiel hilft, Unfälle zu vermeiden, ist das super. Dann trifft sie Entscheidungen, die der Mensch vielleicht gar nicht so schnell treffen könnte. Das sind aber keine Werte-​Entscheidungen. Schwierig wird es dort, wo zum Beispiel Künstliche Intelligenz Urteile über die Integrationsfähigkeit von Menschen abgibt.

Im schlimmsten Fall stammen die Lerndaten aus einer ungezügelten Überwachungs-​Wirtschaft, die Algorithmen der Entscheidungsfindung sind Geschäftsgeheimnisse und die Entscheidungen werden im Interesse der Firmen getroffen.


Hat’s Dir gefallen? Bitte teilen:



Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.