Jetzt hat sogar Schleswig-Holstein eine Strategie für Künstliche Intelligenz. Das Thema ist überall und die einen haben Angst zu verpassen, was das Silicon Valley oder China schneller hinbekommen. Die anderen haben Angst vor Künstlicher Intelligenz.
Vor ein paar Wochen hatte ich eine Diskussion mit ein paar Leuten über Künstliche Intelligenz. Da herrschte eher die Panik vor, dass die Maschinen bald die Weltherrschaft übernehmen. Einige der Ängste basierten auf Technologien, die noch lange nicht erreichbar sind. Einige basierten auf politischen Fragen, die wir noch zu beantworten haben und der Rest basierte auf einer falschen Vorstellung davon, wie Künstliche Intelligenz (KI) eigentlich funktioniert.
Buzzword Künstliche Intelligenz
Der Begriff „Künstliche Intelligenz“ ist ein Buzzword, das heute dies und morgen das bezeichnet. Ich habe nichts gegen unscharfe Begriffe, wenn sie bei der Kommunikation helfen. „Künstliche Intelligenz“ aber verschleiert, um was es geht.
In den 1990er Jahren galt der IBM Computer „Deep Blue“ als Inkarnation der Künstlichen Intelligenz. Damals schlug der den amtierenden Schachweltmeister Gary Kasparov. Der Computer war also intelligenter als der beste Mensch – in dieser einen Sache, die klare Regeln hat und sich deswegen super digitalisieren lässt.
Heute gelten Sprachassistenten wie Siri und Alexa als Künstliche Intelligenz. Klar, es ist verblüffend. Die Computer, die wir vor noch nicht allzu vielen Jahren nur mit kryptischen Befehlen auf einem grünen Bildschirm dazu bringen konnten, irgendwas zu tun, reagiert heute auf Sprache! Das ist schon sehr fortschrittlich im Gegensatz zu früher.
Aber mal ernsthaft: Man muss schon ziemlich genau wissen, was man sagen muss, damit Alexa tut, was man will. Und vieles kann das Gerät dann doch nicht. Wer ein Lied hören will, muss genau den Künstler und den Titel kennen, sonst kennt Alexa das einfach nicht. „Spiel ‚Ciao Bella’, aber keine von diesen schrecklichen Remixen aus dem letzten Jahr“, funktioniert nicht. Jeder Mensch versteht das leicht. „Spiel diesen Song von Sammy Deluxe, wo die im Video auf nem Schiff im Hamburger Hafen sind,“ ist ein klarer Wunsch für jeden fähigen DJ. Siri kann das nicht.
Der Computer findet Korrelationen.
Vieles was zurzeit als Künstliche Intelligenz bezeichnet wird, ist eigentlich Maschinen Lernen. Vor ein paar Jahren hieß das noch Big Data: Man gibt einem Computerprogramm zum Beispiel einen riesigen Fundus mit Röntgenbilder von denen man weiß, dass Tuberkulose darauf zu erkennen ist. Das Programm wertet das aus, und findet Wahrscheinlichkeiten heraus: Es erkennt wiederkehrende Formen und wiederkehrende Grauschattierungen. Wenn man dem Programm dann eine neue Röntgenaufnahme gibt, kann es mit einer gewissen Wahrscheinlichkeit sagen, ob auch Tuberkulose sein könnte.
Um Sprache zu erkennen, bekommen diese Sprachassistenten Gigabytes von Sprachaufzeichnungen zur Verarbeitung, von denen man weiß, was dort gesagt wird. So können sie aus jedem neuen Sprachbefehl errechnen, was man wahrscheinlich meint. Das erklärt auch, warum die Anbieter darauf angewiesen sind, dass die Nutzer viel mit ihnen reden und warum sich echte Menschen diese Aufzeichnungen anhören: Die müssen für die Maschine erkennen, was gesagt wird, damit sie das in Zukunft verstehen.
Algorithmus vs. Maschinen Lernen
Stellen wir uns vor, eine Professorin soll regelmäßig darüber entscheide, welche Studierenden ein Stipendium bekommen und welche nicht. Für Menschen ist so etwas immer eine schwere Entscheidung, weil sich Lebensläufe und Qualifikationen nicht so einfach vergleichen lassen. Zählen Noten mehr, oder der persönliche Eindruck? Was zählen Lebensumstände und ehrenamtliches Engagement?
Die Professorin könnte sich einfach eine Tabelle machen, die einzelnen Faktoren bewerten und die Wertung dort eintragen. Wer am Ende den höheren Wert hat, bekommt das Stipendium. Das ist ein Algorithmus. Eine Rechenformel.
Alternativ könnte die Professorin ein Maschinen-Lern-Programm über alle Studierenden-Daten der letzten 100 Jahre rechnen lassen. Daraus kann der Computer dann hochrechnen, welche Studierenden in Zukunft die besten Studienaussichten haben. Das Problem daran ist: Es ist nicht transparent, auf welche Kriterien das System gekommen ist und all die gesellschaftlichen Vorurteile der Vergangenheit sind Teil der Zukunftsprognosen geworden. Früher haben weniger Frauen studiert und weniger Arbeiterkinder. Also würde der Rechner solchen Bewerberinnen eine schlechtere Prognose geben.
Solche Berechnungen sind dann nur objektivierte Vorurteile. Das ist aber der Teil von Künstlicher Intelligenz, den wir gesellschaftlich in der Hand haben: Darf die Maschine allein entscheiden? Dürfen solche Prognosen über Menschen Grundlage für Entscheidungen sein? Das kann man schlicht verbieten.
Man könnte eine Maschine mit allen Bauanträgen der Vergangenheit füttern und die Maschine könnte neue Bauanträge selbst entscheiden. Allerdings würden diese Entscheidungen dann nicht auf den Gesetzen basieren, sondern auf den Entscheidungen der Vergangenheit. Die Maschine kennt die Gesetze gar nicht. Gesetze funktionieren eher wie ein Algorithmus. Wobei sie natürlich nie eindeutig sind. Sonst müssten sich Menschen nicht vor Verwaltungsgerichten streiten. Man kann also in Verwaltungen Entscheidungen maschinell vorbereiten – vermutlich hat das aber weniger mit Künstlicher Intelligenz zu tun.
Künstlicher Fleiß
Mal grundsätzlich: Ist es wirklich Intelligenz, wenn sich ein Computer durch Datenberge wälzt und sie dann mit Anfragen abgleicht? Das ist eher Künstlicher Fleiß. Vor einer echten künstlichen Intelligenz muss also derzeit niemand Angst haben.
Aber: Sprachassistenten zeigen, dass man mehrere solcher Fähigkeiten zusammenschalten kann. Das System erkennt dann Sprache, greift auf die Musikdatenbank zurück und kann auch wieder Sprache erzeugen. Assistenten mit Kameras können Gegenstände erkennen.
Der Mensch ist schnell darin, das Menschliche in den Dingen zu erkennen: „Punkt, Punkt, Komma, Strich – fertig ist das Mondgesicht“, heißt es in einem Kinderreim. Auf dem Artikelbild erkennt jeder gesunde Mensch das Gesicht des Roboters, obwohl das nur zwei schwarze Punkte und ein kleiner schwarzer Bogen sind. Es kann also relativ schnell so sein, dass diese Assistenten als intelligent wahrgenommen werden, obwohl sie nur bestimmte Fähigkeiten sehr clever verbinden.
Silicon Valley und China
Die großen Treiber der KI-Forschung sind gegenwärtig das Silicon Valley und China. Beide verfolgen sehr unterschiedliche Ansätze. Beide benötigen die riesigen Datenmengen, die den Computern das Lernen erst ermöglichen.
Google, Facebook und Co. sammeln Daten über die Menschen, um ihr Verhalten zu prognostizieren und noch besser zu beeinflussen – so dass ihnen nicht nur die passende Werbung angezeigt wird, sondern dass ihre Stimmung an die Werbung angepasst wird. Die Harvard-Professorin Shoshana Zuboff nennt das „Überwachungskapitalismus“: Immer größere Teile unserer Privatsphäre werden von ihnen in Besitz genommen, um die Daten zu verwerten.
China ist ein undemokratischer Überwachungsstaat – bereits ohne Künstliche Intelligenz. Mit der aber können kann auch das Chinesische Regime dafür sorgen, dass sich die Menschen mehr so verhalten, wie sie es gerne hätte – nicht aus Profitgründen, sondern um die eigene Macht zu zementieren.
Shoshana Zuboff weist darauf hin, dass Technologien und Künstliche Intelligenz nicht zwangsläufig der Überwachung dienen müssen. Es gibt jede Menge denkbare Anwendungsfälle, die nicht zur Manipulation der Menschen genutzt werden müssten. Zum Beispiel überall dort, wo Menschen nicht manipuliert werden und keine Wert-Urteile gefällt werden.
Der IT-Sicherheitsexperte Bruce Schneider hat kürzlich mit dem Harvard-Professor Jim Waldo zusammen einen Artikel veröffentlicht, in dem sie das auch noch einmal deutlich gemacht haben: Man muss den Zugriff, den das Chinesische Regime auf die Daten der Menschen hat, nicht als Vorteil in einem Rüstungswettlauf in der Künstlichen Intelligenz sehen.
Man sollte lieber die akademische Forschung in diesem Feld fördern, die weder auf maximalen Profit noch auf Überwachung zielt. Diese Forschung könnte dann auch untersuchen, wie wir damit umgehen, wenn wir die Ergebnisse von KI-Systemen gar nicht mehr verstehen.
Das ist tatsächlich auch so in der Landesstrategie für Künstliche Intelligenz analysiert: „Die Werteordnung des Grundgesetzes und die gemeinsamen europäischen Werte werden bei der Entwicklung des Einsatzes von KI eine besondere Rolle spielen, sodass Schleswig-Holstein bei der Entwicklung der KI andere Wege als z.B. die USA und China gehen wird.“
„ ‚KI made in Schleswig-Holstein’ steht für Innovationen und Anwendungsorientierung im Rahmen eines nachhaltigen Wachstums unter Beachtung von Datensicherheit und ‑schutz sowie eines fairen, partizipativen Ansatzes nach humanistischen Werten. Er hat zum Ziel, geschlechtergerecht und divers in allen gesellschaftlichen Gruppen zu wirken. Die Stakeholder aus Wissenschaft, Wirtschaft und Zivilgesellschaft werden auch künftig eng in die KI-Politik eingebunden.“
Entsprechend bodenständig sind auch die strategischen Ziele, die die Landesregierung verfolgen will: Unternehmen sollen KI mehr nutzen, Bürger sollen weniger Angst vor KI haben, Verwaltung und Bildung sollen mit KI verbessert werden. Das ist alles weit entfernt vom Smart City Control Room in Shenzhen. Das wird vermutlich nicht das nächste Google in Bredstedt entstehen lassen. Aber es liest sich tatsächlich wie ein Ansatz für das Thema, das zu Schleswig-Holstein passt.
Ich bin mir nur nicht ganz sicher, wie viel Bedarf es nach derartigen System in Schleswig-Holstein am Ende des Hypes tatsächlich gibt. Wo sollen denn bloß die ganzen Datenmengen herkommen, die dafür benötigt werden? Aber gut, dass es ausprobiert wird.
Schreibe einen Kommentar