Warum Künstliche Intelligenz keinen Frieden schafft

Meinungsbeitrag zur Künstlichen Intelligenz

 

Intelligenz ist eines der Alleinstellungsmerkmale des Menschen. Dieses auf unbelebte Objekte zu übertragen ist eine lang gehegte Phantasie, die vor dem Hintergrund unterschiedlicher Absichten unterschiedlich zu bewerten ist.

Während unfallfrei fahrende, selbststeuernde Fahrzeuge in absehbarer Zeit viel wahrscheinlicher sind, als eine mit Künstlicher Intelligenz versehene Droiden-Armee, ist letztgenannte ein seit Jahren etabliertes Motiv im Science Fiction Genre.

Die Angst, dass sich Künstliche Intelligenz gegen uns richtet, ist alt und bietet viel Gruselpotential – zum Beispiel in Filmen wie »Transformers«.

Was uns aber viel mehr gruseln sollte und den Wenigsten bewusst ist: Künstliche Intelligenz wird gegen uns gerichtet!

Während sich der phantasierte Aufstand der Künstliche Intelligenz gegen die Menschheit richtet, wird Künstliche Intelligenz gezielt gegen einzelne Menschen(-gruppen) eingesetzt. Zum Beispiel im Rahmen von automatisierter Zielerfassung im (Drohnen-)Krieg, in der Rasterfahndung, der kontexterfassenden (Massen-)Überwachung, Bots usw..

Ermöglicht wird das maßgeblich durch die Forschung des Institut für Informationsverarbeitung (TNT) unserer Nachbarhochschule. Dort wird u.a. im Auftrag des Amtes für Geoinformationswesen der Bundeswehr (AGeoBw) und des Bundesministerium für Verteidigung (BMVg), an der Erfassung und Interpretation sich ändernder Geländestrukturen sowie abweichendem Verhalten von Personen u.v.a.m. geforscht.

Auf der Internetseite des TNT sind kaum direkte Hinweise auf die militärische Nutzbarkeit geschweige denn auf den tagtäglichen Einsatz beispielsweise im Mali-Krieg zu finden.

Mali wird durch eine Vielzahl von Drohnen ständig militärisch überwacht. Welche der gesammelten Daten unmittelbar an die Bodenstationen übertragen werden, entscheidet dabei ein Programm, dessen KI-geleiteten Interpretation des Beobachteten zu vernichtenden Entscheidungen führt.[i]

Die für diese Entwicklung notwendige Kulisse bildet dabei unser aller öffentliches Treiben. So versucht das Fraunhofer Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) im Auftrage des Landes Baden-Württemberg in einem gemeinsamen Modellversuch auf dem Bahnhofsvorplatz von Mannheim[ii] bessere Analysesoftware zu entwickeln. Mit dieser vermeintlich zivilen Dual-Use-Forschung[iii],[iv] werden militärische Technologien in den Kanon alltäglicher Überwachung aufgenommen.

Militärisch wird der Einsatz von Drohnen vor allem damit begründet, dass er (eigene) Verluste verringere und so zu einer Humanisierung des Krieges beitrage. Das »tolle« an dieser Begründung ist, dass jeder, der ihr widerspricht als »inhuman“ dargestellt werden kann, da er ja höhere Todeszahlen in Kauf zunehmen scheint.

Das Gegenteil ist aber der Fall! Von den Verursachern einmal abgesehen, ist am Krieg nichts, absolut nichts human. Schon gar nicht, wenn er mit unbeseelten Maschinen geführt wird. Interessanterweise wird denjenigen, gegen die der Krieg geführt wird, das Menschliche sogar indirekt abgesprochen, indem Tote auf »unserer« Seite als Verluste betrauert und Tote auf der »gegnerischen« Seite als Erfolge gefeiert werden. Das Leben derer, deren Tod als Erfolg gefeiert wird, sind anscheinend weniger wert respektive menschlich.

Der Drohnenkrieg führt also nicht zu einer Humanisierung sondern ist per se inhuman. Ich gehe aber noch weiter und behaupte, Drohnen und ähnliche mit Künstliche Intelligenz bewährte bzw. zu bewährende Techniken behindern den Frieden.

Frieden kann nur entstehen, wenn man das eigene im Fremden erkennt. Die Erfahrung, »der/die andere ist ja genauso wie ich«, bleibt Künstlicher Intelligenz systemimmanenterweise verwehrt.

Durch den Einsatz von Drohnen und ähnlichen Techniken werden Überwachung und Tötungen soweit abstrahiert, dass auch diejenigen, die sie steuern, das Eigene im Fremden nicht mehr erkennen.

Ein weiterer Aspekt ist, dass der Rahmen, in dem Künstliche Intelligenz zu Entscheidungen findet, immer vom Menschen vorgegeben ist. Damit bestimmt der Zweck des Programms, die Zahl der möglichen Optionen. Da es sich bei Künstlicher Intelligenz um keine echte Intelligenz im Sinne von Innovation und Kreativität handelt, sondern um Algorithmen basiertes Lernen, führen engere Zielvorgaben auch zu besseren Resultaten. Vereinfacht: Künstliche Intelligenz kann nach objektiven Kriterien zwischen der »besten« von schlechten Optionen entscheiden, aber keine Alternative erdenken. Anders als der Computer »Joshua« im Film »WarGames«, der an dem Beispiel des Spiels TicTacToe lernt, dass nicht in das Spiel einzusteigen manchmal die beste Option ist.

Joseph Weizenbaum, ein Pionier auf dem Gebiet der Künstliche Intelligenz der sich selber als Ketzer der Informatik bezeichnet, kritisiert den »Übergang vom vernünftigen Urteil zur schieren Berechnung« und »die Ersetzung des menschlichen Urteils durch die Entscheidung, die an einen Computer delegiert wird«[v]. Eine Kritik, der ich mich und der sich auch viele Experten wie Stuart Russell, Professor für Informatik an der University of California und Elon Musk anschließen. Letztgenannte haben neben 114 weiteren KI-Experten in einem offenen Brief an die UN ein Verbot autonomer Waffensysteme gefordert. Nach der Erfindung des Schießpulvers und der Atombombe sehen sie in mit Künstlicher Intelligenz versehenen Waffen die 3. Revolution der Kriegsführung.

Das geforderte Verbot autonomer Waffen wird das Problem aber nicht lösen. Es liegt an uns, die Richtung vorzugeben, in die Künstliche Intelligenz entwickelt wird.

/jw

[i]https://www.tnt.uni-hannover.de/project/ (zugegriffen am 04.02.2018)

[ii]Fraunhofer IOSB – Presseinformation 16. Januar 2018, Intelligente Videoüberwachung für mehr Privatsphäre und Datenschutz Fraunhofer IOSB, url: https://www.iosb.fraunhofer.de/servlet/is/79498/ (zugegriffen am 04.02.2018)

[iii]Kleiß, Andreas – Neues Polizeigesetz in Baden-Württemberg, in: IMI-Analyse 47, 2017 url: http://www.imi-online.de/2017/12/14/neues-polizeigesetz-in-baden-wuerttemberg/ (zugegriffen am 04.02.2018)

[iv]Marischka, Christoph – Fraunhofer IOSB: Dual Use als Strategie, in: IMI-Studie 02/2017 url: http://www.imi-online.de/download/IMI-Studie2017-2-IOSB-Web.pdf (zugegriffen am 04.02.2018)

[v]Weizenbaum, Joseph „Macht der Computer und die Ohnmacht der Vernunft“