Detail

Künstliche Intelligenz - Chancen und Risiken für die Bundeswehr

Bericht zum SGW-Forum am 29./30. Oktober 2019 in Bonn

Künstliche Intelligenz (KI) wird nicht nur die Leistungsfähigkeit und Autonomie von Maschinen in eine neue Dimension katapultieren, sie wird das Zusammenwirken von Mensch und Maschine revolutionieren. Sie ist (noch weit stärker als das Smartphone) geeignet, unser Sozialverhalten zu verändern. Sie kann den Zugang zu Informationen und „smarten Daten“ vereinfachen, Entscheidungen vorbereiten oder auch fällen. Die technischen Möglichkeiten existieren bereits heute und vervielfältigen sich mit rasantem Tempo. Weltweit werden sich Militärs dieser Technik bedienen. Die zivile Nutzung ist auch in Deutschland an der Schwelle der Umsetzung - oder hat sie bereits überschritten. Beides wirft unweigerlich die Frage auf, wie die Bundeswehr sich dem Thema stellt.

Der Amtschef des Planungsamtes der Bundeswehr, Generalmajor Gäbelein, führte in seiner Key-Note der Bundeswehr aus, dass KI als disruptive Technologie das Potential habe, bestehende Geschäftsmodelle zu verändern. Sie sei kein Selbstzweck und keine eigene Fähigkeit, sie wirke vielmehr als Mehrwert („Booster“) für andere Fähigkeiten.

Professor Katharina Zweig hielt die Key-Note aus Sicht der Wissenschaft und wies darauf hin, dass - im Gegensatz zu klassischen Algorithmen - weder das Ergebnis sicher prognostizierbar noch der Prozess logisch nachvollziehbar sei.

KI Systeme lernen anhand von Trainingsdaten und folgen eben keinen im Rahmen der Programmierung festgelegten Wenn-Dann-Beziehungen. Anhand der Fragestellung, ob besser 10 Unschuldige verurteilt werden oder ein Mörder der Verurteilung entgehen soll, zeigte Sie auf, dass das Training der Systeme eine gesellschaftliche Entscheidung beinhaltet, Trainingsdaten regelmäßig einen BIAS beinhalten.

Die dritte Key-Note, eine Perspektive der Industrie, lieferte Matthias Bracht, IBM Deutschland. Er forderte auf, Transparenz zu wagen und Vertrauen zu schaffen. Er präsentierte Leitlinien für zukunftsweisende Künstliche Intelligenz.

KI in der Logistik, im militärischen Führungsprozess und in technischen Systemen, darunter auch Waffensystemen, wurden diskutiert. Blöcke mit Kurzvorträgen lieferten zu jedem der Aspekte die Basis für spannende Diskussionen auf dem Podium und mit dem Publikum.

Ethische Grundsätze für den Umgang mit Daten und algorithmischen Systemen skizierte Professor Christiane Woopen, Vorsitzende des Europäischen Ethikrates und Co-Sprecherinnen der von der Bundesregierung eingesetzten Datenethikkommission.

Unter dem Titel „Ethische Grundsätze für den Umgang mit Daten und algorithmischen Systemen“ berichtete sie über Ergebnisse der Datenethikkommission, die ihren Abschlussbericht am 23. Oktober 2019 - in der Woche vor der Tagung - an die Bundesregierung übergeben hatte.

Diese gehen konkret auf die Frage der ethischen Vertretbarkeit von Autonomen Waffensystemen ein.  Das Gutachten der Datenethikkommission stellt dazu fest (Seite 180; Beispiel 17):
„Autonome Waffensysteme (Lethal Autonomous Weapons) werden vielfach als „rote Linie“ angesehen, weil die Tötung von Menschen nicht Maschinen überlassen werden dürfe. Das kann allerdings wohl nur gelten, soweit man von Algorithmen determinierten Tötungen ausgeht. Soweit autonome Waffensysteme menschliche Soldaten lediglich bei der Objekterkennung unterstützen oder sofern sie lediglich dazu dienen, einen Flugkörper trotz Seitenwinds in der Bahn zu halten, ist eine ethische „rote Linie“ nicht überschritten.“

Eine erkenntnisreiche wie auch spannende Tagung, die den gut 220 Teilnehmern mannigfaltige Einblicke in die Welt der KI, einschließlich deren Chancen und Risiken in der militärischen Nutzung, bot. Die Veranstaltung erfreute sich einer facettenreichen Themenpalette und eines großen Interesses auf Seiten der Bundeswehr:

Erfreuliche 46 % der Teilnehmer kamen von der Amtsseite!