Mit der Digitalisierung verschwimmen viele Grenzen, wie etwa die zwischen privat und öffentlich, aber auch zwischen Krieg und Frieden. Das Internet wurde ursprünglich für militärische Zwecke entwickelt, die Möglichkeiten der zivilen Nutzung waren Nebeneffekte. Der Internetkonzern Google hat in diesem Zwiespalt nun überraschend eine Grenze gezogen und angekündigt, keine Künstlichen Intelligenzen mehr für Waffensysteme oder unangemessene Überwachungssysteme einzusetzen. Google will seine Computeranwendungen nach eigenen Angaben nur noch für „gute Zwecke“ zur Verfügung stellen. Der Entscheidung war anscheinend ein Aufbegehren der eigenen Belegschaft vorausgegangen.
Im Mittelpunkt des Streits steht die Zusammenarbeit Googles mit dem US-Militär. Der Konzern hilft den Streitkräften dabei, Objekte in Videoaufnahmen von Drohnen zu identifizieren, berichtet das „Manager-Magazin“. Die Mitarbeiter fürchteten, dass die Künstlichen Intelligenzen Drohnenangriffe präziser ausführen könnten als Militärspezialisten oder Aufständische ausfindig machen, indem sie ihre Online-Kommunikation auswerten.
Der Maschinenethiker Oliver Bendel beurteilt Googles Entschluss positiv. Er sei ein Symbol dafür, dass mit der Beteiligung an militärischen Projekten eine rote Linie überschritten worden war. Zwar argumentieren Befürworter von solchen „selbstdenkenden“ automatischen Waffensystemen, dass sie Militärschläge präziser machen und daher unter Umständen die Zivilbevölkerung schonen, diese Einwände überzeugen Bendel aber nicht. Insgesamt würde durch den Einsatz von sogenannten autonomen Kampfrobotern die Schwelle, einen Krieg zu führen, gesenkt. Dazu käme der Psychoterror für die Bevölkerung. Niemand wüsste, was man tun müsse, um nicht ins Visier der Roboter zu geraten, so Bendel. „Erkennt mich die Maschine als Zivilist oder muss ich mein Camouflage- T-Shirt ausziehen, um nicht erschossen zu werden?“ Trotz entsprechender Programmierversuche haben die Maschinenarmeen eben kein Gewissen und keine gemeinsame Sprache mit dem Menschen.