Künstliche Intelligenz ist zu einer Schlüsseltechnologie geworden. Unser Alltag, die Medien, Wirtschaft oder Militär werden zunehmend davon geprägt. Doch immer noch sind es die Menschen, die bestimmen, wie sich Künstliche Intelligenz verhalten soll. Sie bestimmen, was die Maschinen machen. Ethik, moralisches Verhalten und Werte kann man allerdings nicht programmieren? Oder doch? Und falls ja, will man das überhaupt?

"Welche Werte programmiert werden müssen, das muss ganz speziell entschieden werden. Es gibt ja ganz verschiedene Künstliche Intelligenzen", betonte Janina Loh, Philosophin, Stabsstelle Ethik Stiftung Liebenau bei der Diskussionsreihe "Digitaler Humanismus". "Jene Unternehmen, die Algorithmen herstellen, tragen selbstverständlich Verantwortung. Es ist nicht allein das politische System, das den Rahmen dafür setzt. Es sind nicht nur die Menschen, die diese Produkte nutzen oder kaufen. Es ist eine geteilte Verantwortung. Denn Verantwortung ist kein Ball, den man auffängt und den man dann allein hat." 
Sandra Stromberger, Initiatorin Industry meets Makers und Mitgründerin bee produced, erachtete hierbei die Bewusstseinsbildung als elementar. Man müsse vorantreiben, dass die Menschen wissen, was sie tun. Vor allem die jungen Menschen, betonte sie.

Viele Plattformen sind global sehr mächtig und agieren global. Für Janina Loh braicht es deshalb aber nicht automatisch eine globale, universelle Ethik. Vielmehr betonte sie in dem Zusammenhang die vielen Gemeinsamkeiten, die die Menschen auch global gesehen haben. "Es wäre zu einfach, hier ein Ost-West Gefälle aufzumachen. Denn bereits innerhalb einer Gesellschaft gibt es bereits unterschiedliche Werte und Ethikvorstellungen. Das beste Wertsystem, an die sich alle halten sollen - wie soll das auf einem Kontinent aussehen?" Laut Loh braucht es das nicht. "Vielmehr sollten wir uns demokratisch auf gewisse Werte einigen können. Das sind Aushandlungsprozesse. Man kann nicht Beauftragte dafür bestellen, Werte auszuhandeln". (red)