KI-Governance und Ethik gewinnen an Bedeutung

Unternehmen und Organisationen sehen künstliche Intelligenz (KI) zunehmend als ein attraktives Mittel, um Innovationen voranzutreiben und neue Wege zu finden, mit Kunden in Kontakt zu treten. Von Gesundheitswesen über Finanzen bis hin zur Fertigung und darüber hinaus gibt es nur wenige Branchen, in denen KI nicht zu einem wichtigen Thema in Vorstandsetagen und in der gesamten Führungsebene geworden ist.

Im Zuge dieser Gespräche sollten Entscheiderinnen und Entscheider jedoch nicht nur die Vorteile von KI beleuchten, sondern auch das Potenzial für unbeabsichtigte, schädliche Folgen berücksichtigen. In einer kürzlich durchgeführten Umfrage des globalen Verbands für Digital Trust, ISACA, die sich auf die aktuellen Realitäten von KI konzentrierte, gaben nur 32% der Befragten an, dass Organisationen Bedenken wie Datenschutz und Bias beim Einsatz von KI angemessen angehen.

Deshalb müssen Fachleute in Bereichen wie Datenschutz, Sicherheit, Risiko, IT-Audit und Governance die Führung übernehmen, um zu lernen, wie KI sicher und verantwortungsvoll eingesetzt werden kann. Das beginnt mit der Priorisierung der KI-Governance und dem Vorhandensein von Richtlinien, die ein gemeinsames Verständnis dafür schaffen, wie KI im gesamten Unternehmen eingesetzt werden sollte.

„Unternehmen, die keine KI-Governance einführen, können vielleicht noch eine Weile durchhalten, aber es ist nur eine Frage der Zeit, bis wir Sicherheitsverstöße im Zusammenhang mit KI erleben, die wiederum zu verbindlichen Vorschriften führen werden“, schreibt Meghan Maneval, eine Expertin für KI-Governance, die ISACA bei der Entwicklung eines KI-Governance-Schulungskurses unterstützt hat, in ihrem ISACA Now-Blogbeitrag. „Meine Vorhersage ist, dass es wahrscheinlich ein großes Unternehmen sein wird, das von einem Drittanbieter gehackt wird – ähnlich wie bei der berüchtigten Sicherheitslücke des HVAC-Systems von Home Depot. Es gibt nicht genug Transparenz darüber, wie KI eingesetzt wird und viele Organisationen gehen unwissentlich KI-Risiken durch ihre Lieferanten ein. Wenn eine Organisation keine Priorität auf die Bewertung der KI von Dritten legt, könnte sie Opfer eines erfolgreichen Angriffs auf seine Sicherheitssysteme durch Dritte werden.“

Der leichtsinnige Einsatz von KI setzt Unternehmen nicht nur dem Risiko kurzfristiger finanzieller Verluste durch Sicherheitsverstöße und behördliche Strafen aus, sondern die langfristigen Reputationsschäden bei aktuellen und potenziellen Kunden sind vielleicht sogar noch besorgniserregender.

„Organisationen könnten auch anfangen, Geschäft zu verlieren, weil sie der KI-Governance keine Priorität einräumen“, fügt Maneval hinzu. „Je mehr wir über KI lernen, desto wichtiger wird es zu verstehen, was sie tut, worauf sie zugreift und wie sie gesichert ist. Organisationen, die diese Prozesse nicht implementieren, werden nicht in der Lage sein, ihren Kunden eine vertrauenswürdige KI-Nutzung zu demonstrieren.“

Um angemessen auf die Herausforderungen der KI-Ära zu reagieren, wären Organisationen gut beraten, Rollen anzupassen oder hinzuzufügen, um sicherzustellen, dass ein angemessenes Maß an Fokus auf KI und die damit verbundenen Risiken gelegt wird.

„Ich stelle mir vor, dass es in großen Organisationen bald eine Vorstandsrolle für den Chief AI Security Officer geben wird, der sich auf die Sicherheit der KI konzentriert, ähnlich wie die Rolle des CISO (Chief Information Security Officer) für Cybersicherheit auf Vorstandsebene“, schreibt Victor Fang, ein Experte, der an der Entwicklung eines weiteren KI-Schulungskurses von ISACA mitgewirkt hat.

KI bringt auch eine Reihe von ethischen Überlegungen mit sich, auf die Unternehmen vorbereitet sein müssen. Fragen der Transparenz, Voreingenommenheit und Fairness werden für Kunden immer wichtiger, wenn Unternehmen KI in ihre Produkte und Kundendienstabläufe integrieren. Es gab bereits viele Beispiele dafür, dass KI, wenn sie nicht richtig programmiert wurde, ungenaue oder unfaire Ergebnisse produziert hat.

„Wenn Technologie so konzipiert ist, dass sie menschliches Leben nachahmt, können dieselben Probleme, die das menschliche Urteilsvermögen trüben können, auch in die Technologie einfließen“, schreibt Geetha Murugesan, eine ISACA-Expertin für KI-Ethik. „KI-Ethik die Disziplin, in der bestimmt wird, wie Technologie verantwortungsvoll eingesetzt werden kann. Um zu verhindern, dass KI außer Kontrolle gerät, müssen wir Ethik in KI implementieren.“

Angesichts der Komplexität und Raffinesse von KI erfordert die Sicherstellung der richtigen Lösungen eine umfassende Koordination zwischen Fachleuten aus verschiedenen Disziplinen, die sich auf digitales Vertrauen konzentrieren – mit Schwerpunkt darauf, wie alle Fachleute für digitales Vertrauen zusammenarbeiten können, um Risiken zu mindern.

„Das KI-Risikomanagement ist ein Schlüsselelement für die verantwortungsvolle Entwicklung und Nutzung von KI-Systemen“, schreibt Murugesan. „Verantwortungsvolle KI-Praktiken können dazu beitragen, die Entscheidungen über KI-Systemdesign, -entwicklung und -nutzung mit den beabsichtigten KI-Werten in Einklang zu bringen. Kernkonzepte der verantwortungsvollen KI betonen die Ausrichtung auf den Menschen, soziale Verantwortung und Nachhaltigkeit. Das KI-Risikomanagement kann verantwortungsvolle Nutzungen und Praktiken vorantreiben, indem es Organisationen und ihre internen Teams, die KI entwerfen, entwickeln und einsetzen, dazu anregt, kritischer über den Kontext und mögliche unerwartete negative und positive Auswirkungen nachzudenken.“

kommentar field