Serverraum in Datenzentrum (Bild: scanrail - Adobe Stock))
(Bild: scanrail - Adobe Stock)

Ethical by Design? – Die menschliche Verantwortung hinter der künstlichen Intelligenz

Daten sind das neue Gold“ und „künstliche Intelligenz ist gefährlich“! Beide Aussagen hört man heute oft, und beide Aussagen sind falsch.

Die wachsende Verfügbarkeit von Daten aller Art und verbesserte analytische Ansätze ermöglichen neue Erkenntnisse und Geschäftsmodelle. Anders als Gold oder auch Öl sind Daten allerdings keine rivalisierenden Güter, sie werden also nicht weniger, wenn sie ausgewertet werden. Dennoch eröffnen sie einen kompetitiven Spielplatz: Wer in der Lage ist, die richtigen Fragen zu stellen und zeitnah geeignete Lösungswege zu entwickeln, kann sich vom Wettbewerb absetzen.

Und künstliche Intelligenz ist auch keine Maschine, die selbstständig Entscheidungen trifft. Vielmehr handelt es sich um mathematisch-statistische Systeme, die mittels Mustererkennung in beobachteten Daten Entscheidungsmodelle bauen und das Gelernte in einer ähnlichen Situation neu anwenden. Das klingt zwar weniger magisch als das Bild eines intelligenten Roboters, aber auch deutlich weniger beunruhigend.

Was beide Themen eint, ist die Tatsache, dass der Mensch der wichtigste Faktor ist und bleibt. Er entscheidet darüber, welche Fragestellung untersucht wird, welche Daten dafür die Grundlage bilden und welche Methoden dabei zur Anwendung kommen. Und letztendlich entscheidet auch der Mensch, welche Fragestellungen eben gerade nicht untersucht werden. Denn bei allen technischen Möglichkeiten und Verfügbarkeiten gilt heute mehr denn je: Nicht alles, was man tun kann, sollte man auch tun! Im Zentrum aller datenbasierten Verfahren sollte stets das Wohl des Einzelnen und der Gesellschaft stehen.

Richtlinien auf nationaler und internationaler Ebene

Die Sorge vor unklaren Spielregeln im Umgang mit datenbasierten Methoden führt dazu, dass sich in vielen Ländern Expertengremien mit Fragen der Datenethik beschäftigen. In Deutschland arbeitet derzeit unter anderem die Datenethikkommission der Bundesregierung an der Erstellung von Vorschlägen und „Leitlinien zum Schutze des Einzelnen, zur Wahrung des gesellschaftlichen Zusammenlebens und für die Sicherung und Förderung des Wohlstands im Informationszeitalter“.[1] Und auch die EU hat eine Richtlinie für vertrauenswürdige KI-Systeme vorgelegt: die lesenswerten „Ethics guidelines for trustworthy AI“.[2] Die Datenschutzgrundverordnung (DSGVO) bietet mit dem Verbot der automatisierten Einzelfallentscheidung ein mächtiges Instrument der Reglementierung: die Letztentscheidung des Menschen. In wichtigen Fällen wollen wir unser Schicksal nicht in die Verantwortung eines Modells geben, das errechnet, wie eine Entscheidung ausfällt. Also schiebt der Gesetzgeber hier einen Riegel vor und legt die Endverantwortung wieder in die Hand des Menschen. Und genau dort gehört sie hin. Denn nicht die Daten an sich besitzen Potenzial unethisch zu sein, sondern die Entscheidungen, die auf der Basis von Ergebnissen getroffen werden. Häufig reden wir auch über Datenethik, wo Businessethik gemeint ist. Wenn Transportunternehmen Ferienzeiten nutzen, um höhere Preise zu verlangen, oder Schirme bei Regen plötzlich doppelt so teuer sind, dann ist das kein Datenproblem, sondern das eines opportunistischen Geschäftsmodells. Wenn Unternehmen und Institutionen Listen mit Namen ihrer Kritiker anfertigen lassen, ist nicht die Liste das Problem. Es ist die Unberechenbarkeit dessen, was mit der darin enthaltenen Information geschieht. Auch wenn die dafür genutzten Daten grundsätzlich frei verfügbar sind: Die Verantwortung für jede weitere Nutzung tragen alle Beteiligten mit.

Aus großer Kraft folgt große Verantwortung

Die Bedeutung datenethischer Fragen ist sehr anwendungsspezifisch. Folglich benötigen wir ein System, das über die reine gesetzliche Reglementierung hinausgeht: Wir müssen ein Bewusstsein für die Verantwortung des Einzelnen schaffen. Denn Datenethik ist kein Thema der künstlichen Intelligenz allein. Die Entscheidung, welche Daten zu welchem Zweck aggregiert und analysiert werden, ist eine menschliche. Analysten und Data Scientists haben die Fähigkeit, aus Daten Informationen zu generieren, die Anderen verschlossen bleiben. Damit geht zwangsläufig die Verpflichtung einher, für die eigenen Ergebnisse die Verantwortung zu übernehmen.

Was wir in dieser datengetriebenen Welt brauchen, sind Analysten und Data Scientists, die neben ihrer fachlichen Ausbildung ebenso gelernt haben, dass sie mitverantwortlich sind für das, was mit ihren Analysen geschieht. Ihr eigenes ethisches Empfinden soll und muss genauso wichtig sein wie eine Arbeitsanweisung. Man darf und muss Nein sagen, wenn man die Ergebnisse der eigenen Arbeit nicht mittragen oder die Konsequenzen daraus nicht mitverantworten kann. Wir brauchen Analysten, deren Arbeit sich an den existierenden Leitlinien messen lässt. Nicht anstelle, sondern zusätzlich zu gesetzlicher Regelung. Denn wenn sich diejenigen, die unsere Daten auswerten, der ethischen Dimension ihrer Arbeit stets bewusst sind, schlafen wir alle ein bisschen besser.


[1] https://www.bmi.bund.de/DE/themen/it-und-digitalpolitik/datenethikkommission/datenethikkommission-node.html

[2] https://ec.europa.eu/futurium/en/ai-alliance-consultation

Dr. Michaela Menken, bold&blunt

Geschäftsführende Gesellschafterin bei bold&blunt
Dr. Michaela Menken ist Geschäftsführende Gesellschafterin der bold&blunt GmbH, Beratung für Datenstrategie und Kreativplanung. Zuvor war sie Chief Data and Analytics Officer und Head of Research and Analytics bei Ketchum Deutschland. Die ersten 12 Jahre ihres Berufslebens arbeitete die gelernte Computerlinguistin an den Universitäten Münster, Leiden (NL), Stanford (USA) und Frankfurt a.M. in Forschung und Lehre und beschäftigte sich dort unter anderem mit Fragen der Datenethik.

Weitere Informationen und alle Beiträge

https://www.boldnblunt.de/
Dr. Michaela Menken, bold&blunt

Letzte Artikel von Dr. Michaela Menken, bold&blunt (Alle anzeigen)

Diskussion

Schreibe einen Kommentar