Kann KI vom Menschen Moral lernen?
Eine große Frage, um sich dem „humanistischen Imperativ in der Digitalisierung“ wenigstens versuchsweise anzunähern. Doch geht es nicht vielmehr um die Frage, wie sich Moral verändert, wenn KI den Menschen spürbar, und auch zunehmend unmerklich herausfordert?
Eine dieser Herausforderungen betrifft unsere Verantwortung bei der Erzeugung von Narrativen. Diese entwickeln heute - gestützt durch ein Übermaß an quantitativen Daten, durch eine vom einzelnen Menschen nicht mehr sinnvoll zu ordnende Informationsflut - eine bisher ungekannte Schlagkraft.
Damit meine ich längst nicht nur Fake News, sondern vielmehr das, was der Kriminologe Tobias Singelnstein in seinem Buch "Die Sicherheitsgesellschaft" mit der "Etablierung des Risikos als einen zentralen Gegenstand sozialer Kontrolle" meint.
Das Deskriptive wird zum Normativen, indem das Gemessene als das Relevante erscheint.
So unterschiedlich diese Beispiele sein mögen, so sehr zeigen sie doch eins: Die Verfügbarkeit von Daten und Informationen diktiert die Interpretation und damit letztlich die Konstruktion von Wirklichkeit, sie lenkt den gesellschaftlichen Diskurs. Künstliche Intelligenz wird dieses Problem erheblich verstärken, indem das, was „normal“ und „relevant“ – oder eben „abweichend“ ist, von sich selbst reproduzierenden Daten immer deutlicher abgebildet wird.
Aber was ist mit all dem, was wir nicht messen, nicht zählen können? Von dem wir uns nicht einmal vorstellen können, wie es überhaupt messbar sein könnte, beispielsweise "Fairness"? Oder "Kontrolleffizienz" - einen Begriff, den ich in einem Projekt über Wochen hinweg fast täglich hörte, bis ich einmal gefragt habe, was das eigentlich sein soll? Das Dilemma, dass "nicht alles zählbar ist, was zählt" (Albert Einstein) führt zur Verantwortung, das nicht Datafizierbare sichtbar zu machen.
Es gilt: Hinschauen. Gerecht.
Das kostet Zeit und Mühe, weit mehr als ein paar Prompts und Codezeilen, und es geht auch nicht am bequemen Schreibtisch.
Seit einigen Monaten forsche ich mit Sanne Kruse-Becher darüber, wie sich menschliches Verhalten im Umgang mit Risiken durch KI-gestützte Kontrollempfehlungen verändert. Mit dem Der Zoll als beforschtem Projektpartner dürfen wir im wahrsten Sinne des Worte „in die Tiefe gehen“ und Einblicke in Bereiche nehmen, die Wissenschaftler:innen sonst verborgen bleiben.
Aus dem interdisziplinären Austausch erwächst die Stärke unserer Kooperation: methodisch, aber auch aus ethischer/politischer/sozialer Perspektive öffnet mir der Austausch mit Sanne Kruse-Becher regelmäßig die Augen. Frei nach dem Motto:
Man sieht nur mit allen Sinnen gut. Das Wesentliche ist für die Statistik unsichtbar.
Fotos: Andree Brüning
Consultant Senior bei Viscovery Software GmbH
5 MonateOhja, das ist so ein wichtiges Thema! Danke für die wertvolle Diskussion!
Physicist Working for Digital Transformation with FAIR Digital Objects
6 MonateDas Qualitative lässt sich durch aktions bassierte Semantik quantifizieren.
Physicist Working for Digital Transformation with FAIR Digital Objects
6 MonateMoral ist als normative Konstruktion trainierbar für KI.
Scientific Director NextEducation: The Future Skills Research Group! Prof. Education Management & LLL, Founding Vicepresident @ BaWü Coop State Uni, Author, Speaker, Advisor Digital Transformation, Mindfulness Coach
6 MonateDanke für diesen Beitrag. Und für die tolle Diskussion. Wir haben gerade einen KI Kompetenzrahmen veröffentlicht, in dem die kritische Reflexion und ethische Kompetenzen eine besondere Rolle spielen. Vielleicht ja interessant zum weiterdenken. Alles dazu hier zu finden. www.ai-comp.org