Kann KI vom Menschen Moral lernen?
Debatten im großen Raum: Das Podium des BKU - Bund Katholischer Unternehmer auf dem Katholikentag 2024 im Erfurter Kaisersaal. Bild: Andree Brüning

Kann KI vom Menschen Moral lernen?

Eine große Frage, um sich dem „humanistischen Imperativ in der Digitalisierung“ wenigstens versuchsweise anzunähern. Doch geht es nicht vielmehr um die Frage, wie sich Moral verändert, wenn KI den Menschen spürbar, und auch zunehmend unmerklich herausfordert?

Eine dieser Herausforderungen betrifft unsere Verantwortung bei der Erzeugung von Narrativen. Diese entwickeln heute - gestützt durch ein Übermaß an quantitativen Daten, durch eine vom einzelnen Menschen nicht mehr sinnvoll zu ordnende Informationsflut - eine bisher ungekannte Schlagkraft.

Damit meine ich längst nicht nur Fake News, sondern vielmehr das, was der Kriminologe Tobias Singelnstein in seinem Buch "Die Sicherheitsgesellschaft" mit der "Etablierung des Risikos als einen zentralen Gegenstand sozialer Kontrolle" meint.

Das Deskriptive wird zum Normativen, indem das Gemessene als das Relevante erscheint.

  • Relative Risiken werden zur gefühlt absoluten Bedrohung, schlicht indem wir sie messen und kommunizieren: "Das Salz in der Suppe erhöht das Magenkrebsrisiko um 41 %" (siehe unsere letzte Unstatistik). Also wird der Salzstreuer in den Schrank verbannt, die stressige Lebensweise aber beibehalten. „Süßigkeiten-Werbung macht Kinder dick“ – der Ruf nach Regulierung ist wohlfeil. Aber dass besonders Kinder aus benachteiligten Verhältnissen betroffen sind, die sich nicht plötzlich vernünftig ernähren und Fußball spielen statt Online-Games, bloß weil Werbung eingeschränkt wird, fällt unter den Tisch.
  • Wenn in einer Pandemie hochfrequente Daten zu Infektionen, Hospitalisierungen und Todesfällen vorliegen, egal wie wenig repräsentativ sie seien mögen, dann prägen sie nicht nur das Bild der Gefahr, sondern bestimmen auch den Handlungsdruck: Wir müssen managen, was wir messen können, um zumindest eine Illusion von Kontrolle aufrechtzuerhalten. Welche Folgen daraus für Bildung, Wirtschaft und psychosoziale Gesundheit resultieren, wird nicht gemanagt, denn man hat es schlicht nicht (oder viel zu spät) gemessen. So wurde erst ein halbes Jahr nach dem ersten Lockdown bekannt, dass in jener Zeit die Anzahl der Anrufe bei der Telefonseelsorge, die suizidalen Charakter hatten, um bis zu 80 % angestiegen war.
  • Die KI-Ethikerin Timnit Gebru hat im Jahr 2019 eindringlich davor gewarnt, dass große KI-Sprachmodelle sich nicht nur ökologisch negativ auswirken, sondern auch sozial: Dass sie rassistische und sexistische Vorurteile verstärken, weil sie das Sichtbare reproduzieren und das Unsichtbare (die Sprache von Minderheiten) verdrängen. Beides ist schlimmer geworden, nicht besser: Menschen amüsieren sich in epischer Breite darüber, welche „Dummheiten“ generative KI produziert, statt über ihre eigene Dummheit nachzudenken, wenn sie Zeit und planetare Ressourcen für KI-generierte Texte, Bilder und Videos verschwenden.

So unterschiedlich diese Beispiele sein mögen, so sehr zeigen sie doch eins: Die Verfügbarkeit von Daten und Informationen diktiert die Interpretation und damit letztlich die Konstruktion von Wirklichkeit, sie lenkt den gesellschaftlichen Diskurs. Künstliche Intelligenz wird dieses Problem erheblich verstärken, indem das, was „normal“ und „relevant“ – oder eben „abweichend“ ist, von sich selbst reproduzierenden Daten immer deutlicher abgebildet wird.

Aber was ist mit all dem, was wir nicht messen, nicht zählen können? Von dem wir uns nicht einmal vorstellen können, wie es überhaupt messbar sein könnte, beispielsweise "Fairness"? Oder "Kontrolleffizienz" - einen Begriff, den ich in einem Projekt über Wochen hinweg fast täglich hörte, bis ich einmal gefragt habe, was das eigentlich sein soll? Das Dilemma, dass "nicht alles zählbar ist, was zählt" (Albert Einstein) führt zur Verantwortung, das nicht Datafizierbare sichtbar zu machen.

Es gilt: Hinschauen. Gerecht.

Das kostet Zeit und Mühe, weit mehr als ein paar Prompts und Codezeilen, und es geht auch nicht am bequemen Schreibtisch.

Seit einigen Monaten forsche ich mit Sanne Kruse-Becher darüber, wie sich menschliches Verhalten im Umgang mit Risiken durch KI-gestützte Kontrollempfehlungen verändert. Mit dem Der Zoll als beforschtem Projektpartner dürfen wir im wahrsten Sinne des Worte „in die Tiefe gehen“ und Einblicke in Bereiche nehmen, die Wissenschaftler:innen sonst verborgen bleiben.

Die nächste Nachtschicht liegt vor uns. Foto: privat

Aus dem interdisziplinären Austausch erwächst die Stärke unserer Kooperation: methodisch, aber auch aus ethischer/politischer/sozialer Perspektive öffnet mir der Austausch mit Sanne Kruse-Becher regelmäßig die Augen. Frei nach dem Motto:

Man sieht nur mit allen Sinnen gut. Das Wesentliche ist für die Statistik unsichtbar.

Fotos: Andree Brüning

 

Swetlana Gaffron

Consultant Senior bei Viscovery Software GmbH

5 Monate

Ohja, das ist so ein wichtiges Thema! Danke für die wertvolle Diskussion!

Hans-Günther Döbereiner

Physicist Working for Digital Transformation with FAIR Digital Objects

6 Monate

Das Qualitative lässt sich durch aktions bassierte Semantik quantifizieren.

Hans-Günther Döbereiner

Physicist Working for Digital Transformation with FAIR Digital Objects

6 Monate

Moral ist als normative Konstruktion trainierbar für KI.

Ulf-Daniel Ehlers (NextEducation)

Scientific Director NextEducation: The Future Skills Research Group! Prof. Education Management & LLL, Founding Vicepresident @ BaWü Coop State Uni, Author, Speaker, Advisor Digital Transformation, Mindfulness Coach

6 Monate

Danke für diesen Beitrag. Und für die tolle Diskussion. Wir haben gerade einen KI Kompetenzrahmen veröffentlicht, in dem die kritische Reflexion und ethische Kompetenzen eine besondere Rolle spielen. Vielleicht ja interessant zum weiterdenken. Alles dazu hier zu finden. www.ai-comp.org

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Ebenfalls angesehen

Themen ansehen