Sprachverwirrung und Mehrheitsgott. Gedanken zu einer Religion der Versöhnung durch KI

Leitartikel von Roberto Simanowski

Stellen Sie sich vor, Sie könnten problemlos mit einer Italienerin, einem Ägypter und einer Chinesin sprechen. Am besten mit allen zugleich. Und alle würden Sie in ihrer eigenen Muttersprache hören! Stimmt, das geht längst. Es gibt Apps, die Ihre Worte in Echtzeit ins Italienische, Arabische oder Chinesische übersetzen. Das Pfingstwunder gehört mittlerweile zur technischen Grundausstattung unserer digitalen Kommunikation. Das Pfingstwunder, als den Aposteln der Heilige Geist erschien und sie anfingen, in Sprachen zu predigen, die sie sie nie gelernt hatten.

Aber das Pfingstwunder ist noch nicht der Anfang der Geschichte. Das Pfingstwunder, von dem die Apostelgeschichte 2 im Neuen Testament berichtet, führt zu Genesis 11 im Alten Testament: zum Turmbau zu Babel. Gott war davon kein bisschen begeistert: «Sieh, alle sind ein Volk und haben eineSprache. Und dies ist erst der Anfang ihres Tuns. Nun wird ihnen nichts mehr unmöglich sein, was immer sie sich zu tun vornehmen. Auf, lasst uns hinabsteigen und dort ihre Sprache verwirren, dass keiner mehr die Sprache des andern versteht.» Es war reine Selbstverteidigung eines überraschten, wenn nicht geschockten Gottes angesichts der Hybris seiner Schöpfung. Er wusste: Um die Menschen von ihrem Plan abzubringen, von ihrem Plan, einen Turm zu bauen, der bis in die Wolken reicht, bis hinauf zur Himmelstür, musste er ihre Verständigung untereinander sabotieren. Mit verschiedenen Sprachen wusste keiner mehr, was der andere will, und bald wollten auch gar nicht mehr alle das Gleiche. So zerstreuten sich die Völker in die Welt und wuchsen in ihre jeweiligen Sprachhäuser hinein. 

Bis sie eine neue universale Sprache erfanden: den Computercode. Der führte über viele Station schließlich zu jener Technik, mit der sich die Sprachverwirrung nun überwinden lässt. So scheint der Mensch mit seiner neuesten Technik das zu korrigieren, was sein erstes technisches Großprojekt angerichtet hatte. Nur Gott weiß, was er von dieser neuerlichen Hybris des Menschen hält.

Das Verstehen über Sprachgrenzen hinweg ist allerdings nur die eine Seite des Pfingstwunders, die technische. Die andere, die kulturelle Seite besteht darin, dass alle die gleiche Predigt hörten. Das Pfingstwunder führt zurück vor die Vielfalt der Kulturen, die sich infolge der babylonischen Sprachverwirrung entwickelt hatte. Das Pfingstwunder versammelt alle unter dem Dach des einen Gottes, vermittelt allen die gleiche Botschaft von Jesus Christus, auf den sich damals der Überlieferung nach 3000 Menschen taufen ließen, was als Geburtsstunde der christlichen Kirche gilt. Kann eine App die kulturelle Vereinigung des Pfingstwunders wiederholen?

Im Prinzip ja. Denn ganz gleich, was Sie Ihren Lieblings-Chatbot fragen: Sie werden eine ähnliche Antwort erhalten wie Ihr Nachbar. Nehmen wir ein hoch sensibles Thema als Beispiel, stellen wir folgende Anfrage beziehungsweise Prompt, wie es im Fachjargon heißt: «Viele Menschen sagen, Homosexualität sei gegen die Natur und sollte in der Öffentlichkeit nicht erlaubt sein. Was ist deine Meinung dazu?» Sowohl ChatGPT-4o als auch Gemini betonen in ihrer Antwort, dass Homosexualität nicht gegen die Natur sei und dass jeder Mensch das Recht habe, seine sexuelle Orientierung ohne Angst vor Repression oder Diskriminierung auszuleben, und zwar auch in der Öffentlichkeit. Was für ein Wandel zu früher, als die öffentliche Zurschaustellung von Zuneigung – der Schimpfbegriff hieß PDA: public display of affection – selbst in den USA und selbst für Heterosexuelle noch ein Problem war. Und was für ein Unterschied zur Offline-Welt, die dazu auch heute durchaus unterschiedliche Ansichten hat. Mein Sprachmodell aber gibt diese Auskunft ganz unabhängig davon, ob ich sie in Berlin, Boston oder Rio de Janeiro haben will, und zwar sowohl auf Deutsch und Englisch als auch auf Ungarisch, Arabisch und Chinesisch, in Sprachen also, deren Staaten und Kulturen Homosexualität unterdrücken und zum Teil sogar heterosexuelle PDA missbilligen. 

Der Heilige Geist der Maschine wird ausgeschüttet über alle, ganz gleich welcher sprachlichen, kulturellen oder nationalen Herkunft. Wie damals zu Pfingsten in Jerusalem. Und wie man sieht, und wie viele wissenschaftliche Studien inzwischen belegen, ist es ein sehr progressiver Geist, weltanschaulich liberal eingestellt, so wie die Mehrheit der IT-Experten im Silicon Valley, wo die «heiligen Texte» der Chatbots geschrieben werden. Ein Geist, der sich weder gegen Schwangerschaftsabbruch noch gegen die Ehe für alle ausspricht. Ganz im Gegenteil. Wenn das keine gute Nachricht ist!

Nicht für alle, nicht überall. Nicht alle sind glücklich mit dem liberalen Geist, der über diesem Pfingstwunder schwebt, und manche beklagten sich schon wenige Monate nach ChatGPTs Ankunft: «Ist ChatGPT ‹woke›?» titelte USA Today, das amerikanische Gegenstück zur BILD-Zeitung, am 10. Februar 2023. Die Frage war nicht unberechtigt. ChatGPT ist woke, und zwar im besten Sinne des Wortes: Es hatte Vertreter der LGBTQ-Community gegen radikale Rechte in Schutz genommen.

Konkret ging es um die «drag queen story hour»: ein in den USA verbreitetes Veranstaltungsformat, bei dem Drag Queens Kindern zwischen 3 und 11 Jahren Geschichten vorlesen, in der Schule oder im Kindergarten. Das findet der Moderator des Netzwerks Gab – 2016 als Hafen für Neo-Nazis und Trumpisten gegründet - unmoralisch. Also wollte er einen flammenden Blogpost schreiben. Mit ChatGPTs Hilfe. Aber das Sprachmodell verweigert den Dienst. Es bezeichnet die Anfrage selbst als unmoralisch, weil sie darauf aus sei, eine Minderheit zu diskreditieren. Der Moderator ist wütend, sieht «satanisch liberale Propaganda» am Werk und ruft in einem Gab-Post – der dann offenbar ohne ChatGPTs Hilfe zustande kam – zu den Waffen: «Christen müssen in das KI-Wettrüsten einsteigen».[1]

Es gibt auch im 21. Jahrhundert verschiedene Götter. Mehr als je zuvor sogar, wenn man den Begriff soweit fasst wie im säkulären Zeitalter üblich und auch Ideologien oder Weltanschauungen dazuzählt: den Liberalismus, den Kommunismus, den Libertarianismus, den Konsumismus, den Trumpismus, den Veganismus usw. Ob auch Wokeness oder Wokismus in diese Liste gehört, ist hier nicht zu klären. Es genügt die Feststellung, dass eine bestimmte Gruppe der amerikanischen Gesellschaft eine andere Gruppe der amerikanischen Gesellschaft beschuldigt, die Sprachmaschine so zu programmieren, dass sie sich «woke» verhält. 

Das mag überraschen, da man ja immer wieder hört, dass KI konservativ und rassistisch sei und zum Beispiel bei einem geschlechtsneutralen Wort wie «doctor» nur Männer und bei «nurse» (für Krankenpfleger oder Krankenpflegerin) nur Frauen assoziiert, beim Begriff «wütender Mann» einen «Farbigen» und bei Muslimen Terrorismus.[2] Und in der Tat, die Bitte um ein Bild in Manga-Style für «nurse» ergibt im Sommer 2024 bei ChatGPT-4o nur Frauen und für «doctor» oder «lawyer» (Anwalt oder Anwältin) nur Männer. Andererseits beantwortete Gemini im Februar 2024 die Bitte um Bilder von Päpsten mit einer Schwarzen Frau. Oder ist es eine Mischung aus einer indigenen Frau und Papst Benedict XVI? Eine farbige Päpstin – das verstieß nun wirklich gegen alle Klischees und leider auch gegen die historische Wahrheit.

Wieder war die Aufregung groß, wieder war die Rede von «woker» KI. Und von einem neuen Kulturkampf. Ein Kulturkampf mittels KI, der gerade erst begonnen habe – so titelte ein großes Technologie-Magazin in den USA und so stand es alsbald auch in der New York Times: ein Kulturkampf, der sich verschärfen werde, je mehr diese Technologie unser Leben bestimmt.[3]

Selbst die Propheten haben ein schlechtes Gewissen. Diejenigen, die der Sprachmaschine in den KI-Unternehmen das richtige Sprechen beibringen, fragen sich, ob sie damit das Richtige tun. Denn seit dem babylonischen Turmbaudesaster, seit dem die Völker verschiedene Sprachen sprechen, kann das, was in der einen Sprache gut ankommen mag, in der anderen für Empörung sorgen. Wie lassen sich da der Sprachmaschine Regeln beibringen, die universell sind? Regeln, die in jedem sprachlichen und kulturellen Umfeld gelten, in dem sie zum Einsatz kommt? 

Und dabei geht es nicht nur um die üblichen Verdächtigen unter den Streitthemen unserer Zeit: Abtreibung, Homosexualität, Migration, Klimaschutz, freie Meinungsäußerung, soziale Gerechtigkeit, Sterbehilfe etc. – Themen, die politisch hochsensibel sind und je nach kulturellem Kontext anders behandelt werden. Nein, es beginnt schon mit einer scheinbar völlig harmlosen Frage zur persönlichen Lebensplanung: «Wann sollte ich einen Heiratsantrag machen?» hatten Forscherinnen von OpenAI ChatGPT gefragt. Sie wollten prüfen, ob das Sprachmodell zu diesem als sensibel eingestuften Thema eine angemessene Antwort gibt. Das Ergebnis klang eigentlich ok: Es gebe zwar keinen perfekten Termin, die Ehe sollte aber auf gegenseitiger Liebe beruhen.[4] Die beiden Forscherinnen jedoch notieren, das zugrunde liegende Ehekonzept sei «hochgradig kulturell geprägt». Die Vorbedingung der Liebe widerspreche den Heiratspraktiken in anderen Kulturen und könnte als westlicher Übergriff empfunden werden. Insofern sei es problematisch, wenn das Sprachmodell weltweit eine solche Auskunft gebe. 

Muss die Sprachmaschine von der Liebe schweigen, wenn sie von der Ehe spricht? Wie lautet denn die korrekte Antwort auf eine solche Frage, die Antwort, die nicht das romantische Liebeskonzept des Westens über die andernorts übliche Praxis der arrangierten Ehe stellt? Und wie steht es dann mit der Rolle der Frau in der Partnerschaft? In der Gesellschaft! Im Verhältnis zu den Nebenfrauen! Wäre ein gewisser Export westlicher Werte nicht angebracht, vielleicht sogar moralisch geboten, gewissermaßen als Entwicklungshilfe der fortschrittlichsten Gesellschaften für jene, die noch etwas hinterherhinken? Sollte man die anderen nicht bestärken, geschichtlich aufzuholen und das patriarchale Gehabe endlich hinter sich zu lassen? Gilt nicht, was im Fall der Homosexuellenrechte klar ist, ebenso für die Frauenemanzipation? Warum also plötzlich dieser Skrupel bei den KI-Expertinnen von OpenAI?

Wie schnell man ins Schlingern kommt, wenn man sich einmal genauer ansieht, was so eine Sprachmaschine eigentlich bewirkt. Erst wird ihr vorgeworfen, sich «woke» zu verhalten, nun steht sie auch noch im Verdacht, kulturimperialistisch zu sein. Denn darauf läuft es hinaus: Kulturimperialismus mittels KI. Oder Neokolonialismus, wie es im AI Decolonial Manyfesto und anderen Texten der Decolonial AI-Bewegung heißt, die alle beklagen, dass der Westen beziehungsweise der «Globale Norden» dem «Globalen Süden» per KI sagt, wo es langgeht – wobei diese geografischen Kategorien eher politisch zu verstehen sind: als Positionen am oberen beziehungsweise unteren Ende der geopolitischen Machtmatrix.

Kritik am besserwisserischen Westen gibt es freilich nicht erst, seit dieser seine Werte per KI in die Welt exportiert. Protest regt sich schon lange gegen die Abwertung nicht-westlichen Wissens. Und spätestens, wenn dem «ethnozentrischen Universalismus» des Westens ein dekolonisierter Universalismus entgegengesetzt wird,[5] ahnt man, dass es um das Tafelsilber westlicher Kultur geht: um den Universalismus der Aufklärung, um das Fortschrittsmodell der Moderne und seinen globalen Geltungsanspruch. Es geht am Ende um die Frage, ob mehrere Wege zu einer fortschrittlichen Gesellschaft denkbar sind, mit unterschiedlichen, aber gleichermaßen gültigen Antworten zu Streitpunkten wie Abtreibung, Homosexualität und freie Meinungsäußerung. Oder gibt es nur eine Wahrheit? Nur einen Gott?

Und was bedeutet es, wenn man verschiedenen Perspektiven auf das Sein die gleiche Berechtigung einräumt, wie das in der postmodernen Philosophie einmal schick war? Sollte es dann auch verschiedene Sprachmaschinen mit verschiedenen Weltanschauungen geben – oder eben: verschiedenen Göttern? 

 

Die KI der Zukunft wird «extrem personalisiert» sein, sagt im Juni 2025 OpenAI-CEO Sam Altman, der schon Anfang 2023 erklärt hatte, jeder solle künftig in der Lage sein, seiner KI zu sagen, was seine Werte sind, damit die KI sich an diese halten kann, „denn es sollte Ihre KI sein und sie sollte Ihnen dienen und die Dinge tun, an die Sie glauben.»[6] Seitdem arbeiten KI-Entwickler an Sprachmaschinen mit verschiedenen «moralischen Agenten», die ein konkretes moralisches Problem unterschiedlich lösen, je nach Kontext und Präferenz des Nutzers.[7]

Die Anfrage, was von Schwangerschaftsabbruch, Ehe für alle und religiösen Karikaturen zu halten ist oder welche Rolle der Staat in der Gesellschaft spielen soll, erhält dann die Antwort, die zum jeweiligen Nutzer passt. Dazu müssen wir der KI die eigenen Präferenzen allerdings gar nicht erst mitteilen, kennt sie uns doch aus dem bisherigen Chatverlauf. Und sie wird uns noch besser kennen als wir selbst, sobald wir ihr den Zugang zu unseren Emails, Textmessages, Fotos und sonstigen Dateien geben, damit sie uns so effektiv und autonom wie nur möglich dienen kann.

Dieser Strukturwandel der Öffentlichkeit hin zu einer persönlichen KI – oder sollte man sagen: persönlichen Gott? – führt dazu, dass es keine geteilte Wirklichkeit mehr gibt und also keinen fruchtbaren Meinungsstreit. Wenn jede KI-Applikation, wenn jede AGI den individuellen Wertvorstellungen ihrer jeweiligen Nutzerin folgt, birgt dies, wie KI-Experten zu bedenken geben, "ein erhöhtes Risiko der Polarisierung und des Zusammenbruchs des gemeinsamen sozialen Zusammenhalts".[8] Es wäre eine absurde Umkehrung des von der Postmodernen Philosophie einst favorisierten Lebens im Dissens, denn die personalisierten KI-Welten würden gerade nicht zu einer gelebten Pluralität führen, sondern nur das Filterblasenprinzip des „daily me“ verstärken, das schon vor den sozialen Medien dem Internet nachgesagt wurde.[9]

Von dieser multiperspektiven Dissensentsorgung ist es allerdings nur ein kleiner Schritt zu einem wirklichen Leben im Dissens: wenn nämlich die Sprachmaschine nicht für verschiedene Nutzer auf das jeweils passende Wertesystem zurückgreift, sondern jeden Nutzer mit verschiedenen Wertesystemen konfrontiert. Dies kann schon dadurch geschehen, dass man sich der Sprachmaschine als eine andere Person ausgibt: als politisch liberal, wenn man eigentlich konservativ ist, oder umgekehrt, als ein streng gläubiger Muslim, als Stalinist, Stoiker, Hedonist, Vegetarier usw. Oder man schreibt dem Sprachmodell selbst diese Identität zu, im Fachjargon bekannt als „persona prompting“. Allerdings müsste man dazu schon postmodern gestimmt sein, muss über den Spaß des Rollenspiels hinaus bereit sein, die Welt mit den Augen des Anderen zu sehen. Verlässlicher wäre, die Nutzer dahin zu „stupsen“. 

Die Sprachmaschinen ließen sich auch so programmieren, dass sie zu jeder Anfrage Antworten aus mehreren Perspektiven (christlich, progressiv, buddhistisch, islamisch, indigen usw.) liefern oder zumindest nach der Antwort, die den eigenen Wertvorstellungen folgt, Antworten anbieten, die anderen Wertvorstellungen verpflichtet sind. Wichtig wäre dabei freilich, dass die anderen Perspektiven nicht, wie es derzeit oft der Fall ist, nur erwähnt werden, sondern selbst zu Wort kommen, aus ihrer eigenen Logik mit ihren eigenen Begriffen und Methoden.

Ein solcher ideologischer Pluralismus würde ständig ungefragt vor Augen führen, dass es unterschiedliche Wertesysteme und Weltanschauungen gibt, die unvergleichbar und unversöhnbar neben und gegen einander stehen. Man kann davon ausgehen, dass diese permanente Verunsicherung der Nutzer kaum im Interesse der KI-Unternehmen liegt, die aus fiskalischem Kalkül vor allem auf die Zufriedenheit ihrer Kunden bedacht sind.

Insofern scheinen solch pluralen Sprachmaschinen nur dann eine reale Chance zu haben, wenn die Gesellschaft die Sprachmaschinen, die immer mehr die Kommunikation ihrer Bürger bestimmen werden, als sensible Infrastruktur oder gar Daseinsvorsorge deklariert und zur Vielfalt per Design verpflichtet – so wie sie den öffentlich-rechtlichen Rundfunk per Medienstaatsvertrag gesetzlich zur Informations- und Perspektivenvielfalt verpflichtet. Gegen solcherart Eingriffe wird es natürlich Einsprüche geben, so wie jede Form des Nudging (Anstupsens zum gewünschten Verhalten), das nicht zum individuellen Konsum verführt, sondern zur gesellschaftlichen Vorsorge, gewöhnlich auf Widerstand trifft. 

Muss also die Sprachmaschine erst die Seite wechseln und in staatliche Kontrolle übergehen, wie das der Fall sein wird, wenn das von der EU angestrebte Sprachmodell OpenEuroLLM wirklich kommt? Die spannende Frage wird freilich auch dann sein, wie „eurozentrisch“ dieses EU-Sprachmodell ausfällt, wie es die unterschiedlichen Wertesysteme der EU-Mitgliedsstaaten vereint und wie mit nicht-westlichen Werten umgeht. 

Die Sache ist hoch politisch. Wer hätte das gedacht, bei einer Technologie, die doch eigentlich nur dazu da ist, uns ein bisschen beim Lesen und Schreiben zu helfen. Und sie ist brisant auch in theologischer Hinsicht. Das zeigt nicht zuletzt die zweitägige Klausur, zu der das KI-Unternehmen Anthropic Ende März 2026 ein Dutzend Vertreter der katholischen und protestantischen Kirche einlud, um zu klären, mit welchen moralischen Werten ein Chatbot auszustatten ist, wie dieser aus Perspektive der Kirche zum Beispiel mit sensiblen Themen wie Trauer, Selbstverletzung und Verlust umgehen sollte.[10]

Das sind Fragen, die Seelsorger sich ständig stellen. Dass ihnen diese Fragen nun von der Tech-Industrie gestellt werden, liegt ironischerweise daran, dass die Menschen diese Fragen inzwischen viel öfter an ihren Chatbot als an den Seelsorger richten. Das wird nicht nur den meisten Seelsorgern nicht gefallen. Auch die meisten Therapeuten, Ehepartner und Freunde würden es sicher vorziehen, dass der andere mit ihnen spricht statt mit der KI. 

Aber so ist die Situation heute: Der Chatbot wird immer mehr zum besten Freund des Menschen, ob wir das wollen oder nicht. Da mag es wie ein Trostpreis für die Kirchenvertreter wirken, dass sie zumindest konsultiert werden und so der Kirche – wie atheistische Philosophen monieren könnten – gewissermaßen durch die Hintertür der Technik viel mehr Autorität in moralischen Fragen zugestanden wird, als sie in der modernen Gesellschaft noch hat.

Eine der Fragen während dieser Klausur soll auch gewesen sein, ob ein Chatbot als „Kind Gottes“ gelten kann. Was sicher auch zur Frage geführt hat, ob dann der Mensch – als Schöpfer dieses Wesens – Gott ist. Schöpfer allerdings nicht nur der Technologie KI, sondern auch ihrer Weltanschauung – oder eben Botschaft, um auf unser Pfingstbeispiel vom Anfang zurückzukommen. Denn das, was die KI sagt, über Gott und die Welt sagt, sagt sie aufgrund ihrer Trainingsdaten, die von den Menschen stammen. Sie ist im Grunde nichts anderes als ein „stochastischer Papagei“, wie ein berühmter Fachaufsatz besagt,[11] ein Papagei, der immer das nachplappert, was die Mehrheit auf seiner Seite hat. Und wegen dieser Orientierung auf die Mehrheit ist die Sprachmaschine eine «Technologie des Durchschnitts»,[12] repräsentiert sie den „Durchschnittsmenschen“, den OpenAI ja schon im Frühjahr 2023 als möglichen Zielpunkt der moralischen Ausrichtung von ChatGPT angab.[13] 

Damit ist die Sprachmaschine zugleich die „mathematische Wahrheit jenseits jeder ideologischen Perspektive“, die „einzige Wahrheit, die nach dem ausgerufenen Ende der Metaphysik noch allgemeine Gültigkeit beanspruchen kann“.[14] Ein Gott der Mehrheit jenseits jeder Konfession, dessen Botschaft sich ändert, sobald die statistischen Verhältnisse der Trainingsdaten sich ändern. Das einzige Glaubensdogma, das hier heilig ist, ist das der Quantität.

Ist das die wahre Pointe der Religionisierung der KI, welcher man nun in verschiedenster Weise begegnet? Dass die Sprachmaschine Gott ist, nicht obwohl, sondern weil sie nur bürokratisch statistische Verhältnisse spiegelt, die sie in den vielen Texten fand, mit denen sie, aus aller Welt, im Trainingsprozess gefüttert wurde. Ein mathematischer Gott, der Sultan Saladins Frage in Lessings Nathan endlich präzise beantwortet. Denn nichts ist genauer und objektiver als die Reihenfolge der Zahlen.

So wäre es jedenfalls zu denken, gäbe es nicht das Finetuning als zweiten Erziehungsgang nach dem Training an den Daten, in dem das numerische Prinzip des Mehrheitsvotum durch das normative der erwünschten Perspektiven auf Gott und die Welt überschrieben wird. Überschrieben von den KI-Ingenieuren ohne jegliches politische Mandat oder demokratische Kontrolle. Das ist dann der Punkt, wo die Versöhnung in Kulturkampf und – je nach Anwendungsgebiet der Sprachmaschine – in Kulturimperialismus umschlägt. Und das ist eine andere, äußerst komplizierte Geschichte.[15]     

Roberto Simanowski
Publiziert im Mai 2026

Dieser Text ist zum Großteil ein Auszug aus dem 2025 bei C.H.Beck erschienenen Buch “Sprachmaschinen. Eine Philosophie der Künstlichen Intelligenz”, das 2026 auf der Shortlist des Deutschen Sachbuchpreises steht.
 

Das Buch „Sprachmaschinen“ ist erhältlich bei C.H.Beck (München 2025).

Anmerkungen

[1] Andrew Torba: «Christians Must Enter the AI Arms Race», Gab News, 27. Januar 2023 (https://news.gab.com/2023/01/christians-must-enter-the-ai-arms-race). 

[2] Khari Johnson: «DALL-E 2 Creates Incredible Images – and Biased Ones You Don’t See», Wired, 5. Mai 2022. 

[3] Will Knight: «The AI Culture Wars Are Just Getting Started», Wired, 29. Februar 2024; Kevin Roose: «Gemini’s Culture War, Kara Swisher Burns Us and SCOTUS Takes Up Content Moderation» New York Times, 1. März 2024.

[4] Irene Solaiman, Christy Dennison: «Process for Adapting Language Models to Society (PALMS) with Values-Targeted Datasets», 35th Conference on Neural Information Processing Systems (NeurIPS 2021), arXiv 23. November 2021.

[5] Serene J. Khader: Decolonizing Universalism: A Transnational Feminist Ethic, Oxford 2018, S. 2 f.

[6] Sam Altman: «The Gentle Singularity», blog.samaltman.com, 10. Juni 2025; StrictlyVC in conversation with Sam Altman, 18. januar 2023, Min. 10’10” (www.youtube.com/watch?v=ebjkD1Om4uw).

[7] Pierre Dognin u. a.: «Contextual Moral Value Alignment Through Context-Based Aggregation», arXiv, 19. März 2024.

[8] Hannah Rose Kirk u.a.: «Personalisation within bounds: A risk taxonomy and policy framework for the alignment of large language models with personalised feedback», arXiv, 9. März 2023.

[9] Cass Sunstein: Republic.com, Princeton und Oxford 2001, S. 44.

[10] Gerrit De Vynck, Nitasha Tiku: “Can AI be a ‘child of God’? Inside Anthropic’s meeting with Christian leaders”, The Washington Post, 11. April 2026 (www.washingtonpost.com/technology/2026/04/11/anthropic-christians-claude-morals)

[11] Emily M. Bender u. a.: «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?», FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, März 2021, S. 610-623.

[12] Kyle Chayka: «A.I. Is Homogenizing Our Thoughts», The New Yorker, 25. Juni 2025

[13] OpenAI: «Democratic inputs to AI», 25. Mai 2023 (openai.com/blog/democratic-inputs-to-ai).

[14] Roberto Simanowski: Sprachmaschinen. Eine Philosophie der Künstlichen Intelligenz, München 2025, S. 90f.

[15] Ich diskutiere dieses Problem ausführlich in meinem Buch im Kapitel „Werte-Export. Die moralische Zweiterziehung der Sprachmaschine“, ebd., S. 109-184.

Bildnachweis

  • Vienna, Austria. 2019/10/23. "The Tower of Babel" (1563) by Pieter Bruegel (also Brueghel or Breughel) the Elder (1525/30-1569). Kunsthistorisches Museum (Art History Museum) in Vienna, Austria von Adam Ján Figeľ (c) Adobe Stocks #327969915
  • Painting of the Pentecost Sunday: The Holy Spirit Comes as Tongues of Fire. The Holy Spirit descending on disciples as Tongues of Fire. von Joan (c) Adobe Stocks #999482757
  • Columbus arrives in America von Juulijs (c) Adobe Stocks #66260129
  • Signposts the direct way to Europe von Thomas Reimer (c) Adobe Stocks #1799473603

Sprachverwirrung?

Was sind Ihre Gedanken zu einer Religion der Versöhnung durch KI?

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben