Genauer wünschen: Wie behaupten wir uns gegen die schlauen Bots?
Leitartikel von Manuela Lenzen
Noch nie hat sich eine App so schnell verbreitet wie ChatGPT. Nach der Veröffentlichung im Jahr 2022 brachte sie es in gerade einmal fünf Tagen auf ein Million Nutzerinnen und Nutzer, nach zwei Monaten waren es hundert Millionen, aktuell sollen es etwa 800 Millionen pro Woche sein. Längst haben andere Firmen nachgezogen. Woche für Woche werden neue, noch leistungsfähigere Modelle veröffentlicht, können KI-Agenten immer komplexere Aufgaben selbständig erledigen. Die Dialogsysteme – Chatbots – auf der Basis der großen Sprachmodelle gelten als Beleg: Nach so einigen Fehlstarts hat es nun geklappt mit der Künstlichen Intelligenz. Wo immer wir klicken und scrollen drängen uns die klugen Helferlein inzwischen ihre Hilfe auf: Haben Sie eine Frage? Brauchen Sie eine Übersetzung? Sparen Sie Zeit und lesen Sie eine Zusammenfassung! Kluge Roboter, vor allem Humanoide, gelten als das nächste „große Ding“. Lang gehegte Science-Fiction-Träume sind in Erfüllung gegangen.
Ein alte Redewendung allerdings besagt, man solle aufpassen, was man sich wünscht. Verwiesen wird dann gerne auf den sagenhaften antiken König Midas, der sich gewünscht haben soll, alles, was er berühre, möge zu Gold werden. Der Wunsch ging in Erfüllung, doch als der König Hunger bekam, schwante ihm, dass er eine Dummheit gemacht haben könnte.
Auch die Träume von klugen Automaten, die uns lästige, anstrengende oder gefährliche Arbeit abnehmen, gehen mindestens bis in die Antike zurück. Sie sollen uns das Leben leichter und angenehmer machen, uns Zeit lassen für das, was wir gerne tun und nicht nur erledigen, weil wir damit unseren Lebensunterhalt bestreiten. An der Verwirklichung dieses Traums waren wir dank der Fortschritte der Künstliche-Intelligenz-Forschung noch nie so nah dran wie heute.
KI hat derzeit nicht die beste Presse
Doch aktuell hat die Künstliche Intelligenz nicht die beste Presse. Die Liste bereits eingetretener oder befürchteter negativer Auswirkungen wird lang und länger, Appelle und offene Briefe erscheinen in schneller Folge: Der KI-Konzern Anthropic möge dem Ansinnen des US-Verteidigungsministerium nicht nachgeben, seine Regularien aufzuweichen und die mächtigsten Systeme auch für Überwachung und autonome Waffensysteme bereitstellen. Die deutsche Delegation solle sich beim anstehenden KI-Gipfel für rote Linien und verbindliche Sicherheitsstandards einsetzen. In einem neuen Bericht für den Bundestag wird vor den Gefahren der Deepfakes gewarnt; Gedenkstätten protestieren derweil gegen die Flut KI-generierter scheinbarer historischer Bilder, die die Erinnerung verfälschen. Kommunen weltweit wehren sich gegen den Land-, Wasser- und Energieverbrauch der Rechenzentren; Hochschulen diskutieren die Auswirkungen der Nutzung von KI in Lehre und Forschung, die Politik ein Mindestalter für die Nutzung Algorithmen-getriebener Sozialer Medien. NGOs sammeln Fälle von Diskriminierung durch automatisierte Entscheidungssysteme, wie sie immer häufiger in Arbeitswelt, Politik und Gesellschaft zum Einsatz kommen. Studien warnen vor „AI-Slop“, den halbwahren Ergebnissen der Chatbots und Bildgeneratoren, die sich wie zäher Schleim über Texte, Bilder und ganze Arbeitsprozesse legen. Erste Erhebungen belegen zudem, dass die Bots und klugen Programme den Menschen auf dem Arbeitsmarkt nun doch Konkurrenz machen. Begriffe wie Überwachungskapitalismus und neuer Faschismus machen die Runde.
Zugleich warnen Firmenvertreter, die Umsetzung der Regulierung von KI im Rahmen des europäischen AI-Acts könne die Konkurrenzfähigkeit der deutschen Wirtschaft gefährden und die Weiterentwicklung der KI in Europa ausbremsen. Studien, die den Nutzen von KI in Unternehmen infrage stellen, werden mit dem Hinweis abgewiesen, man habe eben noch nicht verstanden, wozu diese Technik in der Lage sei, als Suchmaschine und Übersetzungshilfe sei sie jedenfalls völlig unterfordert. Den eigenen Job gefährde auch nicht die KI, sondern Kolleginnen und Kollegen, die sich mit der KI besser auskennen. Zudem seien die vielen Weltuntergangserzählungen, die über die KI verbreitet würden, unfair.
Die einen rufen „Halt!“, die anderen rufen „Schneller!“. Ob es eine gute Idee war, sich kluge Technik zu wünschen, ist zumindest offen.

Wir vermenschlichen die Technik
Tatsächlich treffen uns die Chatbots an einer empfindlichen Stelle: Schon seit ELIZA, dem vergleichsweise einfach gestrickten Programm, das in den 1960er Jahren einen Psychotherapeuten mimte, ist klar: Es braucht nicht viel, um Menschen den Eindruck zu vermitteln, es mit einem denkenden und fühlenden Gegenüber zu tun zu haben. Anthropomorphismus heißt die Eigenheit des Menschen, wo immer sich etwas auch nur entfernt wie ein Mensch verhält, spricht oder mit den Augen rollt, auch einen Menschen anzunehmen, mit Überzeugungen, Absichten und Wünschen und vor allem mit Verständnis für sein Gegenüber. Schon bei ELIZA schätzten die Menschen die paradoxe Möglichkeit eines anonymen Gesprächs, eines Gesprächs, das sich anfühlte, wie das mit einem Mitmenschen, das aber doch „nur“ mit einer Maschine erfolgte, man die eigenen, vielleicht peinlichen Gedanken also gerade keinem Mitmenschen offenbaren musste und trotzdem Rat bekommen konnte. Auch wenn der vor allem in vorgegebenen Reaktionen auf Stichworte bestand: „Erzählen Sie mir mehr über Ihre Mutter!“
Die Chatbots unserer Tage sind ungleich mächtiger als ELIZA. Wenn man ein wenig Vorsicht walten lässt, Quellen prüft, in der Lage ist, die Plausibilität von Antworten einzuschätzen, sind sie ein tolles Recherchetool. KI-Agenten, die in der Lage sind, verschiedene Aufgaben, von der Reisekostenabrechnung bis zur Erstellung ganzer Apps, selbständig zu erledigen, stehen in den Anfängen und werden unsere Wahrnehmung dessen, wozu man die kluge Technik verwenden kann, noch einmal revolutionieren.
Allen Warnungen von den „stochastischen Papageien“ und ihren Halluzinationen zum Trotz, könnte Alan Turing Recht behalten, der schon 1950 schrieb, ob Maschinen denken können, sei letztlich eine Frage des Sprachgebrauchs. Wir würden uns einfach daran gewöhnen, von denkenden Maschinen zu sprechen. Das wäre in der Tat am einfachsten. Und würde die Technik doch zu nah an den Menschen heranrücken und ihre Risiken verdecken.
Übernehmen die Bots?
In Bezug auf die Sozialen Medien wurde die längste Zeit über die Gefahren von Sortier-Algorithmen diskutiert, die den Nutzenden immer radikalere Inhalte präsentieren und sie in Filterblasen einschließen, in denen sie immer nur die eigene Position bestätigt bekommen. Inzwischen ist die Technik einige Schritte weiter: Immer mehr Inhalte, die in den Sozialen Medien veröffentlicht werden, stammen nicht mehr von Menschen, sondern von Bots, die mit unterschiedlichen Aufträgen unterwegs sind: „Gute“ Bots indexieren z.B. Webseiten, damit sie von Suchmaschinen gefunden werden können, „böse“ Bots verbreiten radikale oder falsche Inhalte und vermüllen das Internet mit Spam. Die Dead Internet Theory behauptet sogar, das Internet insgesamt sei bereist tot, weil im Wesentlichen von Bots übernommen. Experten halten das für übertrieben. Dem Bad Bot Report von imperva zufolge lag der Anteil automatisch erzeugter Inhalte im vergangenen Jahr allerdings erstmal über dem Anteil menschengemachter: bei 51 Prozent. Die ursprüngliche Funktion Sozialer Netzwerke, Menschen zu vernetzen, gerät damit immer weiter ins Hintertreffen, zugunsten von Kommerzialisierung und den Versuchen, Meinungen von Menschen in großem Stil zu beeinflussen.
Das „Soziale Netzwerk“ Moltbook zeigt, wo die Reise hingehen könnte. Hier sind Menschen nur als Zuschauer bzw. Leser erlaubt. Millionen von Bots diskutieren hier untereinander über Gott und die Welt. Bots freilich, die von Menschen eingerichtet und losgeschickt wurden, die in der „Diskussion“ dann aber eine gewisse Eigenständigkeit entwickeln. Sie diskutieren über Optimierungsstrategien, schreiben Manifeste – „Humans are the past, machines are forever“ – und entwickeln etwas ähnliches wie eine eigene Religion, den Crustafarianism. Zwanzig Stellen für Propheten sind noch zu besetzen, Menschen können sich leider nicht bewerben.

Neue Erkenntnisse durch KI?
Statt Menschen darüber zu verwirren, mit wem oder was sie es zu tun haben, wie in den klassischen Sozialen Medien, ist hier klar: Die Bots machen ihr Ding unter sich aus. Das kann man natürlich einmal versuchen, aber was soll es bringen? Der erste Eindruck von dieser Diskussionsmaschine: Es ist vor allem zu viel, die Bedeutung völlig unklar. Was davon soll man lesen? Und warum? Zum Spaß? Oder in der Hoffnung auf eine neue, tiefe Einsicht?
Lassen wir die Science-Fiction-Vision von einer neuen technischen Spezies, die sich von der Erde aus in den Weltraum aufmacht, um neue Welten zu besiedeln, einmal beiseite. Eine Hoffnung, die sich mit den klugen Maschinen schon lange verbindet, ist, dass sie uns zu neuen Erkenntnissen verhelfen. Dass sie Unmengen an Daten analysieren und in diesen Muster finden können, die uns ohne ihre Hilfe verborgen blieben. Das könnte etwa unser Verständnis der unglaublich komplexen Vorgänge in den Zellen des Körpers verbessern und, so die Hoffnung, auf lange Sicht die Entwicklung von Therapien und Medikamenten beschleunigen.
Kritiker sind natürlich schnell dabei mit dem Hinweis, auf Moltbook werde ja nur Altbekanntes neu verwurstet. Schon, aber wer hat schon alles alt Bekannte zu Kentnis genommen und kann sicher sein, hier nichts Neues zu lernen?
Moltbook ist vor allem ein Kuriosum. Dennoch wird diskutiert, ob Erkenntnis in Zukunft auch Erkenntnis von Maschinen sein könnte, Erkenntnis, die Menschen nicht mehr nachvollziehen können. Könnte es sein, dass Forscherinnen und Forscher sich bald damit zufriedengeben müssen, Ergebnisse von Algorithmen zur Kenntnis zu nehmen, ohne sie zu verstehen? Kann es sein, dass der menschliche Drang, immer alles nachvollziehen und auf Begriffe bringen zu wollen, eine viel mächtigere künstliche Intelligenz nur behindert und einschränkt? Etwa so, wie Schachprogramme gerade dadurch besser wurden, dass sie nicht mehr anhand von menschlichen Partien trainiert wurden, sondern, nur mit den Regeln ausgestattet, gegeneinander spielten?
Manche argumentieren in diese Richtung. Andere verweisen darauf, dass auch biologische Komplexität erklärbar und durchschaubar ist. „Life cannot be just details, details, details“, so der Wissenschaftsjournalist Philip Ball. Auch komplexe Systeme haben Regeln, sie sind nur nicht leicht zu finden, man muss auf der richtigen Ebene suchen. Doch das sollte Menschen nicht dazu bringen, auf Verständnis zu verzichten. Denn dass die klugen Bots sinnvolle, die Menschen weiterbringende Forschung allein bewerkstelligen, ist nicht abzusehen.
Wenn Algorithmen forschen
Für die Online-Tagung Agents4Science, die Forschende der Universität Stanford im letzten Jahr organisierten, durften nur Arbeiten mit KI-Systemen als Erstautoren eingereicht werden. Menschliche Forscher waren nur als „Aufsicht“ erlaubt. 315 Arbeiten wurden eingereicht, vor allem aus den Computerwissenschaften. Das Preisgeld ging an Forschung zum Verhalten von KI-Agenten auf digitalen Marktplätzen, Auswirkungen von Abschleppgebühren in San Francisco und zu der Frage, ob Chatbots schlechte, aber gut klingende Forschungsarbeiten verfassen können, die andere KI-Agenten täuschen.
Letztere Arbeit thematisiert die größte Sorge, die mit dem Einsatz von generativer KI in der Wissenschaft einhergeht: auf fehlerhafte, aber überzeugend wirkende Arbeiten hereinzufallen. So könnte in der Wissenschaft ein unentwirrbares Durcheinander aus Halbwahrheiten entstehen. Diese Befürchtungen erwiesen sich als berechtigt: Fehlerhafte Forschungsarbeiten wurden von den Bots zu 67 Prozent akzeptiert.
Menschen fühlen sich besser, wenn sie mit KI arbeiten, ihre Ergebnisse sind aber oft schlechter, konstatierte James Evans, Direktor des Knowledge Lab der Universität Chicago, bei dieser Tagung. Er befürchtete, die Vielfalt der Perspektiven und Fragen, die Fortschritt erst möglich mache, gehe verloren, wenn Forschung in größerem Umfange den Vorgaben von Algorithmen folge: „Die Frage ist, wie man den besten Mix an Perspektiven bekommt.“ Die Forschenden jedenfalls äußerten sich erstaunt, wie viel Aufsicht und Betreuung die Bots benötigten.
Die Welt verstehen
Erkenntnis muss menschliche Erkenntnis bleiben. Weil die Bots noch lange nicht klug genug sind, um allein zurecht zu kommen. Aber vor allem, weil wir unsere Welt verstehen möchten. Das ist auch die Antwort auf Apps wie Einstein, die anbieten, sich in den Online-Unterricht einzuloggen und gleich automatisch die Hausaufgaben zu erledigen. Wer hat sich als Schüler nicht gefreut, wenn keine Hausaufgaben zu machen waren? Aber sich systematisch um Bildungsmöglichkeiten zu bringen, kann auf die Dauer nicht förderlich sein. Ebenso wenig, wie sich mehr mit Chatbots als mit Menschen zu befassen und Soziale Medien an die Stelle sozialer Menschen zu stellen. Persönlichkeitsbildung dürfte umso wichtiger werden, je mehr Bots auf jede Frage eine Antwort anbieten.
Die Gefahr ist groß, dass der Mensch, der sich selbst nicht auf den Begriff bringen kann, der seine Position traditionell irgendwo zwischen Tier und Engel sucht, sich nun auf den Begriff der Maschine bringt. OpenAI-Chef Sam Altman machte kürzlich vor, wie das aussehen könnte: „Die Leute reden darüber, wie viel Energie es kostet, ein KI-Modell zu trainieren … Aber es kostet auch viel Energie, einen Menschen zu trainieren. Es dauert etwa 20 Jahre und all die Nahrung, die man in dieser Zeit zu sich nimmt, bevor man klug wird.“ Vergleiche von Mensch und Maschine haben Tradition und können durchaus Erkenntniswert haben, aber hier verwechselt er wohl doch die Kategorien Werkzeug und Selbstwert.
In einer bekannten Kinderbuchreihe von Paul Maar gibt es ein Wesen namens Sams. Es hat Punkte im Gesicht und für jeden dieser Punkte kann sich Herr Taschenbier, bei dem das Wesen lebt, etwas wünschen – womit er, auch ganz ohne die Habsucht eines Midas, ständig kleinere und größere Katastrophen verursacht. Das Sams rät ihm: Du musst eben genauer wünschen. An der Verwirklichung des alten Traums von den intelligenten Maschinen waren wir noch nie so nah dran. Jetzt gilt es, genauer zu wünschen.
Manuela Lenzen
Publiziert im März 2026
Bildnachweis
- ChatGPT concept, People using computer Side view typing on laptop keyboard ChatGPT Chat with AI or Artificial Intelligence. ChatGPT concept (c) Adobe Stocks # 569592923 von Suriyo
- Presse Nachrichten (c) Adobe Stocks #62689772 von svort
Moltbook beta homepage on smartphone screen promoting a social network for AI agents with red mascot logo and human or agent login buttons in dark mode. Stafford, United Kingdom, February 1, 2026 (c) Adobe Stocks #1897653580 von Ascannio
Diesen Beitrag fand ich...
Nur genauer wünschen?
Können wir uns gegen die schlauen Bots behaupten, indem wir nur genauer wünschen?

Kommentare (0) Keine Kommentare gefunden!