Superintelligenz und Singularität: Übernehmen Künstliche Intelligenz und Roboter die Macht?

Leitartikel von Thomas Ramge

In wenigen Jahren werden wir viele Entscheidungen im Alltag an aus Daten lernende Assistenten delegieren. In wessen Interesse aber agiert der virtuelle Assistent? KI-Systemen fehlt die Fähigkeit, das große Ganze zu sehen. Sie können uns das Denken nicht abnehmen. Bis auf weiteres müssen wir uns nicht vor Künstlicher Intelligenz fürchten, sondern vor Menschen, die sie missbrauchen.

Die Besatzung der Discovery ist irritiert. Auf dem Weg zum Jupiter wirkt Supercomputer HAL 9000 immer neurotischer. Offenkundig irrt er sich bei der Fehleranalyse des Antennenmoduls. Oder täuscht er den Irrtum nur vor? Die Crew erwägt, HAL abzuschalten, was die Künstliche Intelligenz allerdings mitbekommt. Sie kann Lippen lesen, was die Raumfahrer aber nicht wissen. Der Computer beschließt, dass er seine Mission zum Mars ausführen muss: unbeirrbar und allein. Was bleibt ihm anderes übrig, als die Besatzung im Schlaf umzubringen. Den Astronauten Dave sperrt er bei einem Raumspaziergang aus. Dave gelingt es mit Tricks und Verstand, durch eine Notluke doch wieder ins Raumschiff zu gelangen und in den Maschinenraum vorzudringen. Dort schaltet er ein Rechenmodul nach dem anderen ab. HAL regrediert. Am Ende summt die Künstliche Intelligenz nur noch das Kinderlied »Daisy Bell«.

Die Szene stammt aus dem Roman „2001: Odyssee im Weltraum“ von Arthur C. Clarke. Weltberühmt wurde sie durch Verfilmung von Stanley Kubrick. In der deutschen Fassung singt der debile HAL übrigens »Hänschen« klein. Die Geschichte vom bösartigen Computer beruht auf einem alten Mythos. Der Mensch erschafft einen künstlichen Assistenten, der ihm dienen soll. Doch der Assistent übertrumpft seinen Schöpfer, indem er lernt zu lernen und schließlich eigene Interessen entwickelt und sich eigene Ziele setzt. Plötzlich geht der Golem um. Frankensteins Kreatur war als Werkzeug konzipiert, doch er wird zum Feind. In »Terminator« löst das Computersystem Skynet den Atomkrieg aus.

Nick Bostrom, Professor für Philosophie an der Oxford University, bietet in seinem Bestseller „Superintelligenz“ die aktualisierte Version des Frankenstein-Mythos. Das Buch ist allerdings keine Science Fiction, sondern ein mühsam zu lesendes Sachbuch. Bostrom beschreibt darin verschiedene Szenarien, wie künstlich intelligente Systeme sich verselbstständigen können, sobald sie die kognitiven Fähigkeiten von Menschen übertrumpfen. In der harmloseren Szenario-Variante dauert diese Verselbständigung Jahrzehnte oder Jahrhunderte. Das hätte den Vorteil, dass sich Menschen sozial und kulturell auf die neue intelligente Spezies einstellen könnten.

Für wahrscheinlicher hält der schwedische Denker jedoch eine „Intelligenzexplosion“. Sobald Maschinen schlauer sind als Menschen, könnten sie binnen Monaten, vielleicht sogar binnen Minuten immer intelligentere Versionen von sich selbst erschaffen. Rückkopplungsschleifen führten so zu exponentiellem Intelligenzwachstum, und das erste System, so spekuliert der Philosoph, hätte dann einen wahrscheinlich uneinholbaren Entwicklungsvorsprung. Der first mover advantage des Systems könnte dann einen sogenannten Singleton hervorbringen und damit „eine Weltordnung, auf der es auf globaler Ebene nur noch einen einzigen Entscheidungsträger gibt“.  Bostrom hält es für wahrscheinlich, dass sich ein superintelligentes System gegen menschliche Eingriffe zu schützen weiß. Im Unterschied zu Ray Kurzweil , dem Erfinder, Google-Forscher und Leiter der Singularity University, hofft Bostrom nicht darauf, dass der Singleton die menschlichen Dinge im Sinne der Menschen regelt und dies besser bewerkstelligt, als wir es selbst können. Menschliches Denken wäre der Superintelligenz vermutlich „so fremd wie uns Menschen heute das Denken der Kakerlaken“. Die Superintelligenz muss sich in diesem Szenario nicht einmal in bösartiger Absicht gegen den Menschen wenden, um seine Existenz zu gefährden. Es reichte bereits aus, wenn der Mensch der allmächtigen Maschine völlig egal wäre. Bostroms Horrorszenarien im Konjunktiv wirken mitunter leicht esoterisch, doch seine Kernbotschaft findet auch Resonanz bei Menschen, die sich mit intelligenten Maschinen auskennen.

 

Tony Prescott, ein Konstrukteur humanoider Roboter mit der Fähigkeit zur Selbstwahrnehmung, warnt vor slippery slopes der Technikentwicklung. Vermeintlich kleine Entwicklungsschritte könnten unabsehbare und unaufhaltsame Prozesse in Gang setzen. Microsoftgründer und Philanthrop Bill Gates empfiehlt Bostroms Buch als Lektüre, um ein Gefühl für das „KI-Kontroll-Problem“ zu entwickeln. Teslagründer Elon Musk wiederum hält KI für „gefährlicher als Nuklearwaffen“. Zusammen mit dem Leiter der Startups-Schmiede Y Combinator, Sam Altman, hat Musk die Non-Profit-Organisation OpenAI ins Leben gerufen, die, mit inzwischen einer Milliarde Dollar Kapital ausgestattet, den Auftrag hat, Künstliche Intelligenz auf Open-Source-Basis so zu verbreiten, dass sie der Menschheit nützt und nicht schadet.

Intelligenzexplosion und Transhumanismus

Viele KI-Forscher und Entwickler sehen in Bostroms Buch eine clevere Kombination aus Alarmismus und Selbstvermarktung heraus. Auch Ray Kurzweils These zur kurz bevorstehenden Singularität halten sie mehrheitlich für wissenschaftlich und technisch unseriös. Kurzweil geht davon aus, dass Computer 2045 den Menschen in nahezu sämtlichen Fähigkeiten übertreffen und die Weltgeschichte in die Phase des »Transhumanismus« übergeht. Dann wird Menschen das Verdienst zukommen, eine gottähnliche Intelligenz geschaffen zu haben. Auch wenn die Mehrheit Forschergemeinde grundsätzlich anerkennt, dass die Kontrolle von KI-Systemen eine Frage ist, die Wissenschaftler im Auge behalten müssen, so wehren sie sich sowohl gegen das Spiel mit Vernichtungsphantasien als auch das mit Heilsversprechen von technoreligiösem Charakter. Sie werfen Apokalyptikern und Euphorikern gleichermaßen vor, von den tatsächlichen Entwicklungsprozessen und Schwierigkeiten in der schwachen KI wenig zu verstehen und deshalb den alten Phantasien der starken KI immer wieder auf den Leim zu gehen. Es gibt gute Gründe für Gelassenheit, und zwar sehr viel mehr als für Panik.

Zurzeit ist kein Entwicklungspfad erkennbar, der eine Intelligenzexplosion wahrscheinlich macht. Hirnforscher weisen darauf hin, dass bei allen Fortschritten in der KI im Grundsatz nach wie vor das Bonmot von Pablo Picasso gilt: „Computer sind dumm, denn sie können keine Fragen stellen.“ Computer können Rechenregeln unfassbar schnell anwenden und damit bekannte Probleme lösen, aber unbekannte Probleme können sie nicht identifizieren. Sie erkennen Muster in gigantischen Datenmengen, doch im datenfreien Raum haben sie keine Orientierung. Eine wichtige Frage in diesem Zusammenhang lautet: Können Computer auch Regeln – und damit sich selbst – hinterfragen, wie es der Mensch mit kritischem Geist kann? Eine starke Künstliche Intelligenz müsste dieses Verfahren beherrschen, um sich immer wieder selbst neu zu erfinden, wie es der Mensch seit vielen Tausend Jahren macht. Und können Maschinen jemals wirklich Neues schaffen? Es gibt Ansätze zu künstlicher Kreativität, doch die Maschine würfelt dafür nur Vorschläge zu bekannten Problemen aus und fragt dann den Menschen, ob die Lösung gut ist. Auch hier ist nicht erkennbar, dass die aktuelle KI-Forschung eine Idee hätte, um Maschinen selbst in die Lage zu versetzen, wirklich innovativ zu sein, ohne dass der Mensch zuvor das Problem definiert.

Der nachdenkliche und gesellschaftlich interessierte KI-Großmeister Andrew Ng bringt seine Haltung zur außer Rand und Band geratenden Superintelligenz mit einem Seitenhieb auf Elon Musk und seine Pläne für eine Kolonie auf dem Mars auf den Punkt: „Ich fürchte mich davor, wie ich mich vor Überbevölkerung auf dem Mars fürchte.“ Und sicher ist sicher. Google’s KI-Einheit DeepMind arbeitet an Konzepten, wie in Zukunft eingebaute Ausschalter die Systeme davor schützen können, auf die slippery slope einer sich verselbstständigenden Informationstechnologie zu geraten. Niemand weiß, wozu Rechner in ein paar hundert Jahren fähig sind. Aber das Getöse im Konjunktiv über das Ende der menschlichen Spezies durch Superintelligenz könnte eine unerwünschte Nebenwirkung haben. Es lenkt von den sehr realen Gefahren ab, die die rasche Entwicklung schwacher KI mit sich bringt. Die wichtigsten Gefahren lassen sich unter drei Schlagworten zusammenfassen: Monopolisierung von Daten, Manipulation des Einzelnen, Missbrauch durch Regierungen.

Wettbewerb und Datenmonopolkapitalismus

Seit Karl Marx wissen wir: Im Kapitalismus dominiert die Tendenz zur Marktkonzentration. Im Industriezeitalter halfen Skaleneffekte großen Unternehmen, immer größer zu werden. Henry Ford hat es vorgemacht. Je mehr T-Modelle er produzierte, desto günstiger konnte er den einzelnen Wagen anbieten. Je niedriger der Preis bei steigender Qualität, desto schneller stieg der Marktanteil. Die erfolgreichen Unternehmen der Massenproduktion übernahmen gerne Konkurrenten, um durch Zusammenführung weitere Größenvorteile zu erzielen und gleichzeitig Wettbewerb zu vermindern. Regierungen verfügten im 20. Jahrhundert mit dem klassischen Kartellrecht allerdings über ein wirksames Werkzeug, Monopole zu verhindern – sofern sie es denn wollten.

Im Zeitalter von Wissen und Information, also seit dem Digitalisierungsschub in den 1990er Jahren, kamen die Netzwerkeffekte immer stärker ins Spiel. Netzwerkeffekte erhöhen den Nutzen (digitaler) Dienste, je mehr Kunden der Dienst hat. Besonders den Betreibern digitaler Plattformen gelang es, Marktanteile zu erobern, von denen die Stahlbarone, Automobilhersteller oder Anbieter von Fertigpizza nur träumen konnten. In den letzten zwanzig Jahren erschufen die Superstar-Firmen Microsoft, Apple, Amazon, Google, Facebook auf den digitalen Märkten der westlichen Welt Oligopolstrukturen, zum Teil sogar Quasimonopole. In Russland dominiert Yandex die meisten digitalen Märkte. In China stiegen Tencent, Baidu und Alibaba mit staatlicher Unterstützung zu De-facto-Monopolen auf. Nationales und europäisches Kartellrecht erweist sich als machtlos dagegen. Das ist bereits heute höchst problematisch, aber es wird brandgefährlich für den Wettbewerb, wenn lernende Maschinen mit Feedbackdaten immer stärker zur Wertschöpfung beitragen. Künstliche Intelligenz schaltet der Monopolisierung den Turbo zu, weil sich die Produkte und Dienstleistungen mit eingebauter KI mithilfe von Feedbackdaten selbst verbessern. Je öfter sie genutzt werden, je mehr Marktanteile sie erobern, desto schwerer wird ihr Vorsprung aufzuholen sein. Die Innovation ist gewissermaßen im Produkt oder Geschäftsprozess eingebaut, was im Umkehrschluss heißt: Innovative Newcomer werden gegen die Platzhirsche der KI-getriebenen Wirtschaft nur noch in Ausnahmefällen eine Chance haben.

Ohne Wettbewerb kann keine Marktwirtschaft langfristig erfolgreich sein. Sie schafft sich selbst ab. Viktor Mayer-Schönberger, Professor für Internet Governance and Regulation an der Oxford University, und ich haben in unserem Buch „Das Digital“ deshalb die Einführung einer progressiven Daten-Sharing-Pflicht für die Goliaths der Datenwirtschaft gefordert. Wenn digitale Unternehmen einen bestimmten Marktanteil überschreiten, müssen sie einen Teil ihrer (Feedback-)Daten mit ihren Wettbewerbern teilen – natürlich unter Beachtung des Datenschutzes und damit meist anonymisiert. Die SPD hat diese Idee in ihrer Initiative für eine „Daten-für-alle-Gesetz“ aufgegriffen. Auch in der neuen EU-Kommission unter Ursula von der Leyen gibt es Bestrebungen, die Zugangsrechte zu Daten offener zu Regeln.

Die Daten sind der Rohstoff der Künstlichen Intelligenz. Nur wenn wir den breiten Zugang zu diesem Rohstoff sichern, werden wir Wettbewerb der Unternehmen und Vielfalt der KI-Systeme langfristig ermöglichen. Das ist doppelt wichtig. Wettbewerb und Vielfalt sind nämlich auch die Voraussetzung dafür, dass wir der zweiten großen Gefahr im Zeitalter der schwachen KI begegnen: Der Manipulation oder Übervorteilung des Einzelnen mithilfe von künstlich intelligenten Systemen.

In wessen Interesse handelt der KI-Agent?

In wenigen Jahren werden wir viele Entscheidungen im Alltag an aus Daten lernende Assistenten delegieren. Die Systeme werden Toilettenpapier und Hauswein ordern, denn sie kennen unseren Verbrauch. KI wird unsere Geschäftsreise organisieren und uns anbieten, alles nach kurzem Kontrollblick mit einem Klick zu buchen. Den einsamen Herzen werden sie Partner vorschlagen, die mit deutlich höherer Wahrscheinlichkeit interessant für sie sind, als die Vorschläge heutiger Single-Börsen.  Doch wer garantiert uns, dass der Bot wirklich nach dem günstigsten Anbieter sucht? Vielleicht hat ein seltsamer Typ bei der Single-Börse ein Premiumpaket gebucht und wird deshalb algorithmisch bevorzugt. Und fährt das automatisierte Taxi uns an einem Elektronik-Shop vorbei, weil es weiß, dass wir uns für eine 3-D-Brille interessieren? Auf der elektronischen Werbewand erscheint womöglich just in dem Moment eine Werbung für 3-D-Brillen, wenn wir vorbeifahren und noch genug Zeit haben, zum Autopiloten zu sagen: „Bitte kurz bei Elektronik-Markt halten!“ Oder würde gar eine Gesundheitsapp falschen Alarm schlagen, um ein Medikament zu empfehlen, welches dann hoffentlich wenigstens nicht schädlich ist?

Zusammengefasst und etwas abstrakter formuliert stellt sich also die Frage: In wessen Interesse agiert der virtuelle Assistent? Heute werden die meisten Bots und digitalen Assistenten nicht von Unternehmen entwickelt und angeboten, die dem Kunden oder Nutzer neutral gegenüber stehen. In der Regel wollen sie im Auftrag ihrer Anbieter beraten und verkaufen. Das ist freilich legitim, solange dies transparent ist und wir nicht heimlich übervorteilt werden. In einer Welt mit vielen Assistenten werden wir aber schnell den Überblick verlieren, wer uns übervorteilen könnte. Denn wir werden gar nicht so genau wissen, wer uns eigentlich berät, wenn wir das Smartphone oder den intelligenten Lautsprecher auf dem Nachttisch um Rat fragen. Es wird uns oft genug egal sein, weil es so bequem ist, und wir werden für nanny tech, Kindermädchen-Technologie, die uns bevormundet, bisweilen sogar extra freiwillig bezahlen.

Jeder Einzelne wird lernen müssen, wo er die Grenze zu maschineller Bevormundung ziehen möchte. Die Verantwortung für technologische Selbstentmündigung tragen wir zunächst selbst. Staat und Markt werden allerdings sicherstellen müssen, dass Kunden eine große Auswahl an Bots haben, die dem Prinzip der Neutralität folgen wie heute anbieterunabhängige Preissuchmaschinen. Dazu wird es neue Gütesiegel geben müssen – und unlauter manipulative oder gar betrügerische Agenten müssen vom Staat abgeschaltet werden. Das setzt freilich voraus, dass der Staat ein Rechtsstaat ist und Künstliche Intelligenz nicht selbst nutzt, um seine Bürger zu betrügen.

Die digitale Diktatur

An der Schnittstelle von Staat und Bürger lauert die dritte und vielleicht die größte Gefahr: der staatliche Missbrauch von schwacher KI für Massenmanipulation, Überwachung und Unterdrückung. Das ist keine Science Fiction wie eine Superintelligenz, welche die Weltherrschaft übernimmt und den Menschen unterjocht. Die heute verfügbaren technischen Möglichkeiten für den perfekten Überwachungsstaat lesen sich eher wie ein Medley aus allen politischen Dystopie-Romanen seit George Orwells »1984«.

Der Staat kombiniert Überwachungskameras mit automatischer Gesichtserkennung und weiß, wer bei rot über die Ampel geht. Dank autonomer Drohne kann die Überwachungskamera direkt folgen. Stimmerkennung bei Lauschangriffen identifiziert nicht nur, wer spricht. Das System kann auch noch sagen, in welchem emotionalen Zustand sich die sprechende Person befindet. Aus Fotos kann Künstliche Intelligenz mit hoher Trefferquote die sexuelle Präferenz herauslesen. Automatische Textanalyse in Sozialen Medien und Chats identifiziert in Echtzeit, wo gerade subersiv geredet und gedacht wird. GPS- und Gesundheitsdaten aus Smartphones, Zahlungsverkehr per App und Kredithistorie, digitalisierte Personalakten und polizeiliche Führungszeugnisse in Echtzeit liefern alle nötigen Informationen, um die Zuverlässigkeit eines Bürgers zu errechnen – und natürlich jede Menge Steilvorlagen für effiziente Geheimpolizeiarbeit. Über Social Bots zur Verbreitung personalisierter politischer Botschaften verfügt der digitale Allmachtsstaat natürlich auch.

Tyrannische Herrschaft braucht keine digitalen Werkzeuge. Das haben alle Unrechtsregime der Weltgeschichte eindrucksvoll unter Beweis gestellt. Doch im Zeitalter der intelligenten Maschinen stellt sich die Frage der Unterdrückung neu. Sie könnte viel subtiler daherkommen als in braunen Uniformen mit schwarz-weiß-roter Armbinde. Und noch viel umfassender informiert sein, als die Herren in grauen Windjacken und Wartburgs in der DDR. Daten weisen den Weg, wie der Staat den Bürger mithilfe verhaltenspsychologischer Tricks hin zu erwünschtem Verhalten nudgen kann. 

Chinas Behörden sind beim Aufbau eines sozialen Scoring-Modells bereits weit fortgeschritten, bei dem das Wohlverhalten von Bürgern mit Punkten belohnt wird. Bei Fehlverhalten gibt es Punktabzug: privat an der roten Ampel, beruflich am Schreibtisch oder politisch am Smartphone mit einem falschen Post auf WeChat. Die staatlichen Sittenwächter haben dabei Zugriff auf alle (sic) Daten auf den Servern der privaten Unternehmen. Eine  gute Bewertung – ausgedrückt in einem Scoring-Wert – hilft bei Beförderung und Kreditantrag bei einer Bank. Einem Bräutigam in spe hilft eine gute Punktzahl, wenn er beim künftigen Schwiegervater um die Hand der einzigen Tochter anhält. Ein schlechter Score führt zu intensiverer Beobachtung durch die Überwachungsbehörden – und vielleicht ins Gefängnis oder Arbeitslager. 

Verblüffend aus westlicher Sicht ist, dass viele Chinesen das System gar nicht so schlecht finden, besonders wenn sie sich für anständige, den Regeln des verordneten  Staatsverständnisses folgende Bürger halten und sich selbst Vorteile versprechen. In westlichen Demokratien mögen wir das als besonderes Alarmzeichen sehen, was passieren könnte, wenn bei uns radikale Parteien mit autoritärem Staatsverständnis an die Macht kämen und die KI-Werkzeuge für Massenmanipulation in die Hand bekommen. 

Eine neue Maschinenethik

Bis auf weiteres müssen wir uns nicht vor Künstlicher Intelligenz fürchten, sondern vor Menschen, die sie missbrauchen. Es wurde in den letzten Jahren viel über eine neue Maschinenethik diskutiert und über die Frage, ob man und wenn ja wie Maschinen ethisch korrektes Verhalten einprogrammieren könne. Aufgehängt waren diese Debatten oft an konstruierten Dilemma-Situationen nach dem Prinzip: Ein autonomes Fahrzeug steuert auf eine Mutter mit Baby im Kinderwagen und eine Gruppe mit fünf Senioren zu. Es muss entscheiden, wen es über den Haufen fährt. Mutter und Baby, die zusammen voraussichtlich noch 150 Jahre leben oder die fünf Senioren mit einer kollektiven Lebenserwartung von 50 Jahren. Solche Gedankenspiele sind notwendig. Die Würde des Menschen ist unantastbar. Im Krieg darf ein General die Abwägung treffen, fünf Soldaten zu opfern, wenn er zehn dafür retten kann. Im zivilen Leben darf dies in der Theorie niemand. In der Praxis macht es ein Autofahrer, der bei überhöhter Geschwindigkeit und keiner Möglichkeit zu bremsen, sein Fahrzeug lieber in eine Menschgruppe steuert, als gegen einen Betonpfosten.  

Die Automatisierung von Entscheidungen ist in vielen Kontexten natürlich eine ethische Herausforderung, aber zugleich ein moralischer Imperativ. Wenn wir mit autonomen Fahrzeugen die Zahl der Verkehrstoten in zehn Jahren halbieren können, müssen wir das tun. Wenn wir dank maschineller Mustererkennung von Zellen vielen Krebspatienten das Leben retten können, dürfen wir diesen Fortschritt nicht von einer Ärztelobby verzögern lassen, die Angst um ihre Honorare hat. Und wenn KI-Systeme in Südamerika Kinder aus armen Verhältnissen das Rechnen lehren, dürfen wir nicht darüber lamentieren, dass es doch schöner wäre, wenn es dort mehr menschliche Mathematiklehrer gäbe.

Im Verhältnis von Mensch und Maschine ändert sich durch Künstliche Intelligenz im Grundsatz weniger, als es uns der ein oder andere KI-Entwickler weismachen möchte. Joseph Weizenbaum, der deutsch-amerikanische Erfinder des Chatprogramms ELIZA, schrieb 1976 den Weltbestseller „Die Macht der Computer und die Ohnmacht der Vernunft“. Das Buch war ein Appell wider den mechanistischen Maschinenglauben seiner Epoche. Es verdient eine Neuauflage, in einer Zeit, in der die Vorstellung einer technischen Vorherbestimmung der Menschheit im Silicon Valley wieder in Mode kommt.

Wir können Entscheidungen an Maschinen in vielen einzelnen Bereichen delegieren. KI-Systeme, gut programmiert und mit den richtigen Daten gefüttert, sind nützliche Fachidioten. Ihnen fehlt aber die Fähigkeit, das große Ganze zu sehen. Die wichtigen Entscheidungen, darunter jene über das Ausmaß der maschinellen Assistenz, bleiben menschliche. Oder allgemeiner formuliert: Künstliche Intelligenz kann uns das Denken nicht abnehmen.

Die Geschichte der Menschheit ist die Summe menschlicher Entscheidungen. Wir entscheiden normativ, was wir wollen. Das wird so bleiben. Das positive Weltbild für die nächste Entwicklungsstufe des maschinen-unterstützten Informationszeitalters müssen wir dabei nicht einmal neu erfinden. „Es ist ganz schlicht die Rückbesinnung auf die humanistischen Werte“, sagt der New Yorker Risikokapitalist, Buchautor und TED-Speaker Albert Wenger. Die lassen sich seiner Ansicht nach auf folgende Formel bringen: „Die Fähigkeit, Wissen zu schaffen, macht uns Menschen einzigartig. Wissen entsteht in einem kritischen Prozess. Alle Menschen können und sollen an diesem Prozess teilhaben.“ Die digitale Revolution ermöglicht uns zum ersten Mal in der Menschheitsgeschichte, dieses humanistische Ideal in die Praxis umzusetzen. Indem wir Künstliche Intelligenz intelligent und zum Wohl des Menschen einsetzen.

Thomas Ramge
Bearbeitung aus: Mensch und Maschine. Wie künstliche Intelligenz und Roboter unser Leben verändern
Veröffentlicht im August 2020

Bildnachweis

  • Mann steht vor künstlicher Intelligenz: Adobe Stock # 250232821 ©lassedesignen

  • Cover Thomas Ramge, Mensch und Maschine

  • Abstract technology binary code background.Digital binary data and secure data concept.Matrix background with number 0 and 1. Adobe stock # 305967697   © gaihong

  • Überwachung: Adobe stock # 10381149 © Werner Schwehm

Übernehmen Künstliche Intelligenz und Roboter die Macht?

Thomas Ramges Skepsis gegenüber den verbreiteten Zukunftsszenarien

In seinem Leitartikel zu Superintelligenz und Singularität resümiert Thomas Ramge, dass wir uns bis auf weiteres nicht vor Künstlicher Intelligenz fürchten müssen, sondern vor Menschen, die sie missbrauchen. Teilen Sie diese Ansicht oder wie sehen Sie die Zukunft der Künstlichen Intelligenz?

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben