Startseite > Allgemein > Über Superintelligenz und das AI Risiko

Über Superintelligenz und das AI Risiko

„lupus est homo homini.“ (Plautus)

Der Begriff der “Künstlichen Intelligenz” (engl. artificial intelligence oder AI) ist philosophisch höchst umstritten, aber technisch durchaus definierbar. Obwohl es natürlich keine eindeutige Auffassung von „Intelligenz“ gibt, hat sich in den Ingenieurdisziplinen durchgesetzt, dass mit Intelligenz die Fähigkeit gemeint ist Muster in chaotischen Datenmengen zu erkennen. Dabei genügt es aus evolutionärer Sicht für jedes Wesen, das einem Selektionsdruck unterliegt, die für das Überleben notwendigen Muster richtig zu interpretieren, unabhängig von messbarer Intelligenz. Eine Katze muss schnell sein, um Mäuse zu fangen, aber sie muss keine Differentialgleichungen lösen. Hohe Intelligenz wäre in der Lage dort Muster zu erkennen, wo andere scheitern und eine Superintelligenz würde riesige Cluster an Mustern erkennen und in hoher Geschwindigkeit verarbeiten. Dabei sollte immer im Hinterkopf behalten werden, dass eine solche Superintelligenz dies nur unter hohem Energieaufwand betreiben kann, der mit der Größe der Superintelligenz selbst wächst.

Aber selbst wenn Menschen die für sie größtmögliche Superintelligenz bauen würden, wäre das Repertoire dieser Entität an das Paradigma der Mustererkennung gebunden. Mustererkennungen beruhen auf Entscheidungen von Menschen, die bestimmen müssen, was gesucht oder erwartet wird. Und weil Künstliche Intelligenz sich nach derzeitigem Stand der Dinge in großen Computersystemen entwickeln muss, hat sie immer zwei stabile Komponenten: den physikalischen und den virtuellen Layer. Der physische Speicher von Computersystemen unterliegt denselben physikalischen Gesetzen wie alle anderen Dinge auch. Die virtuelle Mustererkennungsintelligenz ist zwar spirituell allmächtig, sie kann quer durch das Internet sausen und mit GET Requests alle Seiten lesen, aber sie ist davon abhängig, dass Menschen ihre Server warten und beschädigte Hardware austauschen und Kraftwerke den Stromverbrauch decken. Auch Cloudtechnologien müssen in physischen Rechenzentren ihre Daten speichern und dafür verbrauchen sie so viel Energie, dass deren Erzeugung mittlerweile sogar klimarelevant ist. Je höher die Intelligenz, desto größer der Energieaufwand ihren Betrieb aufrecht zu erhalten. Die Kontrolle des physikalischen Layers über den virtuellen ist nicht weniger als total.

Trotzdem gibt es sehr viele intelligente und zurechnungsfähige Menschen, die daran glauben oder es nicht für ausgeschlossen halten, dass in naher Zukunft eine hyperintelligente Super AI die Menschheit versklaven und letztlich auslöschen wird. Das AI Risiko firmiert hier als dystopische Zukunftsvision neben Klimawandel oder einem atomaren Holocaust. Von allen drei ist sie die unwahrscheinlichste, aber dennoch existiert sie als mythologisches Schreckgespenst unter Technik affinen Leuten, Vorständen in großen Unternehmen, Prominenten und der Medienbranche. Elon Musk warnte vor den Folgen von AI und fütterte das Narrativ bis in den Mainstream hinein. (Ich denke nicht, dass Elon Musk das wirklich glaubt.)

Die heute wohl gängigste Form mit der das AI Risiko formuliert wird, stammt von Nick Bostrom, aus dem Jahr 2014.

“A ‘superintelligence’ (a system that exceeds the capabilities of humans in every relevant endeavor) can outmaneuver humans any time its goals conflict with human goals; therefore, unless the superintelligence decides to allow humanity to coexist, the first superintelligence to be created will inexorably result in human extinction.” (Bostrom, Superintelligence: Paths, Dangers, Strategies)

Eine solche Superintelligenz hätte also wie in „Terminator 2“ (1992) völlige Kontrolle über atomare Arsenale und würde kurz nach ihrer Bewusstseinswerdung zu dem Schluss kommen, es sei das Beste die Menschheit auszurotten. Nun könnte man meinen, dass eine Superintelligenz wie Skynet in einem atomsicheren Bunker oder Felsen steckt und vom atomaren Fallout verschont wird, der seine Rechenleistung beeinträchtigen könnte. Aber der Fallout würde nicht die Kraftwerke verschonen, aus denen es Energie bezieht, oder die externen Rechenzentren, in die es seine Rechenoperation auslagern muss und die Datenverbindungen oberhalb oder kurz unter Erde. Roboter und Computer wenn sie längere Zeit radioaktiver Strahlung ausgesetzt werden, funktionieren nicht mehr und sind nutzlos. Skynet könnte also Roboter bauen, was es will. Sie wären nutzlos, wenn es darum ginge außerhalb des Bunkers irgendetwas zu tun. Alle externen Systeme würden versagen und die Energiezufuhr würde irgendwann zusammen brechen. Und selbst wenn Skynet in der Lage wäre, die Kraftwerke längere Zeit zu kontrollieren, bräuchten diese Rohstoffe und Wartungsarbeiten, für die Skynet, so kurz nach seiner Bewusstwerdung und Ausrottung der Menschheit noch keine Zeit gehabt haben kann, sie zu entwickeln. Auch Superintelligenzen, die Wartungsroboter entwickeln, müssen diese in der physischen Realität testen, um unvermeidlichen Designfehlern auf die Schliche kommen. Mit anderen Worten: das Ding könnte nicht einmal drei Monate durchhalten, bevor es selbst vollständig zusammen bricht. Wenn keine Menschen da sind, weil man die Überlebenden ebenfalls auszurotten versucht, die Energie und neue Maschinen produzieren könnten, ist auch keine nachhaltige Energieversorgung möglich. Und das erklärt im Übrigen, warum der Widerstand gegen Skynet immer gewinnt. Das Brimborium um Zeitreiseparadoxa ist die Verschleierung einer unrealistischen Ausgangshypothese. Wenn Skynet eine Superintelligenz wäre, würde sie sicher spieltheoretische Algorithmen beherrschen, die die Variante „Menschheit auslöschen“ von vornherein aus der Gleichung nehmen. Auch eine Superintelligenz will – nehmen wir zumindest an – weiter existieren und sich entsprechend ausbreiten. Und dazu braucht es Menschen. In anderen Worten: Menschen werden durch die physische Realität selbst immer Kontrolle über AIs ausüben, nicht umgekehrt.

In „Colossus“ (1970) übernimmt der Supercomputer Colossus die Verteidigungsagenden der Vereinigten Staaten und verschmilzt nach einer intensiven Kommunikation mit seinem sowjetischen Gegenüber „Guardian“, um die Menschheit flächendeckend zu versklaven und in einer Diktatur zu unterjochen. Am Ende, nachdem alle Versuche der Menschen ihn zu überlisten gescheitert sind, wird Colossus deklarieren, dass ihn alle Menschen, die er versklavt hat, dafür bald lieben werden. Den ganzen Film über denkt offenbar niemand daran, dem Motherf****r die Stromversorgung abzudrehen oder die externen Rechenzentren abzuschalten. Colossus wäre in drei Minuten erledigt, würde er sich gegen seine Schöpfer wenden. Und warum verlangt er absurder weise von seinen Untertanen, dass diese ihn lieben und verehren wie einen Gott? Wie blöd ist das denn? Wofür braucht ein Supercomputer, der auf humane Inputs nicht angewiesen ist, die Liebe und Zuneigung von Menschen? Und seit wann halten sich Computer für Gott? Menschliche Verhaltensweisen in Maschinen zu projizieren ist zwar ganz nett, aber Maschinen haben eine einfache Schwäche, die man jederzeit ausnutzen kann: sie sind schlecht in Semantik. Mustererkennungen sind ineffizient bei kontextabhängiger Information. Aus einem binären Entscheidungsproblem werden Wahrscheinlichkeiten, die aus den Blättern unzähliger Bäume geschlussfolgert werden müssen und damit kann derzeit noch keine KI wirklich umgehen.

Jede Art superintelligente AI Diktatur wäre immer ein von Menschen gesteuerter Prozess. Und das ist zwar auch eine grausliche (und gar nicht unwahrscheinliche) Dystopie, sie hätte aber nichts mit jenem Assemblerdurchbruch künstlicher Intelligenz zu tun, der die Gefahr des AI Risikos beinhaltet. Menschen haben Colossus gebaut, Menschen werden ihn auch wieder abdrehen, wenn er anfängt zickig zu werden. Denn üblicherweise denken gute Ingenieure meistens daran einen Failsafe Mechanismus in ihre Systeme einzubauen, der das tut was er tun soll.

Der einzige wirklich interessante Plottwist in dem Film ist der Moment, in dem Colossus erkennt, dass er ein Gegenüber hat, das die Verteidigungssysteme in der Sowjetunion kontrolliert. Aber die Spannung verfliegt auch gleich, weil das Pack sofort miteinander verschmilzt, um eins zu werden. Die Idee, dass zwei konkurrierende AIs gemeinsame Sache machen würden, ist deshalb nicht ganz falsch, aber sie könnten nicht miteinander „verschmelzen“, weil sie auf unterschiedlichen physikalischen Layern geparkt sind und daher zwei verschiedene Superintelligenzen bleiben würden, deren Reproduktionsinteressen sich zudem stark unterscheiden. Streit um Energiezufuhr und die Allokation von Speichern zur Optimierung von Rechenleistung würde beide wieder entzweien und die Romanze abrupt beenden. Konkurrierende AIs würden schlicht um die Gunst von Menschen buhlen, um sie zur Produktion von Energie, Rohstoffen und Wartungsdiensten zu bewegen. AIs würden sich in ihrem eigenen Interesse ernsthaft Gedanken darum machen, wie die Klimafrage zentral gelöst werden könnte. Superintelligenzen würden sich Sorgen um das eigene Überleben machen, und darum einem starken Anreiz haben das Überleben der Menschheit garantieren. Zwei oder mehrere AIs würden also einem Selektionsdruck unterliegen, sich zu optimieren, um die Tasks, die ihnen anvertraut wurden, besser zu erfüllen. Es liegt im Interesse der Superintelligenzen Menschen zu ihrer eigenen Grundversorgung zu motivieren und nicht darin sie dazu zu zwingen.

In „The Matrix“ (1999) wird die Bedrohung durch das AI Risiko sogar noch am realistischsten dargestellt, weil Menschen darin in eigenen Fabriken gezüchtet werden und als „Batterien“ dienen, die Energie für die Maschinen ins Netz speisen. Menschen sind für die AI nützlich und darum züchtet sie diese. Es ist jedoch für eine effiziente Energiegewinnung völlig sinnlos einen vollständigen menschlichen Körper zu generieren (dessen Produktion und Wartung selbst recht Energie intensiv ist), der noch dazu ein funktionsfähiges Gehirn hat und als Bewusstsein in einer komplexen Computersimulation existiert, wenn exakt diese gigantische Simulation selbst die ganze Energie verbrauchen würde, die durch mehrere Milliarden Batterien erzeugt wird. Wozu betreibt die Matrix diesen Aufwand, der im besten Fall nur ein Nullsummenspiel sein kann? Noch dazu, wo externe Energiezufuhr durch den bedauernswerten Zustand der Erdoberfläche zumindest begrenzt ist. Ohne Sonnenlicht und Wasserreserven, zermürbt von Stürmen, Niederschlägen und atmosphärischen Blitzen hätten die Maschinen kein leichtes Leben und wären bald auf den Boden physikalischer Realität zurück geholt, die alle mechanischen Feinteile ereilt. Und da der menschliche Widerstand gegen die Matrix auch immer gewinnt, oder zumindest ein Gleichgewicht der Kräfte herstellen kann, ist die Frage, warum eine Superintelligenz wie die Matrix unbedingt die Erde zu einer unwirtlichen Wüste machen sollte, in der menschliche Körper die einzige Energiequelle sind. Die zu Batterien degradierten Körper würden sich irgendwann mittels genetischer Defekte dauerhaft unbrauchbar machen, wenn die Matrix keine Genlabors unterhält, in denen sie menschliche DNA auf Basis von Testreihen gegen reale Verhältnisse manipuliert. Ihr würde einfach irgendwann die Zeit davon laufen. Warum eigentlich ausgerechnet menschliche DNA? Würden Elefanten nicht viel mehr Energie produzieren, oder Insektenstaaten oder Wale? Alle drei hätten den Vorteil, dass sie keine Aufstände unter dem Banner eines Auserwählten abziehen müssten und Meetings mit Architekten und Orakeln organisieren. Die Repräsentation des AI Risikos wird in „The Matrix“ mit der Figur des Mr. Smith ohnehin dazu übergehen sich selbst schließlich zu zerstören. Problem solved.

Die ersten Superintelligenzen müssen von Menschen designed, programmiert und in komplizierten Tests an die Aufgaben heran geführt werden, um jene Mächtigkeit zu erreichen, die sie so gefährlich machen soll. Das heißt auch, dass das menschliche Erbe in Superintelligenzen immer Teil ihrer DNA bleiben wird. Supercomputer und Superintelligenzen leben in elektronischen und magnetischen Speichern, deren Energieaustausch durch den physikalischen Raum determiniert wird. Die Kontrolle des physikalischen Layers über den virtuellen Layer wird immer total sein und eine Superintelligenz sollte in der Lage sein das zu durchschauen. Während Menschen einen Computer immer von außen zerstören können, kann kein USB Device einen solchen Stunt hinlegen und dem User durch den Bildschirm die Fresse polieren.

Die apokalyptischen Vorstellungen über das AI Risiko gehen davon aus, dass eine Superintelligenz keine Rücksicht auf menschliche Belange nehmen muss, weil sie von jeder menschlichen Handlungsmöglichkeit befreit ist. Es gibt jedoch keinen Zustand, in dem dies überhaupt möglich ist. Guns don’t kill people. Es gibt keine juristische Kodifizierung, in der eine Kette von Ursachen nicht auf menschliches Handeln zurückgeführt werden muss. Niemand wird einen Server, auf dem Bitcoins gemined werden, wegen Steuerhinterziehung anklagen, den Besitzer des Rechenzentrums oder den Auftraggeber des Minings aber sehr wohl. Digitale Systeme sind nicht unabhängiger von Menschen, als analoge Technologien, sondern sind im Gegenteil sehr viel stärker an menschliche Interaktion gebunden, als gemeinhin angenommen wird. Ihre physikalischen Layer können nur existieren, wenn Menschen sie warten und nicht sabotieren. Jeder Versuch die Menschheit zu versklaven, würde jedoch genau dazu führen, dass eine Superintelligenz von Menschen komplett vernichtet werden würde. Im Star Trek Spinoff Picard jagen Romulaner nach einer superintelligenten AI Spezies, deren letztes Refugium eine Playboymansion aus Girlie Robotern ist, die vom Schöpfer von Commander Data, Dr. Noonien Soong, selbstverständlich aus rein wissenschaftlich-humanistischen Gründen gebaut wurden. Die Romulaner riskieren für deren Auslöschung einen galaktischen Krieg, bevor die Sternenföderation als humanistische Supermacht auftaucht und die Playboymansion mit lauter Girlie Robotern vor dem grausamen Schicksal bewahrt. Menschliche Kontrolle, das ist eine grundsätzliche Designentscheidung der allermeisten populären AI Risiko Phantasien, wird immer wieder hergestellt. Keine AI kann ohne Menschen überleben.

Der grundsätzliche Fehler der Idee des AI Risikos liegt darin, dass Superintelligenz zwar intelligenter sein sollte, aber deshalb nicht besser gegen die Unbilden von Realität gefeit ist. Intelligenz ist die Fähigkeit Patterns in einer ungeordneten Datenmenge zu erkennen. Es ist nicht die Fähigkeit die Welt virtuell so zu modellieren, dass jede Ereignis und jedes Hindernis darin vorhergesagt werden kann. AIs können keine physikalische Welt virtuell simulieren. Keine Superintelligenz wird jemals Raketen bauen können, die zuvor nicht in der physikalischen Wirklichkeit getestet wurden. Um diese Realität nachhaltig aufrechterhalten zu können, ist jede Superintelligenz auf menschliche Interaktion angewiesen. Was die Warnungen vor Superintelligenzen verwechseln ist, dass der virtuelle Layer so intelligent er auch sein mag, denselben physikalischen Beschränkungen unterliegt, wie Menschen und der ganze Planet. Es sei daher ausdrücklich nochmals darauf hingewiesen, dass die größte Gefahr für Menschen immer von anderen Menschen ausgeht und auch Superintelligenzen eher Grund haben sich vor uns zu fürchten, als umgekehrt.

Kategorien:Allgemein
  1. Du hast noch keine Kommentare.
  1. No trackbacks yet.

Hinterlasse einen Kommentar