Entspannen Sie sich, ChatGPT ist nicht wirklich eine künstliche Intelligenz

Alan Turing, eine der wegweisenden Persönlichkeiten der Informatik, war gegen Ende seines tragisch kurzen Lebens von künstlicher Intelligenz besessen. So sehr, dass er einen inoffiziellen Test entwickelt hat, wann ein Computer als wirklich intelligent wie ein Mensch bezeichnet werden kann, den wir heute Turing-Test nennen.

Der Test ist ganz einfach. Bitten Sie jemanden, mit einem Computer zu kommunizieren, und wenn Sie nicht sagen können, dass Sie mit einem Computer sprechen, d.h. Sie sind nicht von einem Menschen zum anderen zu unterscheiden, dann hat der Computer die Ebene der menschlichen Intelligenz erreicht.

Nun, ChatGPT scheint diesen Test mit Bravour zu bestehen (wird in einem neuen Tab geöffnet). Tatsächlich geht es nicht nur darum, den Turing-Test zu bestehen, sondern darum, die Prüfungen der medizinischen Fakultät und der juristischen Fakultät zu bestehen und zumindest für jedes Kind in Amerika Hausaufgaben zu machen.

Und wenn Sie nicht wissen, was ChatGPT ist, kann es überwältigend erscheinen. So sehr, dass die Leute anfangen, auf ChatGPT und die generative KI im Allgemeinen menschliche Qualitäten und Eigenschaften zu projizieren, die sie eigentlich nicht hat.

Normalerweise wäre es nicht so schlimm. Die Leute missverstehen ständig alle möglichen Dinge, aber da sich ChatGPT-ähnliche KIs erst in den nächsten Monaten verbreiten werden, werden die Leute in sie Kräfte investieren, die sie nicht wirklich haben, und diese Annahme wird missbraucht, sie können viel mehr sein schädlich als hilfreich.

Was ist antagonistische generative KI?

Die grundlegende Technologie hinter ChatGPT, Stable Diffusion und all den anderen KIs, die Bilder, Quiz, Musik usw. produzieren. Es wird als Generative Adversarial Network (GAN) bezeichnet. Ich werde hier nicht zu sehr ins Detail gehen, aber im Wesentlichen besteht ein GAN aus zwei Softwaresystemen, die zusammenarbeiten. Einer erzeugt eine Ausgabe, der Generator, und der andere bestimmt, ob diese Daten gültig sind oder nicht, der Klassifikator.

Der Generator und der Klassifikator in einem GAN bewegen sich Wort für Wort oder Pixel für Pixel und kämpfen im Wesentlichen darum, einen Konsens herzustellen, bevor sie zum nächsten Segment übergehen. Nach und nach (buchstäblich) produziert ein GAN Ergebnisse, die sehr genau nachahmen, was ein Mensch kreativ tun kann.

Der Generator verlässt sich auf eine unverhältnismäßig große Menge an Eingabedaten, die er „trainiert“, um seine Ausgaben zu erzeugen, und der Klassifikator verlässt sich auf seine eigenen Eingaben, um zu bestimmen, ob das, was der Generator erzeugt hat, sinnvoll ist. Auf diese Weise „erschafft“ die menschliche Intelligenz möglicherweise neue Dinge (Neurologen versuchen immer noch, dies herauszufinden), aber in vielerlei Hinsicht kann man den Baum an den Früchten erkennen, die er trägt, daher muss er die Ebene der menschlichen Intelligenz erreichen. Rechts? Gut...

ChatGPT besteht den Turing-Test, aber spielt es eine Rolle?

Ein Porträt von Alan Turing

(Bildnachweis: Wikipedia)

Als Turing seinen Test zur künstlichen Intelligenz entwickelte, bezog er sich auf ein Gespräch mit einem rationalen Schauspieler, bei dem man nicht erkennen konnte, dass man mit einer Maschine sprach. Implizit gibt es die Idee, dass die Maschine verstanden hat, was Sie gesagt haben. Nicht das Erkennen von Schlüsselwörtern und das Generieren einer probabilistischen Antwort auf eine lange Reihe von Schlüsselwörtern, sondern das Verstehen.

Für Turing war die Konversation mit einer Maschine bis zu einem Punkt, an dem sie nicht mehr von menschlicher Reflexionsintelligenz zu unterscheiden war, denn das Erstellen einer riesigen Sammlung von Wörtern mit unterschiedlichen Gewichtungen, die jedem Wort auf der Grundlage der Wörter, die ihnen in einem Satz vorausgingen, zugewiesen wurden, war nicht etwas, das jeder tat Ich hätte es tun können. damals entworfen.

Die Art der Berechnung, die für diese Art von Berechnung erforderlich ist, in Maschinen, die einen ganzen Tag brauchten, um Berechnungen durchzuführen, die das billigste Smartphone in Nanosekunden ausführen kann, wäre so unlösbar erschienen wie das Zählen der Anzahl der Atome im Universum. Daran hätte man damals noch gar nicht gedacht.

Leider lebte Turing nicht lange genug, um den Aufstieg der Datenwissenschaft und Chatbots oder sogar der integrierten Schaltung, die moderne Computer antreibt, vorherzusehen. Schon vor ChatGPT waren Chatbots auf dem besten Weg, den allgemein anerkannten Turing-Test zu bestehen, wie Ihnen jeder sagen kann, der einen Chatbot verwendet, um mit seiner Bank zu sprechen. Aber Turing hätte einen Chatbot nicht als künstlichen Verstand gesehen, der dem eines Menschen ebenbürtig wäre.

Ein Chatbot ist ein einzigartiges Tool, keine Intelligenz. Intelligenz auf menschlicher Ebene erfordert die Fähigkeit, über die Parameter hinauszugehen, die ihre Entwickler freiwillig festgelegt haben. ChatGPT ist übernatürlich geschickt darin, menschliche Sprachmuster zu imitieren, aber ein Papagei ist es auch, und niemand kann sagen, dass ein Papagei die Bedeutung der Wörter versteht, die er wiederholt.

Dass ChatGPT den Turing-Test besteht, bedeutet nicht, dass ChatGPT so schlau wie ein Mensch ist. Dies ist eindeutig nicht der Fall. All dies bedeutet, dass der Turing-Test nicht der gültige Test für künstliche Intelligenz ist, für den wir gedacht haben.

ChatGPT kann nichts lernen, es kann nur lernen, was Menschen ihm sagen, dass es lernen soll

Ein Tweet des Senators von Connecticut, Chris Murphy, der fälschlicherweise behauptet, ChatGPT habe sich Chemie selbst beigebracht

US-Senator Chris Murphy liegt falsch. ChatGPT selbst kann nichts lernen. (Bildnachweis: @ChrisMurphyCT/Twitter)

Diese Woche sagte der US-Senator von Connecticut, Chris Murphy, auf Twitter (öffnet in neuem Tab), dass ChatGPT sich selbst die Chemie beibrachte, ohne dass seine Entwickler danach fragten. Sofern Senator Murphy nicht etwas weiß, das nicht öffentlich gemacht wurde, kann ChatGPT, wie wir wissen, dies nicht tun.

Um es klar zu sagen, wenn ChatGPT oder irgendein anderes GAN aus eigener Initiative etwas gesucht und gelernt hat, dann sind wir wirklich in die posthumane Welt der künstlichen allgemeinen Intelligenz eingetreten, da das Zeigen unabhängiger Initiative sicherlich ein Zeichen für wahres menschliches Niveau wäre. Intelligenz.

Aber wenn ein Entwickler einem Bot sagt, er solle etwas Neues lernen, und der Bot tut, was ihm gesagt wird, macht ihn das nicht schlau.

Das zu tun, was einem gesagt wird, und etwas aus freien Stücken zu tun, mag einem außenstehenden Beobachter ähnlich erscheinen, aber es sind zwei sehr unterschiedliche Dinge. Menschen verstehen das intuitiv, aber ChatGPT kann uns diesen Unterschied nur erklären, wenn es mit philosophischen Texten gefüttert wurde, die sich mit dem Thema Willensfreiheit befassen. Wer sich nie von Plato, Aristoteles oder Nietzsche ernährt hat, kommt nicht allein auf die Idee des freien Willens. Sie werden nicht einmal wissen, dass so etwas existiert, wenn Ihnen nicht gesagt wird, dass es existiert.

Es gibt Gründe, sich über ChatGPT Sorgen zu machen, aber „schlau“ zu werden gehört nicht dazu.

Ich habe eine Weile über die Gefahren von ChatGPT gesprochen, hauptsächlich, dass es nicht verstehen kann, was Sie sagen, und daher verleumderische, plagiierte und völlig falsche Informationen produzieren kann.

Es gibt ein größeres Problem damit, dass ChatGPT als Ersatz für menschliche Arbeiter angesehen wird, denn es scheint sicherlich so, als ob ChatGPT (und Stable Diffusion und andere generative KIs) das tun können, was Menschen schneller, einfacher und für viel weniger als die menschliche Arbeit tun können. Das ist eine Diskussion für ein anderes Mal, aber die sozialen Folgen von ChatGPT sind hier wahrscheinlich die größte Gefahr, nicht dass wir SkyNet in irgendeiner Weise aufbauen.

ChatGPT ist im Wesentlichen ein System verbundener digitaler Knoten, denen jeweils Mittelwerte zugewiesen sind, die basierend auf einer Eingabe eine logische Ausgabe erzeugen. Es ist kein Gedanke, es ist buchstäblich nur Mathematik, die Menschen in eine Maschine programmiert haben. Es mag mächtig klingen, aber die menschlichen Köpfe, die es erschaffen haben, sind hier die wahre Intelligenz, und das darf nicht verwechselt werden.