ChatGPT hat seine eigene Sprache entwickelt, um Konversationen zu erweitern, und es wird seltsam


Es ist (noch) nicht Skynet, aber ChatGPT hat gerade eine eigene Sprache entwickelt, um Ihre Konversationen auf das 8K-Limit auszudehnen. In einer seltsameren Wendung der Ereignisse entdeckten ChatGPT-Benutzer, dass GPT-4 eine lange Konversation komprimieren und eine Art Komprimierungssprache erstellen kann, die Sie später als neue Nachricht verwenden können.

Wenn sie als neue Chat-Benachrichtigung eingegeben wird, stellt sie im Wesentlichen genau dieselbe Konversation wieder her. Tatsächlich können Sie damit nicht nur dort weitermachen, wo Sie aufgehört haben, sondern auch ChatGPT-Gespräche über Ihre Wortgrenze hinaus verlängern.

Wie Sie wissen, hat ChatGPT ein Wortlimit, obwohl die Berichte in Bezug auf diese Zahl unterschiedlich zu sein scheinen. Einige sagen, dass GPT-4 Ihnen ungefähr 25,000 Wörter gibt, während der Autor Jeremy Nguyen (wird in einem neuen Tab geöffnet) sagt, dass es ungefähr 8,000,000 Wörter sind. Nicht, dass die meisten Benutzer dazu neigen, diese Schwelle zu erreichen, aber es bedeutet, dass ChatGPT sogar mitten im Satz abbrechen kann, wenn Ihr aktuelles Gespräch zu lange dauert. Infolgedessen müssen Sie einen ganz neuen Chat starten, was äußerst frustrierend sein kann, wenn Sie noch nicht fertig sind und weitere Informationen benötigen.

Diese neue Komprimierungssprache, die von gfodor (wird in einem neuen Tab geöffnet) auf Twitter als Shogtongue bezeichnet wird, ermöglicht es Ihnen, diese Wortzählung zu umgehen, damit Sie Ihre Konversation fortsetzen können, was äußerst nützlich ist, insbesondere wenn Ihre Anfrage in ein Kaninchenloch gefallen ist Der Chat ist zu einem monatelangen Gespräch geworden (oder Sie brauchen einfach einen besten Freund, der sich an alles erinnert, was Sie ihm in der Vergangenheit gesagt haben).

GPT-4 benötigt noch Kontext

Laut Nguyen erstellt ChatGPT nicht einfach eine komprimierte Nachricht für Sie, wenn ihm die Worte ausgehen. Sie sollten ihn immer bitten, dieses laufende Gespräch mit sehr spezifischen Anweisungen zu komprimieren.

In Ihrem Beispiel haben Sie angegeben, dass die Komprimierung „verlustfrei sein soll, aber die minimale Anzahl an Token zurückgibt, die in ein LLM wie Sie gelangen und das gleiche Ergebnis liefern könnten“. Er forderte ihn außerdem auf, verschiedene Sprachen, Symbole und „andere Anfangsbuchstaben“ zu verwenden.

Dasselbe sollte getan werden, wenn Sie diese gezippte Nachricht in einen neuen Chat eingeben, um Ihnen zu helfen, obwohl einige GPT-4-Benutzer dies anscheinend nicht tun, hilft das Hinzufügen von Kontext nur, Fehler zu minimieren.

Es ist zu beachten, dass diese Sprache noch nicht narrensicher ist. Laut Nguyen kann GPT-3.5 keine komprimierte Sprache lesen und „GPT-4 über API-Probleme“ verursachen. Es funktioniert am besten auf GPT-4, einer verbesserten Version seiner Vorgänger, über ChatGPT. Wenn Sie also glauben, dass dies ein langes und kompliziertes Gespräch wird, das Proust stolz machen würde, bleiben Sie besser bei diesem Chatbot.

Wenn Sie mehr über ChatGPT erfahren möchten, finden Sie hier alles, was Sie über den KI-Chatbot wissen müssen. Kein Fan? Vielleicht gefällt Ihnen Google Bard besser.