Der neue Bing AI ChatGPT-Bot ist auf fünf Antworten pro Chat beschränkt

Der neue Bing AI ChatGPT-Bot ist auf fünf Antworten pro Chat beschränkt

Wie häufige Leser von TechRadar wissen, hatten die viel gepriesenen KI-Chatbot-Verbesserungen, die kürzlich zu Bing hinzugefügt wurden, nicht den reibungslosesten Start, und jetzt nimmt Microsoft einige Änderungen vor, um die Benutzererfahrung zu verbessern.

In einem Weblog-Beitrag (öffnet sich in einem neuen Tab) (über The Verge (öffnet sich in einem neuen Tab)) erklärt Microsoft, dass die Optimierungen „dazu beitragen sollen, Chat-Sitzungen zu fokussieren“: Der KI-Teil von Bing wird auf fünfzig begrenzt. „Chat-Runden“ (eine Frage und eine Antwort) pro Tag und fünf Antworten pro Chat-Sitzung.

Es kommt vor: Microsoft-Führungskräfte haben bereits öffentlich gesagt, dass sie nach Wegen suchen, bestimmte seltsame Verhaltensweisen zu unterdrücken, die frühe Tester des KI-Bot-Dienstes bemerkt haben.

Prüfung

Diese frühen Tester führten einige ziemlich harte Tests durch: Sie brachten den Bot, der auf einer verbesserten Version von OpenAIs ChatGPT-Engine basiert, dazu, ungenaue Antworten zu geben, wütend zu werden und sogar die Natur seiner Existenz in Frage zu stellen.

Es ist nicht ideal, Ihre Suchmaschine in eine existenzielle Krise zu stürzen, während sie nur nach einer Liste der besten Telefone sucht. Microsoft behauptet, dass lange Chat-Sitzungen seine KI verwirren und dass die „überwiegende Mehrheit“ der Suchanfragen in fünf Antworten beantwortet werden könne.

Das AI-Plugin für Bing ist noch nicht für alle verfügbar, aber Microsoft sagt, dass es auf der Warteliste nach oben rückt. Wenn Sie die neue Funktion testen möchten, denken Sie daran, Ihre Interaktionen kurz und bündig zu halten.

Analyse: Glauben Sie dem Hype noch nicht

Trotz der anfänglichen Schluckaufe gibt es eindeutig viel Potenzial in den KI-gestützten Suchtools, die von Microsoft und Google entwickelt werden. Egal, ob Sie nach Brettspielideen oder Sehenswürdigkeiten suchen, sie können schnelle und fundierte Ergebnisse liefern, und Sie müssen nicht durch verlinkte Seiten navigieren, um sie zu finden.

Gleichzeitig ist klar, dass noch viel Arbeit vor uns liegt. Große Sprachmodelle (LLMs) wie ChatGPT und die Microsoft-Version „denken“ nicht wirklich so. Sie sind wie aufgeladene Autokorrekturmaschinen, die vorhersagen, welche Wörter befolgt werden sollten, um eine konsistente und relevante Antwort auf die Anfrage zu generieren.

Hinzu kommt das Problem der Versorgung: Wenn sich die Leute auf KI verlassen, um ihnen die besten Laptops zu sagen und menschliche Autoren arbeitslos zu machen, werden diese Chatbots nicht über die Daten verfügen, die sie benötigen, um Ihre Antworten zu generieren. Genau wie herkömmliche Webbrowser verlassen sie sich immer noch stark auf Inhalte, die von echten Menschen erstellt wurden.

Natürlich nutzen wir die Gelegenheit, um den ursprünglichen ChatGPT zu fragen, warum lange Interaktionen LLMs verwirren: Angeblich kann dies dazu führen, dass sich KI-Modelle „zu sehr auf die Besonderheiten des Chats konzentrieren“ und sie daran hindern, „nicht auf andere Kontexte oder Themen zu verallgemeinern“. . , was zu Schleifenverhalten und „sich wiederholenden oder belanglosen“ Reaktionen führt.