Microsofts ChatGPT-betriebenes Bing erhält eine Überarbeitung, die Ihnen vielleicht nicht gefällt


Microsoft hat einige weitere Optimierungen an seiner Bing-KI vorgenommen, einige Chat-Limits erhöht und Änderungen an einer der Chatbot-Persönlichkeiten vorgenommen.

Chats wurden jetzt erweitert, um bis zu 15 Sitzungen pro Tag zu ermöglichen, wobei die maximale Sitzungslänge auf 10 Anfragen erhöht wurde (was bedeutet, dass Ihr Tageslimit jetzt insgesamt 150 Anfragen beträgt).

Microsoft hat diese Chat-Grenzwerte seit der ersten Veröffentlichung der KI langsam aber sicher ausgeweitet und war stark eingeschränkt (auf 5 Sitzungen und 50 Anfragen pro Tag), als das Verhalten des Chatbots bei längeren Sitzungen ernsthaft beobachtet wurde.

Doch die interessanteste Änderung ist laut Yusuf Mehdi, Corporate Vice President und Chief Consumer Marketing Officer bei Microsoft, die „ausgewogene“ Persönlichkeitsoptimierung für bessere Leistung.

Zwei Updates: Bing Chat begrenzt die Bewegung auf 15/150. Die präzisen und kreativen Modi bleiben unverändert und sorgen für eine Vielfalt an Erlebnissen. Erzählen Sie uns, was Sie denken. 13. März 2023

Los geht´s

Wie Sie vielleicht wissen, stehen für Microsoft AI drei Persönlichkeiten zur Verfügung. „Ausgewogen“ ist die mittlere Einstellung für den Chatbot, irgendwo in der Mitte zwischen „Genau“ und „Kreativ“, die unverändert bleibt.

Precise bietet prägnantere und professionellere Antworten, näher an einer Standardsuche, während Creative der KI mehr Freiheit bei ihren Antworten gibt, mit Balanced in der Mitte als Mitteloption.

Analyse: genau, etwas ungenauer und kreativ?

Wie bei jeder Verpflichtung kann es schwierig sein, genau zu entscheiden, wo die Grenze gezogen werden soll. Es sieht jedoch so aus, als würde Microsoft mit dieser jüngsten Änderung eine konservativere Haltung einnehmen.

Da „Balanced“ jetzt „kürzere, schnellere Antworten“ liefert, scheint dies eindeutig eher der Einstellung „Präzise“ zu entsprechen als der Einstellung „Kreativ“, wo der KI mehr Bewegungsfreiheit eingeräumt wird und sie, ehrlich gesagt, interessanter und menschlicher wirkt.

Wenn man also den Balance-Regler mehr in Richtung des konservativen Endes des Spektrums verschiebt, könnte man davon ausgehen, dass Bing AI etwas direkter und, nun ja, langweiliger wird.

Der Sinn aller drei Persönlichkeiten besteht darin, den Benutzern die Wahl zu geben, wie die KI reagieren wird, sodass sie, wenn sie mit ihren Interaktionen mit der von ChatGPT betriebenen Entität nicht zufrieden sind, die Dinge ändern können. Aber jetzt scheint es etwas weniger Auswahl zu geben, was die Einstellung „sehr konservativ“, die Option „eher konservativ“ und die Option „lockerer“ betrifft.

Warum hat Microsoft diese Richtung eingeschlagen? Wir vermuten, dass Leute, die ein menschlicheres Chat-Erlebnis wünschen, Creative verwenden und vielleicht sowieso nicht davon träumen, in Balanced einzutauchen. Vielleicht verwenden nicht viele Leute im Allgemeinen „Balanced“, daher könnte die Einstellung „Precise“ diejenigen auf Letzterem dazu verleiten, die mittlere Option zu verwenden, während diejenigen auf „Creative“ höchstwahrscheinlich dabei bleiben werden, weil sie möchten, dass die KI ebenso interessant und offen wie unmenschlich ist (ähm) wie möglich.

In jedem Fall können wir in Zukunft mit weiteren Optimierungen und wahrscheinlich mehr Persönlichkeitsoptionen rechnen. Möglicherweise bekommen wir sogar einen Modus, in dem Bing AI auch berühmte Prominente nachahmen kann, wenn die Lecks im Geld sind. Und das würde wahrscheinlich dazu beitragen, die Anzahl der Nutzer weiter zu steigern, wenn sich bereits viele Personen zum Testen des Chatbots registriert haben.

Über MS Power User (öffnet sich in einem neuen Tab)