Google ist dabei, Ihre Suchanfragen besser zu verstehen

Google ist dabei, Ihre Suchanfragen besser zu verstehen

Google hat die Veröffentlichung eines großen Updates für seine Suchmaschine angekündigt, das dazu führen soll, dass kontextbezogene Suchanfragen besser verstanden werden und nicht nur passende Schlüsselwörter gefunden werden, sondern auch, was Sie sagen möchten

Dank eines neuen maschinellen Lernprozesses müssen Sie laut Google nicht mehr versuchen, Ihre Keyword-Suchen zu überfrachten, um zuerst die richtigen Ergebnisse zu erhalten. Stattdessen können Sie natürlicher und gesprächiger sein.

„Besonders bei längeren, konversationelleren Suchanfragen oder Suchanfragen, bei denen Präpositionen wie „für“ und „für“ für die Bedeutung von Bedeutung sind, kann die Suche den Kontext der Wörter in Ihrer Suchanfrage verstehen“, sagt Pandu Nayak von Google.

„Egal, wonach Sie suchen oder welche Sprache Sie sprechen, wir hoffen, dass Sie einige Ihrer Schlüsselwörter eliminieren und die Recherche auf natürliche Weise für Sie durchführen können“, fügt Nayak hinzu.

Suche und du wirst finden

Wir geben Ihnen einige Beispiele von Google, um zu zeigen, wie die Änderungen funktionieren. Zuvor ignorierte Google bei einer Suche "2019 Brasilien in den USA, für die ein Visum erforderlich war" das "at", da es sehr häufig war, und gab die Ergebnisse von US-Bürgern zurück, die nach Brasilien reisten. Jetzt erkennen Sie das "at" und die Frage betrifft die Reisenden von Brasilien in die USA.

Bei einer Suche wie „Kosmetikerinnen sind oft am Arbeitsplatz“ verstand Google bisher nicht, in welchem ​​Kontext „Unterstützung“ verwendet wurde (z. B. im Hinblick auf die körperlichen Anforderungen des Jobs). Mit dem neuen Update wird er verstehen, was Sie sagen wollen.

Diese Verbesserungen sind so bedeutend, dass Google dies als das größte Suchupdate seit fünf Jahren bezeichnen kann. Die neue Technologie gilt zunächst nur für die Suche in amerikanischem Englisch, wird aber nach und nach auf andere Sprachen ausgeweitet.

Eine detailliertere Beschreibung der neuronalen Netzwerkinnovationen, die hinter dieser Verbesserung stehen, einschließlich eines Trainingsmodells namens „Bidirektionale Transformers-Encoder-Repräsentationen“ (BERT), finden Sie im Google-Blog für Änderungen.