Stimme wird zur primären Forschungstechnologie

Stimme wird zur primären Forschungstechnologie
            Si su empresa no está invirtiendo en tratar de llegar a la cima de los resultados de búsqueda locales, debe dedicar un tiempo a pensar en cómo hacerlo, ya que las consultas de búsqueda por voz brindan resultados locales.</p><h2><strong>Los asistentes de voz están llegando a la mayoría de edad</strong></h2><p>Diez años después de la llegada de Siri, el mercado de los asistentes de voz está madurando y la búsqueda por voz está comenzando a proliferar en varios dispositivos.  Los productos de Amazon, Google y Apple ofrecen asistentes de voz, y uno de cada cuatro adultos estadounidenses tiene un altavoz inteligente.  Juniper Research predice que los ingresos por publicidad basada en voz alcanzarán los 19.000 millones de dólares en 2022, pero los mejores anuncios siguen siendo los resultados de búsqueda nativos.
John Stine, Geschäftsführer des Open Voice Network, erklärt: „Sprache wird bald das wichtigste Mittel für Verbraucher sein, um sich mit der digitalen Welt zu verbinden, und für digitale Vermarkter das wichtigste Mittel, um mit echten Verbrauchern in Kontakt zu treten ….“ Es ist Zeit, sich vorzubereiten. Vixen Labs und das Open Voice Network haben mit 6.000 Menschen in den USA, Großbritannien und Deutschland gesprochen, um herauszufinden, wie sie ihre Sprachassistenten nutzen. Die Ergebnisse finden Sie hier. Allgegenwärtigkeit ist eine der großen Entdeckungen. Mehr als 30 % von uns nutzen mittlerweile täglich Sprachassistenten, rund 23 % nutzen sie mehrmals täglich. Fast jeder weiß, dass es diese Dinge gibt.

Sprachbenutzer gewöhnen sich daran

Der Bericht enthält auch nützliche demografische Daten. Mich interessierte, dass 60 % der 18- bis 24-Jährigen und 36 % der 25- bis 34-Jährigen Siri häufiger nutzen als jeden anderen Assistenten. Alexa wird in der älteren Bevölkerungsgruppe häufiger verwendet, während auch der Google Assistant beliebt ist. (Cortana und Bixby sind in diesem Bereich untergeordnete Akteure.) Dies steht im Einklang mit einer aktuellen Behauptung von Futuresource, dass Apples Siri einen Anteil von 25 % am Markt für Sprachassistenten hat. Vertraulichkeit bleibt ein Problem. Es sieht jedoch so aus, als ob es noch einige Zeit dauern wird, bis das Tragen dieser Dinge in der Öffentlichkeit als salonfähig gilt. Nur 27 % der Nutzer von Sprachassistenten in den USA fühlen sich damit wohl, sie in der Öffentlichkeit zu nutzen, was bedeutet, dass wir uns zu Hause, im Auto oder unterwegs auf einem iPhone auf sie verlassen. Von denjenigen, die noch keine Sprachassistenten nutzen, gaben 42 % an, dass Datenschutzbedenken sie davon abgehalten haben, während 32 % den Assistenten einfach nicht vertrauen. Dies ist nicht besonders überraschend, wenn man bedenkt, dass Vorfälle wie die Entdeckung, dass bei Apple bestimmte Gespräche von Menschen belauscht wurden, nicht besonders überraschend sind. (Apple hat später dazu beigetragen, dies zu verhindern.)

Die Wissenslücke

Es besteht weiterhin Verwirrung darüber, was unsere Sprachassistenten leisten können. Die meisten Menschen (76 % im Vereinigten Königreich) verlassen sich auf Versuch und Irrtum, um herauszufinden, wozu sie fähig sind. Mit anderen Worten: Da Apple und andere in diesem Bereich regelmäßig Unterstützung für verschiedene Suchtypen einführen, holen Suchbenutzer immer weiter auf. Es gibt Aufgaben, an die sich Menschen gewöhnt haben. Der Bericht besagt, dass die meisten von uns Siri und andere Assistenten verwenden, um Musik zu steuern (73 % der Benutzer) und das Wetter zu überprüfen (80 % der Benutzer), und bestätigt, dass 91 % der Benutzer Sprachsuchen durchgeführt haben. . Diese letzte Statistik ist der Grund, warum alle Unternehmen an der lokalen Suche arbeiten sollten, da diese die Ergebnisse sind, die am wahrscheinlichsten in den Ergebnissen der Sprachsuche erscheinen. Und das ist auch ein gutes Geschäft, denn 41 % der Befragten nutzen ihre Stimme bereits zum Einkaufen. Es gibt Verhaltensunterschiede zwischen den Ländern: 21 % der US-Verbraucher geben an, dass „das Bezahlen einer Rechnung“ ihre wichtigste Aufgabe für Voice-Banking und Finanzunterstützung ist, verglichen mit 15 % im Vereinigten Königreich und 17 % in Deutschland. Deutsche Nutzer sind jedoch eher bereit, Technologie zu nutzen, um einen Arzt oder Facharzt zu finden, als Nutzer in den USA oder im Vereinigten Königreich. James Poulter, CEO und Mitbegründer von Vixen Labs, sagte: „Derzeit gibt es viel freien Raum, in den man einziehen kann; Die Kunden sind bereit und warten, aber um diesen neuen Marketingkanal nutzen zu können, müssen Marken ihre Produkte und Dienstleistungen mit Sprachtechnologie optimieren, erstellen und integrieren.

Was kommt als nächstes?

Einige Trends sind ziemlich leicht zu erraten: Die Art und Weise, wie wir suchen, wird sich ändern, und die Menschen werden sich stärker daran gewöhnen, die Sprachsuche für die Suche nach bestimmten Dingen zu verwenden als jede andere Form der Recherche. Wir werden auch sehen, dass die Ergebnisse personalisierter werden, da Sprachassistenten mehr darüber erfahren, wer spricht. Wir wissen, dass Sprachassistenten in Zukunft einfühlsamer werden und in der Lage sein werden, auf die Emotionen in der Stimme einer Person zu reagieren, und wir werden erleben, wie neue Formfaktoren wie intelligente Displays und intelligente Brillen entstehen. In jedem Fall werden sie Sprache als Teil der Gesamtschnittstelle nutzen und die Räume erweitern, in denen der Einsatz von Sprache sinnvoll ist. Um einen Eindruck von dieser Zukunft zu bekommen, werfen Sie am besten einen Blick auf Apples Arbeit zur Barrierefreiheit als einen Bereich, in dem das Unternehmen alternative Benutzeroberflächen erforscht. Wir sehen auch, dass Sprachassistenten kontextbezogen werden und offline Antworten auf Fragen geben können. Wir sehen auch einen zunehmenden Einsatz von Sprachassistenten in Unternehmen. Enterprise-Sprachassistentenarchitekturen wie VERA 2.0 ermöglichen es Geschäftsanwendern, ihre eigenen Sprachbefehle zu erstellen, um ihre eigenen internen Geschäftssysteme zu verwalten, während Anwendungen wie Shortcuts es Benutzern ermöglichen, die Möglichkeiten ihrer Assistenten mit den vorhandenen Stimmen zu erweitern. JP Morgan & Co und Capital One nutzen Alexa in kundenorientierten Rollen, und wir sehen sicherlich, dass Voice in Callcentern auf der ganzen Welt implementiert wird, was zeigt, dass es sich hierbei um eine B2C-Komponente zur Unterstützung kundenzentrierter Rollen handelt. Folgen Sie mir auf Twitter oder besuchen Sie die AppleHolic Bar & Grill- und Apple-Diskussionsgruppen auf MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>