Die neue Fototechnologie von Google ist beängstigend und sehr problematisch

Die neue Fototechnologie von Google ist beängstigend und sehr problematisch
Google verfügt über einen umfangreichen maschinellen Lernvorgang, daher ist es nicht verwunderlich, dass das Unternehmen ihn auf alle Daten anwendet, die wir ihm zuführen, aber es hat etwas mit der Unordnung unserer Fotos zu tun, das grenzüberschreitend erscheint, ganz gleich, welches Lächeln Google auch immer versucht. Zieh es an. In der Keynote zur Google I/O 2021 gab es viele Dinge, die eine seltsame Note hatten, wie zum Beispiel die Würdigung seiner „KI-Grundsätze“, nachdem er sich an seinen ehemaligen KI-Ethiker Dr. Timnit Gebru gewandt hatte, was dazu führte, dass das Unternehmen seine Wissenschaftler anführte. Seien Sie „positiver“ gegenüber KI. Besonders erschütternd war jedoch der Teil der Grundsatzrede von Shimrit Ben-Yair, Direktor von Google Fotos. Während seiner Präsentation zeigte er, wie die maschinelle Lerntechnologie von Google alle Ihre Fotos analysieren, weniger bekannte Ähnlichkeiten in Ihrer gesamten Fotosammlung identifizieren und Ihre Fotos entsprechend gruppieren konnte.

Google demonstriert seinen Small-Pattern-Google-Fotos-Algorithmus

(Bildnachweis: Google) Das bedeutet, dass Google jedes Foto, das Sie ihm geben, durch sehr spezifische Algorithmen des maschinellen Lernens laufen lässt und ganz bestimmte Details Ihres Lebens identifiziert, wie zum Beispiel die Tatsache, dass Sie gerne mit einer Tasche um die Welt reisen. Meins, ein bestimmter orangefarbener Hintern , Zum Beispiel. Glücklicherweise erkennt Google zumindest an, dass dies problematisch sein könnte, wenn Sie beispielsweise Transgender sind und der Google-Algorithmus beschließt, eine Sammlung von Fotos vor dem Übergang zu erstellen. Google ist sich darüber im Klaren, dass dies für Sie schmerzhaft sein kann. Daher haben Sie jederzeit die Möglichkeit, das betreffende Foto aus den Sammlungen zu entfernen. Sie können sie auch bitten, alle Fotos zu entfernen, die an einem bestimmten Datum aufgenommen wurden und schmerzhaft sein könnten, beispielsweise an dem Tag, an dem ein geliebter Mensch starb. All dies ist besser, als diese Option überhaupt nicht zu haben, aber die Verantwortung liegt immer noch bei Ihnen, dem Benutzer, und das ist immer der Fall. Was ist für manche ein bisschen mühsam, wenn Google neue Funktionen implementieren muss, nach denen niemand gefragt hat? Dann kommen wir zu dem Teil der Präsentation, in dem Google eine Auswahl von zwei oder drei zusammen aufgenommenen Fotos erstellt, z. B. wenn Sie viele Fotos hintereinander aufnehmen, um eines auf einem Gruppenfoto aufzunehmen, auf dem niemand blinzelt, und es anzuwenden Maschinelles Lernen, um mit ihnen ein kleines „Kinofoto“ zu generieren. Diese Funktion, die erstmals im Dezember 2020 eingeführt wurde, wird maschinelles Lernen nutzen, um vollständig fabrizierte Rahmen zwischen diesen Fotos einzufügen, um im Wesentlichen ein GIF zu generieren und ein Live-Ereignis auf eine Art und Weise nachzubilden, die ein Faksimile des Ereignisses ist, wie es stattgefunden hat. Der Schwerpunkt liegt auf dem Versenden von Faxen.

Ein filmischer Moment mit Google Fotos

(Bildnachweis: Google) Google präsentiert dies als Hilfe zum Erinnern an alte Fotos, aber das ist nicht das, was es ist, es ist der Anfang vom Ende des Erinnerns, wie wir es kennen. Warum sollten Sie Ihrem Gedächtnis vertrauen, wenn Google nur eines für Sie generieren kann? Es spielt keine Rolle, ob Sie eine Aufnahme von etwas erstellen, das nicht wirklich passiert ist, und es Ihnen so präsentieren, als ob es tatsächlich passiert wäre. Natürlich könnten Ihre Augen zwischen diesen beiden Fotos „so ähnlich“ geflackert haben, und es ist nicht so, dass Google Sie dazu gezwungen hat, auf einer Party Cola zu trinken, wenn Sie keins gemacht haben, so und so. Aber wenn es darum geht, was ethisch ist und was nicht, gibt es keinen Platz für „Geschlecht“. Solche Entscheidungen führen uns auf Wege, die wir nicht gehen wollen, und jeder Schritt auf einem Weg macht es für uns schwieriger, zurückzukehren. Wenn es eine Sache gibt, die wir im letzten Jahrzehnt wirklich hätten lernen sollen, dann ist es, nicht so blind auf Algorithmen des maschinellen Lernens zu vertrauen, die die Macht haben, unsere Wahrnehmung der wissenschaftlichen Realität zu verzerren. QAnon ist ebenso ein maschinelles Lernprodukt wie Netflix, aber jetzt legen wir unsere Fotoalben auf den Altar der KI und nennen alles, was dabei herauskommt, „Erinnerungen“. Mittlerweile wird mit fortschreitendem Klimawandel eine Menge realer Energie für den Betrieb all dieser Algorithmen in Rechenzentren aufgewendet. Mit jeder neuen Weiterentwicklung der Plattform für maschinelles Lernen von Google wird es immer deutlicher, dass Sie sich wirklich anhören sollten, was Ethiker wie Dr. Gebru Ihnen sagen wollen, und es wird noch deutlicher, dass Sie kein Interesse daran haben, es zu tun.