Samsung zeigt, dass wir einen Apple-Ansatz für generative KI brauchen


Es ist, als hätte fast jeder ChatGPT von Open AI verwendet, seit die generative KI zur Hauptsendezeit gekommen ist. Aber viele Geschäftsleute können Technologie annehmen, ohne das Risiko dieser großen Sprachmodelle (LLMs) zu berücksichtigen.

Deshalb brauchen wir einen Apple-Ansatz für generative KI.

Was bei Samsung passiert, soll bei Samsung bleiben

ChatGPT scheint ein Allround-Tool zu sein, das in der Lage ist, Fragen zu beantworten, Prosa zu verfeinern, Vorschläge zu generieren, Berichte zu erstellen und vieles mehr. Entwickler haben das Tool verwendet, um ihnen beim Schreiben oder Verbessern ihres Codes zu helfen, und einige Unternehmen (wie Microsoft) integrieren diese künstliche Intelligenz in bestehende Produkte, Webbrowser und Anwendungen.

Es ist sehr schön. Aber jeder Unternehmensnutzer sollte die Warnungen von Europol und dem britischen Geheimdienst NCSC beachten und das Kleingedruckte beachten, bevor er sensible Informationen versendet. Weil die einmal geteilten Daten nicht mehr von der teilenden Entität kontrolliert werden, sondern von OpenAI, was bedeutet, dass sensible Informationen nicht mehr sicher sind.

Dies kann für viele Benutzer ein grundlegendes Datenschutzproblem darstellen, aber für Unternehmen, insbesondere solche, die mit Insiderinformationen umgehen, bedeutet dies, dass die Verwendung von ChatGPT mit einigen ernsthaften Risiken verbunden ist.

Seit Erscheinen der Software kursieren entsprechende Warnungen, die aber vom Pro-LLM-Hype offensichtlich nicht beachtet werden. Dies wird durch Berichte nahegelegt, wonach Ingenieure von Samsung Semiconductor ChatGPT verwendeten und dabei drei sensible Datenlecks in nur 20 Tagen generierten.

Die Ingenieure verwendeten ChatGPT, um einige ziemlich einfache Aufgaben auszuführen:

Das Problem ist, dass die Mitarbeiter in all diesen Fällen tatsächlich proprietäre Informationen von Samsung entwendeten und an Dritte weitergaben, wodurch sie der Kontrolle des Unternehmens entzogen wurden.

Als Samsung von diesen Vorkommnissen erfuhr, warnte Samsung natürlich seine Mitarbeiter vor den Risiken, die mit der Verwendung von ChatGPT verbunden sind. Ihre wichtigen Mitarbeiter verstehen, dass einmal geteilte Informationen einer unbekannten Anzahl von Personen zugänglich gemacht werden können. Samsung unternimmt Schritte, um eine solche Nutzung in Zukunft zu verringern, und wenn das nicht funktioniert, wird das Tool in seinem Netzwerk blockiert. Samsung entwickelt auch ein eigenes ähnliches Tool für den internen Gebrauch.

Der Samsung-Vorfall ist ein klarer Beweis dafür, dass Unternehmensleiter verstehen müssen, dass Unternehmensinformationen nicht auf diese Weise weitergegeben werden können.

Wir brauchen einen Apple-Ansatz für generative KI

Das ist natürlich der Grund, warum Apples Gesamtansatz für KI so sinnvoll ist. Obwohl es Ausnahmen gibt (darunter an einem Punkt das unverhohlene Teilen von Daten für die Notation innerhalb von Siri), besteht die Taktik von Apple darin, zu versuchen, clevere Lösungen zu entwickeln, die nur sehr wenige Daten benötigen, um zu funktionieren. Das Argument ist, dass Apple und seine Systeme die Informationen eines Benutzers zwar nicht kennen, diese Informationen jedoch vertraulich, privat und sicher bleiben.

Dies ist ein starkes Argument, das legitimerweise auf die generative KI und möglicherweise auf jede Form der Forschung ausgedehnt werden sollte. Apple scheint kein Äquivalent zu ChatGPT zu haben, obwohl es einige der Grundlagen hat, auf denen auf dem Gerät Äquivalente der Technologie für seine Hardware aufgebaut werden können. Die unglaublich leistungsstarke neurale Engine von Apple zum Beispiel scheint die Leistung zu haben, LLM-Modelle mit zumindest einigermaßen gleichwertigen Operationen auf dem Gerät auszuführen. Dies würde ein viel sichereres Werkzeug bereitstellen.

Während Apple noch keine eigene Version von Designed in Cupertino für generative KI in den Startlöchern hat, ist es unvermeidlich, dass die Nachfrage nach privatem und sicherem Zugriff auf ähnliche Tools mit zunehmendem Verständnis der Risiken des ChatGPT-Modells nur zunehmen wird . Unternehmen wollen Produktivität und Effizienz ohne die Kosten des Datenschutzes.

Die Zukunft dieser Tools hängt also wahrscheinlich davon ab, diese Lösungen so weit wie möglich aus der Cloud auf das Gerät zu bringen. Dies ist sicherlich die Richtung, die Microsoft anzustreben scheint, da es daran arbeitet, OpenAI-Tools in Azure und andere Produkte zu integrieren.

In der Zwischenzeit sollte jeder, der LLM nutzt, den Ratschlägen des NCSC folgen und sicherstellen, dass er bei seinen Abfragen keine sensiblen Informationen angibt. Sie sollten außerdem sicherstellen, dass sie keine Anfragen an öffentliche LLMs senden, deren Veröffentlichung „Probleme verursachen würde“.

Und da der Mensch das schwächste Glied in jeder Sicherheitskette ist, müssen die meisten Unternehmen wahrscheinlich einen Aktionsplan für den Fall eines Verstoßes entwickeln. Vielleicht kann ChatGPT einen vorschlagen?

Folgen Sie mir auf Mastodon oder besuchen Sie AppleHolics Bar & Grill und die Apple-Diskussionsgruppen auf MeWe.

Copyright © 2023 IDG Communications, Inc.