Ethische KI-Dilemmata | Computerwelt

Ethische Dilemmata der KI | Computerwelt

Können wir KI vertrauen? Es ist bereits sichtbar und unsichtbar in unsere Welt verwoben, von Google Translate und Videospielrobotern bis hin zum industriellen Einsatz im Gesundheitswesen, in der Fertigung und im Bankwesen für kritische Workloads. Können wir diese revolutionäre Technologie effektiv nutzen und den inhärenten ethischen Dilemmata von Voreingenommenheit, Vertrauen und Transparenz entkommen? Es gibt einen Weg nach vorne, aber er erfordert kontinuierliche und sorgfältige Gespräche über die Ethik der KI, während sich die Technologie weiterentwickelt.

Vertraust du KI?

Die Frage des Vertrauens stellt sich oft in Situationen, in denen menschliche Aktivitäten der KI anvertraut werden. Beispielsweise experimentieren Tesla und andere Autohersteller mit automatisierten KI-gesteuerten Fahr- und Parkfunktionen. Autonomes Fahren stößt an die Grenzen des Vertrauens, da Tests dieser Technologie zum Tod von Menschen geführt haben. Schnell ziehen sich Grenzen in den Sand, ob wir einem Auto beim Parken vertrauen können oder nicht.

Das Vertrauen in KI ist jedoch in einigen Anwendungsfällen bereits inhärent: Menschen tun dies, ohne es überhaupt zu merken. Im Falle einer Betrugserkennung werden Textnachrichten über verdächtige Transaktionen gesendet, noch bevor Sie bemerken, dass Ihre Brieftasche oder Kreditkarte fehlt. Diese Art von Technologie geschieht in Echtzeit und kann Ihnen enorme finanzielle Kopfschmerzen ersparen.

Selbst in Branchen, in denen KI Teil geschäftskritischer Workloads ist, bleibt das Thema Vertrauen relevant. In der Mainframe-Technologie beispielsweise ergreifen einige Unternehmen nicht automatisch Maßnahmen, wenn die KI eine Anomalie entdeckt. Obwohl die KI ihre Aufgabe beim Erkennen der Anomalie erfüllt hat, versteht sie nicht, dass die Einstellung der Arbeit an einem Mainframe katastrophale Folgen für ein Unternehmen haben könnte. In diesem Fall trauen die Betreiber der KI nicht zu, ein besseres Urteil zu fällen, als sie es könnten. Mit der Weiterentwicklung der KI werden Unternehmen und Anwendungsfälle testen, wann, wo und wie sehr sie dieser Technologie vertrauen können; Letztendlich werden sie prüfen, ob die Daten und/oder Ergebnisse erreichbar und unvoreingenommen sind.

Bias rein, Bias raus

Wie Menschen wird von KI-Systemen oft erwartet, dass sie sozialen Normen folgen und fair und unparteiisch sind. Das Problem der Voreingenommenheit betrifft nicht nur KI-Modelle – auch Menschen haben mit Voreingenommenheit zu kämpfen. Bei KI können die potenziellen Verzerrungsergebnisse jedoch einen erstaunlichen Einfluss haben. In der KI hat Bias eine starke Korrelation mit Eingabedaten. Beispielsweise wirken sich unreine, nicht verfeinerte oder fehlerhafte Eingabedaten auf Ihre Ausgabe aus. Es ist wichtig, mit Voreingenommenheit zu verstehen, dass es Sensibilität, Einsicht und Offenheit braucht, um ethisch zu navigieren.

Letztlich kontrolliert der Mensch die Verzerrung in der KI: Praktiker wählen die ursprünglichen Eingabedaten aus und führen Verzerrungen ein, um die Ergebnisse zu beeinflussen. Nehmen Sie zum Beispiel Amazon. Amazon erhält eine Vielzahl von Anfragen. Als sie beschlossen, den Einsatz von KI in ihrem Einstellungsprozess zu testen, nutzte das Unternehmen die Lebensläufe aktueller Mitarbeiter als Eingabedaten. Was war also das Ergebnis? Amazon teilte weithin mit, dass die Ergebnisse durch die Verwendung ausgewählter demografischer Stichproben zugunsten von Frauen verzerrt seien. Während des Testverfahrens stellte der Einzelhändler fest, dass die Person nie einen Anruf erhielt, wenn das Wort „Frau“ irgendwo im Lebenslauf vorkam. Amazon erkannte, dass Eingabedaten ein Teil des Problems waren und implementierte das Modell nie für die Einstellung von Managern.

Die Weitergabe dieser Informationen und die Sensibilität für die Ergebnisse sind unerlässlich, da wir weiterhin den besten Einsatz dieser Technologie entdecken. Da Voreingenommenheit stark an Absicht gebunden ist, ist Amazon kein Beispiel für den böswilligen Einsatz von KI. Stattdessen zeigt es die Notwendigkeit der Selbstbeobachtung beim Einsatz von KI. Amazon korrigierte die Ergebnisse für die Modellverzerrung, um ein ausgewogeneres Ergebnis zu erzielen.

KI ist bereits sehr schnell zu einem kritischen Teil des Geschäfts geworden, für einige Organisationen sogar zu einem wichtigen Unterscheidungsmerkmal, und ethische Probleme wie Voreingenommenheit sind zu erwarten. Der Schlüssel zur Überwindung von Voreingenommenheit besteht darin, sicherzustellen, dass Ihre Eingabedaten so sauber wie möglich sind, und bereit zu sein, unethische Ergebnisse offen und transparent zu untersuchen.

Die Rolle der Transparenz

Transparenz in der KI kann als für Mitarbeiter und Kunden erklärbar definiert werden. Das Problem ist, dass die KI nicht von Natur aus transparent ist, sodass sie ein wesentlicher Bestandteil der Navigation sein wird, wenn die KI verfeinert wird. Bei der Anwendung von Transparenz auf Unternehmensebene stellt sich die Frage, wie allgemeingültige Regeln bei unterschiedlichen Auswirkungen etabliert werden können. Wie werden wir wissen, ob die mit einem weniger günstigen Ergebnis verwendete KI transparent ist?

Die fehlende Transparenz ist für Verbraucher besonders wichtig. Verbraucher möchten wissen, welche personenbezogenen Daten Unternehmen sammeln, wie sie sie verwenden, wie ihre Algorithmen funktionieren und wer verantwortlich ist, wenn etwas schief geht. In einigen Fällen, wie bei Spotify, ist der Algorithmus an den Wettbewerbsvorteil des Unternehmens gebunden. Der Wert von Spotify für den Verbraucher liegt in den Empfehlungen, die es auf der Grundlage der über den Hörer gesammelten Informationen abgibt. Die Frage ist also, wo ist die ethische Grenze der Transparenz? Wie viel sollte ein Unternehmen teilen und wie viel sollten Verbraucher sehen und wissen?

Transparenz ist ein bewegliches Ziel; Es ist jedoch entscheidend, die Auswirkungen zu bewerten, wenn sich Algorithmen ändern. Wenn eine Änderung eintritt, wird es entscheidend sein, diese Änderung und ihre Auswirkungen auf verschiedene Interessengruppen transparent zu machen, um die Technologie zu einem noch innovativeren Ort zu machen. Eine mögliche Lösung liegt in einem Gleichgewicht. Organisationen, die bereit sind zu erklären, warum bestimmte Entscheidungen in ihren Modellen getroffen wurden, können einen positiven Beitrag zur Transparenz leisten, ohne sensible Informationen preiszugeben.

Ist ein ethisches Gleichgewicht möglich?

Die kurze Antwort lautet ja, ein ethisches Gleichgewicht ist möglich. Das Verständnis, wie man sich in der Ethik der KI-Technologie zurechtfindet, ist jedoch ein fortlaufender Prozess. Einige in unserer Branche fordern Transparenz, während Unternehmen es für notwendig halten, ihre Technologie zu schützen, weil sie ein Unterscheidungsmerkmal darstellt. Beide Seiten machen wichtige und gültige Punkte, aber wo bleibt das inhärente ethische Dilemma?

Es gibt ein paar Schlüsselfaktoren, unabhängig davon, auf welcher Seite des Gesprächs Sie sich befinden.

Laufender menschlicher Input wird ein wichtiger Aspekt der KI-Technologie sein, ethisch und funktional. Jetzt und in Zukunft wird die KI menschliche Eingaben und Aufsicht erfordern.

Die Empfindlichkeit gegenüber Verzerrungen ist für Eingabedaten, Modellanpassungen und Tracking-Ergebnisse von entscheidender Bedeutung.

Transparenz über KI-Fehltritte und -Erfolge fördert Gespräche über Ethik und hilft, die KI-Technologie voranzubringen.

Da KI weiterhin die globale Gemeinschaft beeinflusst, müssen wir uns weiterhin dafür einsetzen, Erfahrungen auszutauschen und ethische Fragen zu Vertrauen, Voreingenommenheit und Transparenz zu stellen. Je mehr wir tun, desto bessere Entscheidungen werden wir treffen und desto einfacher wird es zu verstehen, wie wir die KI in Zukunft verbessern können.

Möchten Sie mehr über die Rolle von KI bei Broadcom erfahren? Erfahren Sie, wie wir KI-Technologie zur Verbesserung des IT-Betriebs einsetzen.

Copyright © 2022 IDG Communications, Inc.