Googles AI Policy

18. Jul 2018

Vor etwa einem Monat hat Googles CEO Sundar Pichai die sieben Prinzipien vorgestellt, die Google bei der Anwendung und Entwicklung von Künstlicher Intelligenz (Artificial Intelligence – AI) künftig als Rahmen dienen sollen.

Wie vermutlich keine zweite Firma auf der Welt ist Google derzeit dabei, auf breiter Front Künstliche Intelligenz voranzutreiben und damit den Weg zu bereiten für immer raffiniertere Lösungen im Gesundheitswesen, der Medizin, autonomen Fortbewegung, Katastrophenprävention, Unterhaltung, Sicherheit und viele weitere mehr. Gleichzeitig anerkennt Google, dass nicht jede Art Künstlicher Intelligenz auch wünschenswert ist. Neue Technologien haben – und werden – immer auch Missbrauch und bösartige Verwendungszwecke anziehen.

Sieben Prinzipien der AI Policy

In der neuen AI Policy erklärt Google anhand von sieben Prinzipien eindeutig, welche Art von AI das amerikanische Unternehmen fördern will:

Die Verwendung von AI hat sozial zuträglich zu sein, unfaire Vorurteile zu vermeiden und von Anfang an auf Sicherheit ausgelegt sein.

Ferner bekräftigt Google, dass ein AI-System dem Menschen Rechenschaft liefern können muss und die Privatsphäre des Individuums schützen und respektieren muss. Schließlich verpflichtet sich Google dazu, weiterhin hohe Standards bei der wissenschaftlichen Exzellenz anzulegen und im Bereich der AI-Forschung führend zu bleiben und gewonnene Erkenntnisse der Allgemeinheit verfügbar zu machen.

Kaum schädlich (außer vielleicht für Spielsüchtige): 11 players vs AI Game – Real Soccer World auf Google Play

Die Angestellten von Google weisen den Weg

Googles AI Policy kommt nicht aus heiterem Himmel, dennoch ist es eine erfreuliche und wegweisende Initiative, die sich bemüht, die vielen wichtigen Fragen, die AI-Technologien heute aufwerfen, anzugehen.

Dass die eigenen Angestellten eine wichtige Rolle bei der nun vorgestellten Policy spielten, ist kein Geheimnis. In einem ungewöhnlichen Aufbegehren hatten über 4000 Googler früher in diesem Jahr dagegen protestiert, dass Google sich am Programm Maven des Pentagons beteiligt, da sie fürchteten, die dort entwickelte AI-Technologie (für die Analyse von Drohnenaufnahmen) könnte auch Eingang in die Entwicklung tödlicher Waffen finden. Zur Überraschung vieler nahm Google die Bedenken der Mitarbeiter sehr ernst und teilte im Mai mit, den Vertrag mit dem Pentagon auslaufen zu lassen.

Die AI Policy zeigt auch auf, welche Art von AI Google nicht verfolgen will; spezifisch distanziert sich Google von AI die im Gesamteffekt Schaden anrichten soll oder die es erleichtert oder erst ermöglicht, Menschen zu verletzen. Aufmerksame Leser der Policy werden auch erkennen, dass die Formulierungen Interpretationsspielraum lassen. So bleibt der Text sehr vage im Hinblick auf Dinge wie Spionage oder elektronische Kriegsführung. Zumindest ist diese Policy jedoch ein Start, und in Zukunft wird sich Google immer daran messen lassen müssen, ob die eigenen Prinzipien eingehalten werden.

Jedermann trägt Verantwortung

Am Ende ist es wie mit jeder neuen Technologie: Wie AI in der Praxis angewendet wird, hängt nicht nur von Plänen und Prinzipien der involvierten Firmen ab, sondern ebenso stark von den Leuten, die daran beteiligt sind. Ihre Bereitschaft, sich ein gesundes und unabhängiges Urteil zu bilden und, wenn nötig, sich vernehmlich zu wehren, sind entscheidend.

Die Google-Mitarbeiter verdienen ein Kompliment dafür, in diesem Fall mit gutem Beispiel vorangegangen zu sein und ein zweifelhaftes Engagement der Firma in Frage gestellt zu haben. Es liegt in unser aller Verantwortung, dasselbe zu tun, wo immer sich eine solche Situation ergibt.

Weiter zum Blogpost von Google.


Tags: