Regelwerk

Google veröffentlicht sieben ethische Grundsätze für Künstliche Intelligenz

Google veröffentlicht ethische Grundsätze für KI
© Fotolia
Google veröffentlicht ethische Grundsätze für KI
Für die Entwicklung und den Einsatz Künstlicher Intelligenz hat sich Google sieben ethische Grundsätze auferlegt. CEO Sundar Pichai veröffentlichte ein Regelwerk, in dem unter anderem beschrieben wird, dass die Technologie vor allem einen sozialen Nutzen haben soll. Die umstrittene Zusammenarbeit mit dem US-Militär gehe allerdings weiter.

Bei Google gilt seit vergangenem Jahr die Devise "AI first" - also KI zuerst. Heißt: Alle Produkte, Services oder andere Dienste des Unternehmens werden entwickelt für eine Gesellschaft, in der Künstliche Intelligenz eine große Rolle eingenommen hat - angefangen bei automatischen Antworten bei Gmail über Bildbearbeitungssoftware bis hin zum Sprachassistenten Google Assistant.

"Die Art und Weise, wie KI entwickelt und verwendet wird, hat in den nächsten Jahren eine bedeutenden Einfluss auf unsere Gesellschaft", warnt Google-CEO Pichai in einem aktuellen Blogbeitrag. "Als Führer im Bereich KI fühlen wir eine tiefe Verantwortung." Der Suchkonzern hat aus diesem Grund sieben ethische Grundsätze veröffentlicht, die die Entwicklung und den Einsatz der Technologie bestimmen sollen. Im Grunde eine Rückbesinnung auf das einstige Gründungsmotto "Don't be evil".

Zu den sieben Grundsätzen gehört beispielsweise, dass die Technologie stets einen sozialen Nutzen haben müsse, etwa in den Bereichen Gesundheitsversorgung, Sicherheit, Energie, Verkehr, Produktion oder Entertainment. Dabei wolle Google die kulturellen, sozialen Gegebenheiten und Rechtsnormen der Länder beachten, in denen die Technologien eingesetzt werden. Außerdem dürfe KI keine Vorurteile hinsichtlich Geschlecht, Rasse oder Alter widerspiegeln beziehungsweise verstärken. Pichai betont, dass dies allerdings "nicht immer einfach" sei.

Google hat zudem festgelegt, dass man keine Künstliche Intelligenz für Waffen liefern werde. Zugleich werde man in anderen Bereichen weiterhin mit dem Militär und Regierungen zusammenarbeiten, betonte der Konzern am Donnerstag. In den vergangenen Monaten hatte es bei dem Unternehmen massive Kritik an der Kooperation mit einem Drohnen-Projekt des US-Verteidigungsministeriums gegeben. Es nutzte Googles "Tensorflow"-Chips für maschinelles Lernen zur Erkennung von Objekten.

Eine Reihe vor Mitarbeitern kritisierte das. Es gab intern Petitionen, aus dem "Project Maven" auszusteigen. Google veröffentlichte nun Regeln für die Arbeit an künstlicher Intelligenz. Demnach werde Google keine Technologien entwickeln oder einsetzen, die insgesamt Schaden zufügen könnten. Neben Waffen ist auch Überwachung tabu, "die gegen international anerkannte Normen verstößt". Genauso werde Google keine künstliche Intelligenz entwickeln, die gegen internationales Recht und Menschenrechte verstößt. ron (mit dpa-Material)

 




stats