Anzeige schließen

Der Technologiebereich ist durch eine Reihe von Faktoren bedroht. Nutzer befürchten beispielsweise Schadsoftware oder den Verlust der Privatsphäre. Aber nach Ansicht einflussreicher Persönlichkeiten der Technologiebranche sollten wir uns nicht so sehr um den menschlichen Faktor selbst kümmern, sondern eher um seinen Zusammenhang mit künstlicher Intelligenz. Auf dem diesjährigen Weltwirtschaftsforum in Davos forderten Führungskräfte mehrerer großer Technologieunternehmen eine gesetzliche Regulierung der Branche. Was sind ihre Gründe dafür?

„Künstliche Intelligenz ist eines der tiefgreifendsten Dinge, an denen wir als Menschheit arbeiten. Es hat mehr Tiefe als Feuer oder Elektrizität.“ sagte der CEO von Alphabet Inc. letzten Mittwoch beim Weltwirtschaftsforum. Sundar Pichai fügte hinzu, dass die Regulierung künstlicher Intelligenz einen globalen Verarbeitungsrahmen erfordert. Auch Microsoft-Direktorin Satya Nadella und IBM-Direktorin Ginni Rometty fordern eine Vereinheitlichung der Regeln für den Einsatz künstlicher Intelligenz. Laut Nadella sei es heute, vor mehr als dreißig Jahren, notwendig, dass die Vereinigten Staaten, China und die Europäische Union Regeln aufstellten, die die Bedeutung künstlicher Intelligenz für unsere Gesellschaft und für die Welt bestimmen.

Versuche einzelner Unternehmen, eigene Ethikregeln für künstliche Intelligenz zu etablieren, stießen in der Vergangenheit nicht nur bei den Mitarbeitern dieser Unternehmen auf Protest. So musste sich Google 2018 nach massiven Gegenreaktionen aus dem geheimen Regierungsprogramm Project Maven zurückziehen, das Technologie zur Analyse von Bildern von Militärdrohnen nutzte. Stefan Heumann von der Berliner Denkfabrik Stiftung Neue Verantwortung sagt im Hinblick auf die ethischen Kontroversen um künstliche Intelligenz, dass politische Organisationen die Regeln festlegen sollten, nicht die Unternehmen selbst.

Der Smart Speaker von Google Home nutzt künstliche Intelligenz

Die aktuelle Protestwelle gegen künstliche Intelligenz hat einen klaren Grund für diesen Zeitpunkt. In nur wenigen Wochen muss die Europäische Union ihre Pläne für die entsprechende Gesetzgebung ändern. Dazu könnten beispielsweise Regelungen zur Entwicklung künstlicher Intelligenz in sogenannten Hochrisikosektoren wie dem Gesundheitswesen oder dem Verkehr gehören. Nach den neuen Regeln müssten Unternehmen beispielsweise im Rahmen der Transparenz dokumentieren, wie sie ihre KI-Systeme aufbauen.

Im Zusammenhang mit künstlicher Intelligenz kam es in der Vergangenheit bereits zu mehreren Skandalen – einer davon ist beispielsweise die Affäre um Cambridge Analytica. Im Unternehmen Amazon belauschten Mitarbeiter Nutzer über die digitale Assistentin Alexa, und im Sommer letzten Jahres kam es erneut zu einem Skandal, weil das Unternehmen Google – bzw. die Plattform YouTube – Daten von minderjährigen Kindern sammelte von dreizehn Jahren ohne Zustimmung der Eltern.

Während einige Unternehmen zu diesem Thema schweigen, hat Facebook laut Aussage seiner Vizepräsidentin Nicola Mendelsohn kürzlich eigene Regeln aufgestellt, ähnlich der europäischen DSGVO-Verordnung. Mendelsohn sagte in einer Erklärung, dass dies das Ergebnis von Facebooks Bemühungen um eine globale Regulierung sei. Keith Enright, der bei Google für den Datenschutz verantwortlich ist, sagte kürzlich auf einer Konferenz in Brüssel, dass das Unternehmen derzeit nach Möglichkeiten suche, die Menge der zu sammelnden Nutzerdaten zu minimieren. „Aber die weit verbreitete Behauptung ist, dass Unternehmen wie unseres versuchen, so viele Daten wie möglich zu sammeln.“ Er erklärte weiter und fügte hinzu, dass es riskant sei, Daten zu speichern, die für die Nutzer keinen Wert hätten.

Die Regulierungsbehörden scheinen den Schutz der Nutzerdaten ohnehin nicht zu unterschätzen. Die Vereinigten Staaten arbeiten derzeit an einer Bundesgesetzgebung ähnlich der DSGVO. Danach müssten Unternehmen die Einwilligung ihrer Kunden zur Weitergabe ihrer Daten an Dritte einholen.

Siri FB

Source: Bloomberg

.