Special

SapientRazorfish-Chef Wolf Ingomar Faecks warnt vor den unabsehbaren Folgen von Artificial Intelligence
SapientRazorfish

SapientRazorfish-Chef Wolf Ingomar Faecks Die großen Gefahren von Künstlicher Intelligenz

SapientRazorfish-Chef Wolf Ingomar Faecks warnt vor den unabsehbaren Folgen von Artificial Intelligence
Mark Zuckerberg findet Artificial Intelligence (AI) einfach toll, Tesla-Gründer Elon Musk dagegen warnt eindringlich vor Gefahren und unabsehbaren Folgen. Nun meldet sich mit Wolf Ingomar Faecks einer der führenden Köpfe der deutschen Agenturszene zu Wort - und schlägt sich auf die Seite von Elon Musk. Im Interview mit HORIZONT sagt der scheidende GWA-Präsident: "Es wird noch komplett unterschätzt, was AI für die Gesellschaft bedeutet." Was folgt, ist eine furiose Abrechnung mit einer Entwicklung, die außer Kontrolle zu geraten droht.
von Jürgen Scharrer, Mittwoch, 11. Oktober 2017
Herr Faecks, auf welcher Seite im großen AI-Streit stehen Sie, auf der von Mark Zuckerberg oder Elon Musk? Elon Musk. Das hätte ich nicht erwartet. Die Werber sind doch alle für Zuckerberg. Ich bin ja auch kein Werber.

Stimmt. Wie finden Sie den Streit generell – ein bisschen absurd oder dringend notwendig? Die Diskussion ist überhaupt nicht absurd, sondern extrem notwendig. Ich finde es auch gut, dass die Debatte so bekannte Protagonisten wie Zuckerberg und Musk führen, dadurch erhält das Ganze das notwendige Momentum. Es wird noch komplett unterschätzt, was AI für die Gesellschaft bedeutet. Vieles, was im Zusammenhang von AI diskutiert wird, klingt für mich ziemlich nach Science Fiction. Nein, das ist überhaupt kein Science Fiction. Lassen Sie uns mal mit dem Thema Arbeit beginnen. Bis dato galt: Wenn man gut ausgebildet ist, konnte man sich relativ sicher sein, einen gut bezahlten Job und gesellschaftliche Anerkennung zu bekommen. Nehmen wir exemplarisch den Beruf des Wirtschaftsprüfers. Ein junger Wirtschaftsprüfer macht am Anfang seiner Karriere eigentlich nichts anderes als sich durch Berge von Akten zu arbeiten. Das ist eine in hohem Maße repetitive Arbeit, die heute komplett auf Maschinen übertragbar ist. Diese Maschinen sind in der Lage, Sachverhalte zu verstehen und zu bewerten, wahrscheinlich finden sie sogar besser etwaige Inkonsistenzen. Künstliche Intelligenz entlastet den Menschen also von lästiger, beschwerlicher Routinearbeit. Am Ende brauchen wir dann nur noch einen erfahrenen Wirtschaftsprüfer, der alles noch einmal kompetent bewertet und ein Testat erteilt. Nur, die entscheidende Frage lautet: Wie wird denn jemand überhaupt ein erfahrener Wirtschaftsprüfer?

Indem er davor jahrelang vor allem repetitive Arbeit verrichtet. Kennen Sie das Buch „Überflieger“ von Malcolm Gladwell? Seine These lautet: Um wirklich Experte in einem Thema zu sein, muss ich davor 10.000 Stunden geübt haben. Das gilt für Konzertpianisten, Football-Spieler – eigentlich für alle Tätigkeitsfelder. Für jede Form von Expertise muss man davor 10.000 Stunden gearbeitet haben. Diese Art von Arbeit wird wegrationalisiert.

Du musst erst 10.000 Stunden lang Mediapläne erstellt haben, um ein guter Mediastratege zu sein. Die Hoffnung, große Teile einfach automatisieren zu können und dann den Kopf frei zu haben für die strategische und kreative Arbeit, ist demnach eine Illusion. Es gibt keine Phase 2 ohne eine Phase 1 davor. Genau so ist es. Bisher betraf der technologische Fortschritt vor allem den Blue-Collar-Bereich, der politisch traditionell relativ schwach repräsentiert ist. Wenn nun aber zunehmend auch White-Collar-Jobs wegrationalisiert werden, entsteht gesellschaftlich ein ganz anderer Druck.

Stellt sich die Frage, ob man als Gesellschaft eine solche Entwicklung will – und ob sie überhaupt noch zu stoppen ist. Es ist schon ein bisschen wie in Goethes Ballade vom „Zauberlehrling“: „Die Geister, die ich rief…“. Aber das Thema geht ja noch weiter. Ich habe kürzlich die interessante Zahl gelesen, wonach die drei größten Firmen in Detroit 2014 genauso viel Umsatz gemacht haben wie die drei größten Silicon-Valley-Firmen. Nur: Das Silicon Valley braucht dafür nur ein Zehntel der Arbeitskräfte! Das Ergebnis der Wertschöpfung wird also auf viel weniger Menschen verteilt als bisher. Was wir heute sehen ist auch nicht vergleichbar mit den Produktivitätssteigerungen, die es immer schon gegeben hat. Ein VW-Werk von menschlicher Arbeit auf Roboter-Arbeit umzustellen erfordert gewaltige Investitionen, die sich erst nach vielen Jahren amortisieren. Die Investitionen in KI amortisieren sich dagegen ungleich schneller.

Im Grunde passiert das doch schon längst. Wir sehen die fantastischen Börsenbewertungen von Google und Co und Start-up-Unternehmer, die es in ein paar Jahren zu Multimillionären bringen. Ökonomisch profitiert nur eine kleine Elite von der Digitalisierung – was natürlich auch politisch Fragen aufwirft. Wir haben es mit einer galoppierender Ungleichheit und einer Umverteilung zu tun, die in die falsche Richtung geht. Das muss man ganz klar so sagen.

Jetzt klingen Sie fast wie ein Sozialdemokrat. (lacht) Dazu sage ich jetzt nichts. Wer mich ein bisschen kennt, weiß, wo ich politisch stehe.

Ich frage mich nur, ob AI wirklich die Macht hat, die ihr neuerdings zugeschrieben wird, oder nicht vielmehr von interessierter Seite gehypt wird. Um ein vergleichsweise banales Beispiel zu bringen: Seit Jahren wird uns erzählt, man sei technologisch in der Lage, digital nur noch Werbung auszuspielen, die die Menschen wirklich interessiert. Die tägliche Erfahrung ist: Das klappt zu 5 Prozent - und zu 95 Prozent nicht. So gut sind diese Wunder-Algorithmen offenbar doch nicht. Ja und nein. Der große Unterschied zu früher ist, dass wir heute selbst-referenzielle Systeme haben, die in der Lage sind, sich selbst ständig weiter zu optimieren. Wir sprechen also von selbstlernenden Algorithmen und sich selbst-optimierenden Systemen. Ich bin auch überzeugt, dass die Entwicklung schon viel weiter fortgeschritten ist, als wir alle ahnen. Musk sagt ziemlich deutlich: Ich habe Zugang zu AI-Systemen, die der Öffentlichkeit noch nicht bekannt sind und die mir Angst machen. Das ist ja der Grund, warum er so laut Alarm schlägt und warnt. Ich wette mit Ihnen, dass im Pentagon Sachen entwickelt werden, von denen wir alle nichts wissen wollen. Und nicht nur im Pentagon.
„Ich wette mit Ihnen, dass im Pentagon Sachen entwickelt werden, von denen wir alle nichts wissen wollen. Und nicht nur im Pentagon.“
Wolf Ingomar Faecks
Okay, und was ist jetzt zu tun? Wir erleben eine so unglaubliche Beschleunigung in der AI-Entwicklung, dass es höchste Zeit ist, sich als Gesellschaft über eine vernünftige Risiko-Balancierung Gedanken zu machen. Ich halte das für keine anti-liberale Haltung, tatsächlich haben wir uns doch immer schon auf bestimmte Codices geeinigt, das gilt für die Wirtschaft ebenso wie für die Politik. Denken Sie etwa an die Kriegswaffen-Kontrollgesetze oder den Atomwaffen-Sperrvertrag. Einen solchen Code of Ethics benötigen wir dringend auch für AI. Ich bin kein Freund von sich selbst entfesselnden Marktkräften, die in der Geschichte ja immer auch zu enormen Schäden geführt haben. Vielmehr halte ich Regelwerke und eben auch Reglementierungen für einen ganz wesentlichen Ausdruck unserer Wertesysteme.

Das Problem ist ja, dass man noch überhaupt nicht einschätzen kann, was wirklich auf uns zukommt. Wir haben es bei AI mit einer Art Black-Box-Problem zu tun. Das macht die Sache besonders schwierig, keine Frage. In dem Moment, wo Algorithmen anfangen, sich selbst zu optimieren, ist selbst für den, der die Maschine programmiert hat, nicht mehr genau nachzuvollziehen, was die Maschine eigentlich entscheidet. Das macht es unglaublich schwer, sicherzustellen, auf welcher Ebene eigentlich noch Eingriffsmöglichkeiten bestehen. Wo hat die Maschine den Hosenlatz? Wenn ich den nicht mehr definieren kann, habe ich als Mensch nur noch die Möglichkeit, den Stecker zu ziehen. Und das ist natürlich nicht die Art von Kontrolle, die wir wollen. Das entscheidende Thema lautet für mich daher Transparenz. Was wird wie entschieden? Wir brauchen die Möglichkeit des Nachvollziehens, wir müssen wissen, welche Kriterien einem Algorithmus zugrunde liegen, wie er diese Kriterien gewichtet und welche Steuerungsmöglichkeiten es gibt. Über solche Fragen müssen wir reden.

Erklären Sie noch mal ein bisschen, warum Sie AI für so gefährlich halten, dass der Staat eingreifen muss. Ja, reden wir noch über ein paar konkrete Beispiele wie den Northpointe-Algorithmus. In den USA wurden verurteilte Straftäter auf ihre Rückfall-Wahrscheinlichkeit untersucht, um sie entsprechend zu beobachten. Das Ergebnis war, dass Farbige doppelt so oft rückfällig wurden wie Weiße. Als man sich den Algorithmus daraufhin genauer angesehen hat, stellte sich heraus, dass er einen Race Bias enthielt. Man hatte es also mit einem rassistischen Algorithmus zu tun. Eine andere spannende Frage ist, wie der Mensch in der Interaktion mit der Maschine reagiert. 2014 hat erstmals ein Bot namens Eugene den berühmten Turing-Test bestanden: Testpersonen konnten nicht mehr beurteilen, ob die Antworten, die sie auf ihre Fragen erhielten, von einem Menschen oder einer Maschine kommen.

Trotzdem ein letzter Versuch, die Macht von AI ein bisschen zu relativieren. Es gibt ja auch die Vorstellung, Roboter könnten irgendwann Journalisten ersetzen. Ich halte diese Idee, künstliche Intelligenz wäre jemals in der Lage, einen politischen Leitartikel zu schreiben oder Dinge zu sagen, wie Sie sie in diesem Interview sagen, für komplett absurd. Das sehe ich auch so. Aber in anderen Teilbereichen stellt sich die Lage eben völlig anders dar.

Auch im Marketing, um mal auf Ihre Branche zu sprechen zu kommen? Klar. Die Maschinen ermöglichen zum Beispiel ein ununterbrochenes A-B-Testing, voll automatisiert und wahnsinnig schnell.

Ist das bedenklich oder nicht bedenklich? Man könnte ja sagen: Ist doch toll, dass man jetzt viel schneller kontrollieren kann, wie gut eine Kampagne funktioniert. Klar ist das toll. Dennoch bleibt die Frage, wohin es uns führt, wenn die Adaptionsfähigkeit der Menschen nicht im Ansatz mehr mit der Geschwindigkeit mithalten kann, in der sich seine Umwelt verändert. Und in der Maschinen schneller und verlässlicher Entscheidungen treffen als der Mensch das jemals konnte.

Lassen Sie uns noch kurz bei Marketing bleiben. Man kann ja die These vertreten, AI sei hier völlig unbedenklich, weil es im Grunde nur um effizientere Werbung und individualisierte Services geht. Man kann aber auch die These vertreten, dass das Konzept, die Menschen ununterbrochen zu verfolgen und zu tracken, eine ziemlich kranke Entwicklung ist. Ist es nicht höchste Zeit, das allseits akzeptierte Projekt, mithilfe von Algorithmen und AI eine perfekte Werbeindustrie aufzubauen, kritisch zu hinterfragen? Na ja, der Wunsch, das richtige Produkt zum richtigen Zeitpunkt an den richtigen Konsumenten zu bringen ist so alt wie das Marketing selbst. Mit Zielgruppen-Modellen, Sinus-Milieus et cetera versuchen wir diesen Prozess seit Jahrzehnten immer weiter zu optimieren. Insofern ist das, was gerade passiert, nichts grundsätzlich Neues. Auf der anderen Seite müssen wir uns aber schon die Frage stellen, ob wir für eine immer höhere Zielgenauigkeit inzwischen nicht einen viel zu hohen Preis zahlen. Bisher haben sich die Facebooks dieser Welt derartig rasant entwickelt, dass die Regierungen einfach nicht hinterherkamen. Aber das ändert sich gerade – mit tiefgreifenden Folgen für die Marketing-Industrie.

Was staatliche Eingriffe betrifft, ist die Branche ganz auf der Seite von Zuckerberg. Jede Regulierung wird als anti-marktwirtschaftliches Folterinstrument gebrandmarkt. Klar wird da jetzt laut aufgeheult.

Vordergründig dient die ganze Datensammelei ja nur dazu, die Kunden individueller ansprechen zu können. Wobei das ja auch nicht ganz von der Hand zu weisen ist. Ein vergleichbares Konzept ist der alte Tante-Emma-Laden, wo der Ladenbesitzer weiß, was Sie gerne möchten.

Ist das nicht eine der verlogensten Metaphern überhaupt? Tante Emma, das klingt immer so nett und anheimelnd. Aber Tante Emma wollte nie wissen, in welchen Läden ich sonst noch einkaufe, welche privaten Vorlieben ich habe, welche Texte ich lese und poste, welche Bilder ich mir im Internet ansehe und welchen Leidenschaften ich nachgehe. Ja, Tante Emma ist wohl tatsächlich ein euphemistischer Ausdruck für das, was gerade passiert. Die Informationen, die über uns vorliegen, gehen weit über irgendwelche Produkt-Vorlieben hinaus. Wobei überhaupt nichts dagegen zu sagen ist, wenn ich dank Big Data nützliche Vorschläge und nachvollziehbare Werbung bekomme. Das Problem ist nur: All diese Informationen existieren auch darüber hinaus. Als publik wurde, dass man bei Facebook gezielt Judenhasser adressieren kann, dachte ich nur: „Ernsthaft, ihr habt das als Kategorie angeboten? Seid ihr irre?“ Und dann kam heraus, dass es bei Google genauso ist. Und jetzt überlegen Sie mal, was passiert, wenn solche Informationen in die Hände eines Staates kommen, der anfangen will zu selektieren.

Man sagt ja immer: Zuckerberg hat doch nichts Böses im Sinn. Das glaube ich sogar. Nur will man als Bürger eben nicht ständig dankbar dafür sein müssen, dass diejenigen, die so viel über einen wissen, das nicht für irgendwelche böse Zwecke einsetzen. Ich gebe Ihnen noch ein ganz schlimmes Beispiel, das mir wirklich die Schuhe ausgezogen hat. Beim neuen iPhone können Sie sich per Gesichtsverifikation einloggen, was natürlich toll ist. Nun gibt es aber aus Israel eine Software, die nur aufgrund Ihres Gesichts sagen kann, ob Sie homosexuell sind oder nicht. Auch hier bleibt uns also nichts anderes übrig, als zu hoffen, dass Apple eine anständige Firma bleibt. Aber die Information ist natürlich trotzdem in der Welt.

Wenn du Glück hast, ist Apple nicht homophob, wenn du Pech hast, schon. Theoretisch ist es mit der richtigen Software möglich zu erkennen: Da hat sich gerade wieder ein Schwuler angemeldet. Ich muss zugeben: Als ich das gelesen habe, hat mich das erneut darin bestätigt, nicht hysterisch zu sein. Aufschlussreich ist auch, unter welchem Label diese Forschungen in Israel stattfinden: Terrorbekämpfung. Ich will jetzt nicht in meine beliebtesten Verschwörungstheorien eintauchen, aber: Je mehr uns die Politik ein Gefühl von Unsicherheit und Bedrohung vermittelt, desto ungestörter wird in diese Richtung geforscht.
„Technischer Fortschritt ist immer für beide Seiten nutzbar, für die Guten und die Bösen. Deshalb reicht es nicht, mit offenem Mund die Errungenschaften von AI zu bestaunen. Wir haben es mit einer entfesselten Industrie zu tun, das kann nicht einfach so unreguliert weiterlaufen.“
Wolf Ingomar Faecks
Und wer das kritisiert, bekommt regelmäßig den Satz zu hören: Wenn du nichts zu verbergen hast, hast du doch auch nichts zu befürchten. Ein seltsames Konzept von Privatsphäre. Technischer Fortschritt ist immer für beide Seiten nutzbar, für die Guten und die Bösen. Deshalb reicht es nicht, mit offenem Mund die Errungenschaften von AI zu bestaunen. Wir haben es mit einer entfesselten Industrie zu tun, das kann nicht einfach so unreguliert weiterlaufen. Aber ich würde gerne noch über einen weiteren Bereich sprechen, der mich sehr beschäftigt.

Nur zu. Schauen Sie sich einmal auf Youtube die Filme von Kampfrobotern der Firma Boston Dynamics an. Die Dinger laufen da durch Wald und Schnee, das ist der absolute Wahnsinn. Früher dachte man, wenn man einen Roboter auf den Rücken wirft, dann bleibt er liegen. Die neue Generation ist dagegen unglaublich robust und beweglich, es ist sagenhaft, in welcher Geschwindigkeit diese Dinger immer besser werden. Im Grunde sind auch die ganzen unbemannten Drohnen nichts anderes als Kampfroboter, die selbständig Aufklärung betreiben können. Die größte Angst von Leuten wie Elon Musk ist, dass die Entwicklung im militärischen Bereich so weit fortgeschritten ist, dass sich viele ethische Fragen schon gar nicht mehr stellen.

Wenn man Ihnen so zuhört, wird einem ganz anders. (lacht) Sie wollten ja mit mir reden.

Ich hatte ja auch eher damit gerechnet, dass Sie die Segnungen des technischen Fortschritts für das Marketing loben und preisen. Die gibt es durchaus. Ich bin nicht gegen AI und plädiere auch nicht dafür, alles zu verbieten. Es ist nur höchste Zeit, dass wir uns klar machen, was das, was gerade passiert, für die Gesellschaft und uns Menschen bedeutet.

Sprechen Sie in diesem Interview eigentlich als Agenturchef oder als Bürger Wolf Ingomar Faecks? Wenn Sie mich ein bisschen kennen, wissen Sie, dass ich diese beiden Verantwortungen nicht trenne.

Interview: Jürgen Scharrer
Meist gelesen
stats