planung&analyse Insights 2019

Warum Maschinen keinen Sinn erkennen können

Prof. Dr. Dr. Dr. hc Karl Heinz Radermacher
© Thomas Klink (bild der wissenschaft)
Prof. Dr. Dr. Dr. hc Karl Heinz Radermacher
Als Experte für Datenbanken und Künstliche Intelligenz wird Prof. Franz Josef Radermacher den Besuchern der Insights Konferenz Ende August in Frankfurt die digitale Maschine erklären. planung&analyse sprach mit ihm im Vorfeld über Superorganismen, Kreativität und Missbrauch von Künstlicher Intelligenz.

Sie sind Wirtschaftswissenschaftler, Mathematiker und Experte für künstliche Intelligenz. Wenn man sich Ihre Publikationen und Reden anschaut, geht es da oft um Globalisierung und die zum Teil bedrohlichen Folgen. Was macht Ihnen mehr Sorge, dass eine künstliche Intelligenz die Welt erobern könnte oder dass das eigentlich intelligente Wesen Mensch die Welt zerstört? Beides sind wichtige Fragen. Ich bin in Gedanken meist nicht beim einzelnen Wesen Mensch, sondern bei der Menschheit. Die ist für mich ein intelligenter Superorganismus, der aber in vielen Dimensionen schlechter als ein einzelner Mensch “denkt“, weil er in komplizierten kollektiven Entscheidungsprozessen festhängt – siehe Brexit oder Klima. Auf der anderen Seite sind wir als Menschheit natürlich in vielen Fragen viel besser als jeder Einzelne. Das ist eine relativ komplizierte Wechselwirkung und mich interessiert ganz besonders die Intelligenz eines Superorganismus. Das muss nicht die gesamte Menschheit sein. Auch Unternehmen oder etwa Universitäten sind solche Superorganismen, die letztlich aus Menschen und Maschinen bestehen. Maschinen, die immer intelligenter werden und hochgradig mit den Menschen vernetzt sind. Ich sehe Künstliche Intelligenz als einen Beitrag zur Entwicklung der Intelligenz von Superorganismen, von hybriden Mensch-Technik-Kombinationen. Und die Möglichkeit, sich kollektiv und abgestimmt in relativ kurzer Zeit zu entscheiden, ist durch die sozialen Medien zwischenzeitlich massiv besser geworden, als das bisher der Fall war. Das verändert vollkommen den politischen Kontext. Es ist insofern nicht einfach, die beiden Ausgangsfragestellungen voneinander zu trennen. Für mich ist die Frage vielmehr: Wie geht die Menschheit mit Bedrohungen um und wie nutzt sie dazu die Werkzeuge, die sie entwickelt hat?



Und was glauben Sie, wie wird das ausgehen? Es kann durchaus sein, dass wir als Menschheit mit den neuen Werkzeugen stringenter entscheiden, aber um den Preis des Verlustes von Autonomie und Freiheit des Individuums. Eine einzelne Zelle im Körper des Menschen hat auch nicht viel zu sagen, sie ist hochgradig „versklavt“. Aber sie hat es dafür sehr komfortabel, in einer Umgebung, die für alles sorgt. Wollen wir uns um jeden Preis die Freiheit der Menschen und unsere Fähigkeit erhalten, auch immer wieder „Blödsinn“ zu machen und auf dem Vulkan zu tanzen? Oder wollen wir die Möglichkeiten der KI nutzen und die Fragen, die die kollektive Existenz bedrohen – wie den Klimawandel – angehen? Es ist ohne weiteres möglich, dass wir bei der Klimakatastrophe und anderen Fragen zu einer substanziellen Verschlechterung der Lebensumstände der meisten Menschen kommen, wenn wir so weitermachen wie bisher. Das ist ein ernstes Risiko. Es kann genauso sein, dass wir über die KI substanzielle Teile unserer Freiheit verlieren, wenn wir uns von dieser Seite Lösungen erhoffen. Möglicherweise, weil Macht-Promotoren KI-Systeme benutzen, um ihre Macht zu vergrößern und Systeme entwickeln, die man vernünftigerweise nicht entwickeln sollte.

Sie warnen davor, dass es eine Macht geben könnte, die KI nutzt, um mächtiger zu werden? Denken Sie an China? Manche haben Angst, dass eine Maschine durch Künstliche Intelligenz plötzlich eine sogenannte Singularität erfährt und Bewusstsein entwickelt. Da habe ich vorläufig wenig Sorge. Ich glaube nicht, dass wir in absehbarer Zeit Systeme bauen können, bei denen eine Singularität eintritt. Vielleicht geht das sogar prinzipiell nicht. Aber es ist natürlich hochattraktiv über KI Gesellschaften zu steuern, so wie es die Chinesen mit dem Social-Credit überlegen. Man kann KI Maschinen aber auch für kriminelle oder militärische Aktivitäten nutzen. Da denke ich nicht unbedingt nur an einen Staat. Denkbar sind sehr mächtige Einzelakteure, die diese Systeme für ihre Interessen nutzen wollen. Manche sind maßlos. Da will Facebook doch tatsächlich ein eigenes Geldsystem schaffen ohne dies politisch abzustimmen. Einfach so als vollendete Tatsache. Geldsysteme sind etwas so Delikates, so Schwieriges und so Komplexes, da sollten unbedingt Staaten und Notenbanken für Ordnung sorgen.


Düstere Aussichten. Aber Sie haben eben von Social Media gesprochen. Gibt es eine Schwarmintelligenz? Ich bin da vorsichtig, weil Schwärme meist nicht besonders intelligent sind. Anders sind da Insektenstaaten. Ein Insektenstaat ist ein gutes Beispiel für einen intelligenten Superorganismus, der viel mehr als die einzelne Ameise kann, weil er das Leistungsvermögen der Einzelnen koordiniert. Dagegen gibt es Schwärme, wie etwa die Lemminge, die sich in der Größe ganzer Völker über Klippen in die Tiefe stürzen. Oder denken Sie an Bisonherden, die durch Menschen mit Gewehren vernichtet werden , wenn das Leittier tot ist, weil dann die übrigen Tiere nicht wissen, ob sie losrennen sollen. Da funktioniert die Schwarmintelligenz in vielen Fällen nicht. Wir Menschen profitieren sehr davon, dass wir die Fähigkeit des Einzelnen mit der Fähigkeit der Gruppe kombinieren. Aber ich habe noch nie erlebt, dass in einer Gruppe eine wirklich kreative Idee entstanden wäre. Es kann sein, das jemand in einer Gruppe eine Idee hat, die er geschickt so einbringt, dass die Gruppe das Gefühl hat, sie hätten die Idee gemeinsam erschaffen. Das kann für den weiteren Prozess hilfreich sein, weil dies eine hohe Identifikation via kollektivem „Ownership“ erlaubt. Aber die Idee entstand trotzdem nicht kollektiv. Eine Gruppe kann aber eine Idee im Laufe des Prozesses modifizieren und verbessern. Das ist wichtig und Teil einer klugen Arbeitsteilung zwischen Individuen und Gruppen.
Prof. Dr. Dr. Franz Josef Radermacher
war Professor für „Datenbanken und Künstliche Intelligenz“ an der Universität Ulm und ist Vorstand des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung/n (FAW/n). Radermacher promovierte 1974 an der RWTH Aachen in Mathematik. Seine zweite Promotion schloss er 1976 in Wirtschaftswissenschafte an der Universität Karlsruhe. Seine Habilitation in Mathematik erfolgte 1982 an der RWTH Aachen. Von 1983 bis 1987 war Radermacher Professor für Angewandte Informatik an der Universität Passau. Seit 1987 leitet er das Forschungsinstitut für anwendungsorientierte Wissensverarbeitung (FAW bzw. FAW/n) in Ulm. Im selben Jahr wurde er Professor für Datenbanken und Künstliche Intelligenz an der Universität Ulm. Von 1988 bis 1992 war er Präsident der Gesellschaft für Mathematik, Ökonomie und Operations Research (heute: Gesellschaft für Operations Research (GOR)). In den folgenden Jahren entwickelte sich Radermacher zu einem Experten für Globalisierungsgestaltung, Innovation, Technologiefolgen, umweltverträgliche Mobilität, nachhaltige Entwicklung und Überbevölkerung. Radermacher ist einer der geistigen Väter der Global Marshall Plan Initiative und der zugrunde liegenden Zielvorstellung einer weltweiten Ökosozialen Marktwirtschaft.
Apropos Kreativität. Maschinen mit KI können doch auch Kunst und Musik schaffen. Ist das nicht schon eine sehr menschliche Eigenschaft? Ja und nein. Bei fast allem, was ein Mensch tut, lässt sich auf Dauer eine Systematik erkennen. Also kann man eine Methode finden, wie ein Song oder ein Gedicht zu entwickeln ist. Ich habe einen Kollegen, der arbeitet an der Operationalisierung von Theaterstücken. Und er hat einen Algorithmus entwickelt, wie man aus verschiedenen Elementen ein Theaterstück konstruieren kann. Und Maschinen können interessante Dinge entwickeln, bis zu Witzen. Aber es gibt in diesen Fällen bis heute immer eine Metaebene, die als Schablone benutzt wird. Die KI produziert gemäß dieser Schablone. Das kann im Ergebnis super sein, ein tolles Gedicht, ein tolles Musikstück. Der Hinweis auf eine Schablone ist also nicht abwertend gemeint. Denn der Künstler entwickelt auch seine Methoden. Deshalb kann man an einem Bild oft den Künstler erkennen, ohne die Unterschrift zu lesen. Wir wissen zum Beispiel, dass große Künstler, wie Michelangelo, mehr Werke hinterlassen haben, als sie alleine zu Lebzeiten hätten produzieren können. Es gab nämlich im Hintergrund Werkstätten mit vielen Helfern, die Kunstwerke nach einer bestimmten Methode weitgehend finalisiert oder vorbereitet haben.

Es geht also darum, Muster zu erkennen und auszufüllen? So simpel? Ja, wobei simpel als Klassifikation nicht fair ist. Warum sind Maschinen in den strategischen Spielen wie Schach oder Go am besten? Sie können in kurzer Zeit Millionen und Abermillionen Partien gegen sich selbst spielen. Jede dieser Maschinen kann deshalb mehr Partien spielen, als alle Menschen zusammen je gespielt haben. Das heißt, sie haben den größten denkbaren Beispielsatz. In diesem riesigen Beispielbestand finden sie Muster, die Basis für Schablonen sind. Im Weiteren nutzen sie dann die Schablone, während sie sie gleichzeitig weiter verbessern.

Es wird häufig humane Intelligenz und künstlich Intelligenz gegenübergestellt. Wäre es nicht möglich, dass die Maschinen ganz andere Wege finden und auf ganz andere Weise fruchtbar werden? Anders ausgedrückt: Müssen Maschinen „human centric“ sein, oder sollten sie das? Weder noch. Maschinen sind in der Art, wie sie arbeiten, total verschieden vom Menschen. Nehmen Sie eine Analogie: Das Fliegen. Adler fliegen und Flugzeuge fliegen. Offenbar tun sie das auf sehr verschiedene Weise. Nehmen wir nochmals das Beispiel Schach: Die Leistungsfähigkeit des Menschen besteht darin, dass er mit einem begrenzten Beispielmaterial mit seiner Assoziationsfähigkeit zum nächsten Zug kommt. Die Maschine macht das ganz anders. Sie kann aufgrund ihrer Rechnerpower hunderte Millionen Stellungen anschauen. Dann nutzt sie einen Algorithmus,  mit dem sie die Qualität von Stellungen bewertet. Damit berechnet sie die Gewinnwahrscheinlichkeit der jeweiligen Stellung und wählt den Zug mit der höchsten Gewinnwahrscheinlichkeit aus. Der Mensch hat viel weniger Beispielmaterial zur Verfügung und muss stattdessen mehr von dem einsetzen, was wir Intelligenz oder Intuition nennen. Das ist nicht dasselbe. Es gibt auch überhaupt keinen Grund, warum Mensch und Maschine gleich arbeiten sollten.

Was kommt auf dem Menschen zu? Das Moore´sche Gesetz kommt an sein Ende. Warum? Ja, das stimmt. Das Moore´sche Gesetz als empirische Beobachtung besagt, dass sich digitale Prozesse, die sich mit 0 und 1 darstellen lassen, alle 20 Jahre um den Faktor 1000 beschleunigen. Das gelingt, weil sich 0 und 1 auf einer immer kleineren Fläche darstellen lassen. Mit anderen Worten, ein Chip wird pro Repräsentation und Rechenoperation rasant schnell kleiner und billiger. Oder anders herum, für dieselben Kosten können viel mehr Zahlen repräsentiert und miteinander verknüpft werden. Wir sind aber bezüglich der Repräsentation von 0 und 1 heute in der Nähe einzelner Atome angekommen. Damit wird der Prozess physikalisch instabil und kommt damit bald zu Ende. Wir sind aber schon so weit fortgeschritten, dass das nicht tragisch ist.

Und wie sieht die Weiterentwicklung der Maschinen mit KI dann aus? Aus heutiger Sicht wird es in der Weiterentwicklung vor allem um die Qualität der Algorithmik gehen. Heute stützt man sich vor allem auf sogenannte neuronale Algorithmen auf großen Datenmengen ab –„Big Data“. Das wird nicht reichen. Maschinen werden eine modellhafte Beschreibung der Welt auf der Basis geeigneter Begriffsysteme und logisch-sprachlicher Zusammenhänge brauchen – so wie wir auch. Das ist schwierig. Die früheren Forschungen zu diesem Thema werden heute kaum weiterverfolgt. Die großen Anbieter sind primär an den Daten interessiert. Aber man wird wieder darauf zurückkommen. Anders ist unser Verständnisniveau als Menschen über die Welt für KI Systeme nicht erreichbar.
planung&analyse Insights 2019
Die Marktforschung leidet darunter, dass heute jeder meint, auf Knopfdruck genug Insights zu bekommen, um Entscheidungen für neue Produkte treffen zu können. Dabei lassen sich wahre Insights eher von Menschen finden. Was kann die Branche tun, um die Digitalisierung zu überleben? Das erinnert mich an die Situation der Übersetzer. Hochwertige Übersetzungen sind eine unglaubliche kognitive Leistung. Eine „Königsebene“ menschlicher Intelligenz. Das kann bis heute keine Maschine leisten. Aber jemand, der hochwertig übersetzt, kann eine Maschine benutzen, um sehr viel schneller mit der Übersetzung fertig zu werden. Diese Maschine kann ihm unter Umständen 80 oder 90 Prozent der Arbeit abnehmen. Jetzt ist die Frage: Werden die Spezialisten zukünftig nicht mehr gebraucht und verlieren ihren Arbeitsplatz? Oder wird bei sinkenden Preisen viel mehr übersetzt werden als heute und die Qualitätssicherung weiter durch den Menschen erfolgen, und zwar durch Spezialisten hoher Qualität. Marktforscher müssen in erster Linie ihre Kunden überzeugen, dass sie mit dem, was sie schaffen, einen Mehrwert erzeugen. Mehrwert erzeugen sie unter Nutzung von Tools. Das Tool alleine kann diesen Mehrwert nicht erzeugen. Und schlechte „Experten“ auch nicht. Hier gilt der Satz „a fool with a tool is still a fool“. Den Sinn erkennen die Menschen, und zwar solche, mit besonderen Qualitäten. Ich habe noch keine Maschine gesehen, die in irgendwas einen Sinn erkennen kann, so wenig, wie Maschinen wirklich etwas fühlen können. In der Marktforschung ist das ähnlich. Die ultimative Qualität erzeugt der Mensch – und zwar ein Mensch, der in seinem Metier wirklich gut ist. Solche Personen werden immer gebraucht. Und haben immer wieder Chancen für interessante Aufträge und Aufgaben.

Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
stats