Grenzen von künstlicher Intelligenz

Next Big Think Okt. 05, 2020

Folge 1: Technologie und Daten

Es ist ein beliebtes Szenario in Science-Fiction-Filmen: Die böse Super-Intelligenz übernimmt die Weltherrschaft, Roboter unterwerfen die Menschheit. In Filmen fesselt diese Dystopie Zuschauer richtiggehend - doch müssen wir uns ernsthaft Sorgen machen, dass Maschinen irgendwann intelligenter sind als wir? Aussagen von Personen, die etwas von der Materie verstehen, lassen durchaus aufhorchen. So sagte der 2018 verstorbene Physiker Stephen Hawking:

Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks.

Und auch Tesla-Gründer Elon Musk, der selbst intelligente Systeme in seinen Produkten verbaut, warnt:

The risk of something seriously dangerous happening is in the five-year timeframe. 10 years at most.

Grund genug, sich das Können aber auch die Grenzen der künstlichen Intelligenz (KI) etwas genauer anzuschauen.

Wo die KI den Menschen übertrifft

Besonders fortgeschritten ist die künstliche Intelligenz heute vor allem in der Mustererkennung. Sie kann in riesigen Datenmengen Zusammenhänge und Abhängigkeiten finden, daraus Voraussagen treffen und Entscheidungen ableiten. Die Analyse solch riesiger Datenberge würde die Kapazität des menschlichen Gehirns bei weitem sprengen. Durch den KI-Einsatz können Teilaufgaben automatisiert und dadurch effizienter erledigt werden.

In der Lage dazu ist die KI dank Massen an Trainingsdaten, die ihr von menschlichen Entwicklern zur Verfügung gestellt wurden. Nehmen wir das Beispiel des autonomen Fahrens: Entwickler legen der KI tausende Bilder von Stopp-Schildern in unterschiedlichen Kontexten vor, sagen ihr, was diese bedeuten. Die KI lernt so nach und nach Stopp-Schilder im Straßenverkehr zu erkennen und entsprechend zu reagieren. Je mehr unterschiedliche Bilder die KI von Stopp-Schildern zur Verfügung hat, desto präziser und verlässlicher kann sie sich im Straßenverkehr verhalten.

An ihre Grenzen stößt die KI jedoch in Situationen, die sie nicht kennt, die also nicht in den Trainingsdaten abgebildet sind. Denken wir an die Szene aus dem Simpsons-Film, in der Homer ein Stopp-Schild selbst bastelt. Auf braunen Pappkarton kritzelt er „Sop!“ und stellt es an den Straßenrand. Das Schild erfüllt seinen Zweck: Die menschlichen Fahrer erkennen die Bastelei als Stoppschild und halten an. Was hätte die KI gemacht? Der KI wurde beigebracht: Stoppschilder sind rot, weisen den Schriftzug „Stopp“ auf. Homers braunes, falsch beschriftetes Schild erfüllt keines dieser Kriterien. Es gleicht nicht mal einem ausgeblichenen, verrosteten oder kaputtem Schild, von welchen sehr wahrscheinlich Bilder in den Trainingsdaten vorhanden sind.

Menschliches und maschinelles Lernen

In solchen Situationen sind Menschen der KI nach wie vor überlegen, weil wir zur Lösung von Problemstellungen auf unser Vor- und Allgemeinwissen zurückgreifen und das Problem im jeweiligen Kontext betrachten können. Wir greifen dabei sowohl auf eigene Erfahrungen zurück als auch auf das Wissen, das uns über Generationen weitergegeben wurde. Können wir eine komplexe Problemstellung nicht lösen, so hilft uns der iterative Prozess der Wissenschaft weiter: Wir stellen Hypothesen auf, führen Experimente und Untersuchungen durch, versuchen Annahmen zu bestätigen oder zu widerlegen. Die künstliche Intelligenz verfügt jedoch nicht über entsprechendes Transferwissen oder solche Fähigkeiten.

Jetzt mag manch einer zu Recht sagen: Durch maschinelles Lernen und Deep Learning ist doch auch die KI in der Lage, dazu zu lernen. Das stimmt – doch unterscheidet sich dieses Lernen durchaus vom menschlichen. Wir Menschen können implizit lernen, also spielerisch und experimentierend. Ein Kind erlernt seine sprachlichen Fähigkeiten nicht an einem bestimmten Tag, sondern Schritt für Schritt von Geburt an. Die KI hingegen kann nicht implizit lernen, sondern nur explizit auf Grundlage der ihr zur Verfügung gestellten Daten. Vereinfacht gesagt: Entwickler legen der KI einen Duden mit allen Wörtern und Grammatikregeln vor, die KI lernt die Sprache auswendig. Intelligente Systeme können zwar durch entsprechende Algorithmen ihre Fähigkeiten stets verbessern, neue Formulierungen lernen, den Wortschatz erweitern. Doch das grundsätzliche Erlernen der Sprache erfolgt nicht implizit, sondern auf Basis der Trainingsdaten.

Das unterschiedliche Lernen zeigt sich auch bei Experimenten mit Computerspielen, die KI-Forscher immer wieder durchführen. Künstliche Intelligenz ist relativ schnell in der Lage, die Regeln von Computerspielen zu erfassen und Aufgaben erfolgreich zu bewältigen. Beim bekannten Arcade-Spiel „Breakout“ von Atari muss man Blöcke zerstören, indem ein Ball mittels einer waagrecht verschiebbaren Plattform in die Luft gespickt wird. Dieses Spiel versteht die KI schnell und kann es nach kurzer Zeit zuverlässiger als jeder menschliche Spieler. Nimmt man eine kleine Regeländerung vor, beispielsweise eine leichte Anschrägung der Plattform, kann der Mensch sein Spielverhalten relativ schnell anpassen. Die KI hingegen stellt auch nur schon diese kleine Änderung vor eine komplett neue Problemstellung. Die davor exakt berechnete Erfolgsstrategie bringt nichts mehr, die KI muss wieder bei null anfangen und das Spiel mit der Regeländerung neu erlernen.

Wird künstliche Intelligenz überbewertet?

Die Beispiele zeigen: Künstliche Intelligenz funktioniert heute noch sehr problemspezifisch. KI kann sich eine Lösung für eine konkrete Problemstellung erarbeiten, Verallgemeinerungen und Übertragungen in einen anderen Kontext fallen ihr jedoch schwer. Man fragt sich also – haben die klugen Köpfe wie Musk oder Hawking mit ihren Warnungen also unrecht?

Eher unwahrscheinlich ist die eingangs beschriebene Science-Fiction-Vorstellung, in der sich böse Roboter erheben und uns knechten werden. Auf solche Szenarien zielen die Warnungen jedoch nicht ab. Uns muss aber jederzeit bewusst sein, dass künstliche Intelligenz ein auf Rationalität basiertes mathematisches Konstrukt ist. Unser menschliches Handeln wiederum basiert nicht nur auf Rationalität, sondern auch auf Moral, Ethik und Emotionen. Ist uns dies nicht bewusst, so könnte es durchaus zu unschönen Entwicklungen kommen.

Ein Beispiel: Anhand großer Mengen an medizinischen Daten kann KI bereits heute Ursachen und Verlaufsmuster von Krankheiten erkennen, die dem menschlichen Arzt nicht auffallen würden. Ebenso kann sie notwendige Behandlungen vorschlagen. Würde man die KI so verknüpfen, dass sie von der Diagnose bis zur Behandlung komplett selbstständig handelt, so könnte sie Maßnahmen ergreifen, die einem menschlichen Arzt nicht mal in Traum einfallen würden. Bei einem Patienten mit einer höchstansteckenden Krankheit könnte die KI beispielsweise zum Schluss kommen, dass es rational am klugsten ist, den Patienten zu töten und so weiteren Schaden zu verhindern. Eine für die KI rational ganz klare Antwort – für den Menschen jedoch undenkbar.

Noch sind wir weit von solchen Szenarien entfernt. Für viele Anwendungen sind nur schon die technologischen Voraussetzungen nicht gegeben, beispielsweise genügend Kapazitäten der Rechenleistungen oder das Vorhandensein genügend qualitativer Daten. Doch Technologie entwickelt sich schnell, in naher Zukunft wird schon vieles möglich sein. Vor der KI deshalb Angst zu haben, ist nicht nötig. Es sollte aber stets daran gedacht werden, dass künstliche Intelligenz anders funktioniert als die menschliche. Bei der Entwicklung muss darum stets mit Augenmaß, ethischen Grundsätzen und Vernunft gehandelt werden. Und trotz allem sollte man nicht vergessen - KI ist nicht schlecht:

The coming era of Artificial Intelligence will not be the era of war, but be the era of deep compassion, non-violence, and love. (Amit Ray, Autor und spirtitueller Meister)

Fünf Grenzen der künstlichen Intelligenz:

  1. Künstliche Intelligenz ist auf riesige Datenmengen angewiesen. Verfügt sie über diese nicht, so stößt sie an ihre Grenzen.
  2. KI kann heute nur explizit auf Grundlage von Daten lernen, jedoch nicht wie wir Menschen implizit.
  3. Wir Menschen können Verallgemeinern und Probleme in verschiedene Kontexte setzen. Die KI hingegen kann dies nicht.
  4. Für die schnelle und umfassende Analyse von Daten ist die KI auf hohe Rechenleistungen angewiesen. Rechenleistungen werden zwar immer besser, doch für viele KI-Anwendungen sind sie heute noch nicht gut genug.
  5. Für die KI stehen für viele Anwendungen Daten nicht in entsprechender Qualität und Quantität zur Verfügung. Datensilos müssen erst aufgebrochen und Datenquellen erschlossen werden.

Beim Newsletter anmelden und keinen Artikel mehr verpassen

Die spannendsten Artikel der Woche jeden Freitag direkt in Ihr Postfach

* Pflichtfeld

Dominic Hauser

Dominic Hauser ist Redakteur bei fintechcube. Davor war er in Bern als politischer Redakteur tätig und beschäftigte sich nach seinem Umzug nach Berlin mit der Digitalisierung des Public Sectors.