Artificial Intelligence – Hype oder Heilsbringer

An Artificial Intelligence (AI, Künstliche Intelligenz) scheiden sich die Geister. Während die einen das Weltende erahnen und zum Widerstand aufrufen, bekommen andere glänzende Augen bei der Vorstellung einer digitalen Assistentin, die ihnen Wünsche erfüllt, die sie noch gar nie hatten.

Der Ursprung dieser Spannung liegt in der Wiedererweckung der AI aus ihrem Winterschlaf in 2003 durch die amerikanische DARPA. Die DARPA organisiert die militärische Forschung der USA. Internet & GPS entstanden in ihrer Initiative. Im Rahmen des Future Combat Systems der Army sollten ganz profan selbstfahrende Versorgungseinheiten aufgebaut werden.

Der gar nicht profane Hype startete drei Jahre später mit Ray Kurzweils Buch „Singularity“. Kurzweil sagte voraus, dass Computer sich demnächst selbst werden programmieren können, worauf eine exponentielle Steigerung der Intelligenz von AI Systemen erfolgen würde. In diese super-intelligente AI möchte er seinen Geist gerne hochladen, um Unsterblichkeit zu erlangen. Nun ist seitdem das Gegenteil seiner Vorhersage eingetreten. Programmierer sind gesucht wie nie – die AI programmiert sich in keiner Weise von selbst.

Andererseits stehen die vergleichsweise profanen Ziele der DARPA vor der Realisierung: Selbstfahrende Fahrzeuge sind im Test erfolgreich unterwegs.

In diesem Spannungsfeld zwischen extremem Hype und praktischen Erfolgen haben wir Ende 2016 einen Future Talk im neuen Veranstaltungsraum der Daimler Forschung und unserer Kommunikation, dem „Extended Wohnzimmer“ in Berlin ausgerichtet. Ziel war es einen eigenen Daimler Pfad gemeinsam mit Experten zu diskutieren.

Lässt sich das Hirn simulieren?

Als externe Experten eingeladen waren der AI Forscher Prof. Jürgen Schmidhuber, und Prof. Miguel Nicolelis, ein Hirnforscher. Während Jürgen sozusagen der Ray Kurzweil des deutschen Sprachraums ist, hat Miguel 2015 in der Relativistic Brain Theory dargestellt, dass mit digitalen Computern prinzipiell keine echte Intelligenz zu erlangen sei. Biologische Gehirne lassen sich nicht digital simulieren, also wird es kein künstliches Bewusstsein geben, und damit keine Singularity im Sinne Kurzweils.

Prof. Dr. Jürgen Schmidhuber, IDISIA Schweizer Forschungsinstitut für Künstliche Intelligenz

Jürgen hingegen ist überzeugt, dass AI nicht nur heute schon in seinem Schweizer Labor Emotionen wie Freude und Neugier empfindet, sondern übermenschliche Fähigkeiten entwickeln wird. Mit diesen Fähigkeiten ausgestattet, werden AI Maschinen sich dann in der ganzen Galaxis ausbreiten – Zeit spielt für die Maschinen keine Rolle, daher können sie jede Entfernung überwinden. Jürgen Schmidhuber hat in seinen Laboren wegweisende Algorithmen zu maschinellem Lernen entwickelt. Einige seine Mitarbeiter sind inzwischen zu DeepMind gewechselt. DeepMind, gegründet vom Wunderkind Demis Hassabis, hat mit AlphaGo eines der führenden AI Programme, basierend auf maschinellem Lernen entworfen.

Exoskelett, über Hirnwellen gesteuert

Miguel ist am bekanntesten für seine Arbeiten an Brain-Machine Interfaces. Weltweites Aufsehen erregten seine Arbeiten 2014 beim Anstoss der Fußball WM in Brasilien: Juliano Pinto, 29 Jahre alt und querschnittsgelähmt, konnte mit einem Exoskelett, direkt über Hirnwellen gesteuert, eigenständig antreten und den Ball ins Feld kicken. Aktuell arbeitet sein Lab in der Duke University an Interfaces, mit denen die Sinneswahrnehmung durch Sensoren erweitert werden kann.

Dr. Miguel Nicolelis, Duke Center für Neuroengineering

Als interne Experten waren Uwe Franke für das Bildverstehen eingeladen, sowie Patrick Klingler mit seinem Prototypen eines Chatbots. Ich versuchte in meinem Vortrag pragmatisch die machbare AI von ihrem Hype Anteil zu trennen, um so den Blick für die realen Chancen der Technologie zu öffnen.

Anke Kleinschmit, Leiterin der Konzernforschung, betonte, wie wichtig unsere eigene Forschungsarbeit an der künstlichen Intelligenz ist. Denn AI ist keine Domäne der Tech Industrie alleine, sondern integraler Bestandteil zukünftiger Mobilität. Autonomes Fahren wird Mobilität mit intelligenten und lernenden Fahrzeugen nicht nur komfortabler, sondern sehr viel sicherer machen.

Anke Kleinschmit, Leiterin Konzernforschung

Herausragend war dies an den Fortschritten zu erkennen, die Uwe Franke, in der Daimler Forschung und Entwicklung für das Thema Bildverstehen beim autonomen Fahren zuständig, zum eben diesem Thema vorführte. Selbst auf regennaß spiegelnden Straßenszenen wurden Radfahrer und verdeckte Fußgänger erkannt.

Anhand des Bildverstehens konnte maschinelles Lernen sehr gut erklärt werden. Es ist kein Lernen in unserem Sinne, die Maschine kennt keine ‚Aha‘ Momente. Vielmehr wird das lernende Netz in geduldiger Ingenieursarbeit mittels ausgewählter Bilder und Videosequenzen trainiert. Die zu erkennenden Bildbestandteile werden klassifiziert.

Dr. Uwe Franke, Leiter Bildverstehen, kameragestützte Fahrerassistenzsysteme

Bildbestandteile, die nicht klassifiziert sind, werden nicht erkannt. Im Karneval als Fantasiewesen verkleidete Kinder beispielsweise wären für das System nicht klassifizierbar. Daher ist das Erkennungssystem im Fahrzeug eingekapselt, und wird von anderen Systemen ergänzt. Wenn vor dem Fahrzeug sich also für den Bilderkenner etwas Unklassifizierbares befindet, wird es von anderen Systemen als Hindernis erkannt, und das Fahrzeug bremst selbsttätig ab.

Die öffentliche Diskussion zu Artificial Intelligence

Wie heiß das Thema AI ist, zeigte sich daran, dass unser Future Talk durch andere Veranstaltungen in einer aktuellen und einer historischen Perspektive eingebettet war. Am Abend vorher fand eine Paneldiskussion zu ‚Künstliche Intelligenz, Fluch oder Segen‘ im Disput!Berlin statt.

Das Jüdische Museum zeigte bis zum 29. Januar mit dem Golem eine Ausstellung zum mythischen künstlichen Wesen, erschaffen aus Sand und Buchstaben – eine Parallele zu der künstlichen Intelligenz, die aus Silizium und Code erschaffen werden soll.

Nach der Paneldiskussion wurde vom Publikum knapp in Richtung ‚Fluch‘ abgestimmt – kein Wunder bei manchen an Fake-News grenzenden Meldungen zu AI.

Golem, von Joshua Abarbanel, fotografiert in der Ausstellung Golem, jüdisches Museum Berlin

Der Konflikt entzündet sich immer wieder neu an übersteigert fantastischen Erwartungen, die mit Erlösungshoffnungen oder Untergangsängsten gepaart hochkochen. Den Test gegen solche, von Angstlust befeuerten Erwartungen, kann die Technologie nie bestehen. Wenn die Emotion dann in die entgegengesetzte Richtung ausschlägt, wird die Technologie abgelehnt, obwohl sie großen Nutzen bieten kann.

Das „Gespräch“ mit der Maschine

Eine Klippe, an der AI bisher immer scheiterte, ist die interaktive Verwendung von Sprache, sei es in einem Chat, oder im gesprochenen Wort. Die Verwendung von Sprache impliziert für uns Bewusstsein, Verständnis, Einfühlung und Intention. Die Erkennung von Emotionen anhand von Hautspannung und Blickrichtung ist jedoch keine Einfühlung, sie täuscht es nur vor.

Ebenso ist die potentielle Reaktion darauf lediglich eine Aneinanderreihung von „Verhaltensimitaten“. Eine geschickte Zusammenstellung vom Worten kann uns dazu anregen in der Zusammenstellung Sinn zu erkennen – kann aber auch einfach zu ungläubigem Gelächter führen. Versuche mit Google Translate sind erhellend.

Natürlich können wir uns an eine AI Sprache adaptieren – jedoch nur auf Kosten der Reputation dieser AI. Vertraut man einer manchmal sehr dummen Maschine? Wird man die Flug- oder Hotelauswahl des Digital Assistant im Nachhinein kontrollieren? Hat die Funktion dann noch einen Sinn?

Diese Fragen lassen sich durch einen kooperativen Ansatz lösen, in dem menschliche Talente und maschinelle Fertigkeiten ergänzend kombiniert werden. Im Projekt Kooperatives Fahrzeug, aufbauend auf den Ideen des F015, arbeiten wir daran. Jedoch muss parallel dazu der Blick auf AI geklärt werden. Eine Bewertung als Fluch oder Segen ist jedenfalls nicht hilfreich.

Vielleicht kann man den Mindset auf die folgende Art in eine produktive Richtung wenden: Auf die Frage, wann denn endlich die AI von banaler Bilderkennung zu echtem Bewusstsein fortschreiten wird, antwortet Demis Hassabis von DeepMind diplomatisch:

In 20–25 Jahren vielleicht, aber bis dahin werden sehr viele nützliche Funktionen mit AI programmierbar sein.

Die letzten 5 Kommentare

  1. Reach for the stars!

    Lisa: Habe gerade den Artikel gelesen und wollte nur mal eben ein großes Kompliment dafür...

  2. SxSW: BBQ, Blockchain, Karten und das Auto der Zukunft

    Sascha Pallenberg: HERE hat die meissten Strassen der Welt kartographiert. Es geht hier vor allen...

  3. Einfach Technik: So funktioniert DISTRONIC PLUS

    hugowilhelm: Ich habe als Rechtsfahrer (nicht ständig Mittelspur) auf der AB folgendes Problem:...

  4. Mein Duales Studium bei Daimler

    Martin: Ein sehr schöner Artikel. Ich finde es immer sehr interessant zu lesen, wie die ersten...

  5. Cross-Company Exchange mit LG Electronics

    Benjamin Schmidt: Sehr schön geschrieben und interessant! Ich freu mich jetzt schon darauf Anfang...