Artificial Intelligence – Hype oder Heilsbringer

An Artificial Intelligence (AI, Künstliche Intelligenz) scheiden sich die Geister. Während die einen das Weltende erahnen und zum Widerstand aufrufen, bekommen andere glänzende Augen bei der Vorstellung einer digitalen Assistentin, die ihnen Wünsche erfüllt, die sie noch gar nie hatten.

Der Ursprung dieser Spannung liegt in der Wiedererweckung der AI aus ihrem Winterschlaf in 2003 durch die amerikanische DARPA. Die DARPA organisiert die militärische Forschung der USA. Internet & GPS entstanden in ihrer Initiative. Im Rahmen des Future Combat Systems der Army sollten ganz profan selbstfahrende Versorgungseinheiten aufgebaut werden.

Der gar nicht profane Hype startete drei Jahre später mit Ray Kurzweils Buch „Singularity“. Kurzweil sagte voraus, dass Computer sich demnächst selbst werden programmieren können, worauf eine exponentielle Steigerung der Intelligenz von AI Systemen erfolgen würde. In diese super-intelligente AI möchte er seinen Geist gerne hochladen, um Unsterblichkeit zu erlangen. Nun ist seitdem das Gegenteil seiner Vorhersage eingetreten. Programmierer sind gesucht wie nie – die AI programmiert sich in keiner Weise von selbst.

Andererseits stehen die vergleichsweise profanen Ziele der DARPA vor der Realisierung: Selbstfahrende Fahrzeuge sind im Test erfolgreich unterwegs.

In diesem Spannungsfeld zwischen extremem Hype und praktischen Erfolgen haben wir Ende 2016 einen Future Talk im neuen Veranstaltungsraum der Daimler Forschung und unserer Kommunikation, dem „Extended Wohnzimmer“ in Berlin ausgerichtet. Ziel war es einen eigenen Daimler Pfad gemeinsam mit Experten zu diskutieren.

Lässt sich das Hirn simulieren?

Als externe Experten eingeladen waren der AI Forscher Prof. Jürgen Schmidhuber, und Prof. Miguel Nicolelis, ein Hirnforscher. Während Jürgen sozusagen der Ray Kurzweil des deutschen Sprachraums ist, hat Miguel 2015 in der Relativistic Brain Theory dargestellt, dass mit digitalen Computern prinzipiell keine echte Intelligenz zu erlangen sei. Biologische Gehirne lassen sich nicht digital simulieren, also wird es kein künstliches Bewusstsein geben, und damit keine Singularity im Sinne Kurzweils.

Prof. Dr. Jürgen Schmidhuber, IDISIA Schweizer Forschungsinstitut für Künstliche Intelligenz

Jürgen hingegen ist überzeugt, dass AI nicht nur heute schon in seinem Schweizer Labor Emotionen wie Freude und Neugier empfindet, sondern übermenschliche Fähigkeiten entwickeln wird. Mit diesen Fähigkeiten ausgestattet, werden AI Maschinen sich dann in der ganzen Galaxis ausbreiten – Zeit spielt für die Maschinen keine Rolle, daher können sie jede Entfernung überwinden. Jürgen Schmidhuber hat in seinen Laboren wegweisende Algorithmen zu maschinellem Lernen entwickelt. Einige seine Mitarbeiter sind inzwischen zu DeepMind gewechselt. DeepMind, gegründet vom Wunderkind Demis Hassabis, hat mit AlphaGo eines der führenden AI Programme, basierend auf maschinellem Lernen entworfen.

Exoskelett, über Hirnwellen gesteuert

Miguel ist am bekanntesten für seine Arbeiten an Brain-Machine Interfaces. Weltweites Aufsehen erregten seine Arbeiten 2014 beim Anstoss der Fußball WM in Brasilien: Juliano Pinto, 29 Jahre alt und querschnittsgelähmt, konnte mit einem Exoskelett, direkt über Hirnwellen gesteuert, eigenständig antreten und den Ball ins Feld kicken. Aktuell arbeitet sein Lab in der Duke University an Interfaces, mit denen die Sinneswahrnehmung durch Sensoren erweitert werden kann.

Dr. Miguel Nicolelis, Duke Center für Neuroengineering

Als interne Experten waren Uwe Franke für das Bildverstehen eingeladen, sowie Patrick Klingler mit seinem Prototypen eines Chatbots. Ich versuchte in meinem Vortrag pragmatisch die machbare AI von ihrem Hype Anteil zu trennen, um so den Blick für die realen Chancen der Technologie zu öffnen.

Anke Kleinschmit, Leiterin der Konzernforschung, betonte, wie wichtig unsere eigene Forschungsarbeit an der künstlichen Intelligenz ist. Denn AI ist keine Domäne der Tech Industrie alleine, sondern integraler Bestandteil zukünftiger Mobilität. Autonomes Fahren wird Mobilität mit intelligenten und lernenden Fahrzeugen nicht nur komfortabler, sondern sehr viel sicherer machen.

Anke Kleinschmit, Leiterin Konzernforschung

Herausragend war dies an den Fortschritten zu erkennen, die Uwe Franke, in der Daimler Forschung und Entwicklung für das Thema Bildverstehen beim autonomen Fahren zuständig, zum eben diesem Thema vorführte. Selbst auf regennaß spiegelnden Straßenszenen wurden Radfahrer und verdeckte Fußgänger erkannt.

Anhand des Bildverstehens konnte maschinelles Lernen sehr gut erklärt werden. Es ist kein Lernen in unserem Sinne, die Maschine kennt keine ‚Aha‘ Momente. Vielmehr wird das lernende Netz in geduldiger Ingenieursarbeit mittels ausgewählter Bilder und Videosequenzen trainiert. Die zu erkennenden Bildbestandteile werden klassifiziert.

Dr. Uwe Franke, Leiter Bildverstehen, kameragestützte Fahrerassistenzsysteme

Bildbestandteile, die nicht klassifiziert sind, werden nicht erkannt. Im Karneval als Fantasiewesen verkleidete Kinder beispielsweise wären für das System nicht klassifizierbar. Daher ist das Erkennungssystem im Fahrzeug eingekapselt, und wird von anderen Systemen ergänzt. Wenn vor dem Fahrzeug sich also für den Bilderkenner etwas Unklassifizierbares befindet, wird es von anderen Systemen als Hindernis erkannt, und das Fahrzeug bremst selbsttätig ab.

Die öffentliche Diskussion zu Artificial Intelligence

Wie heiß das Thema AI ist, zeigte sich daran, dass unser Future Talk durch andere Veranstaltungen in einer aktuellen und einer historischen Perspektive eingebettet war. Am Abend vorher fand eine Paneldiskussion zu ‚Künstliche Intelligenz, Fluch oder Segen‘ im Disput!Berlin statt.

Das Jüdische Museum zeigte bis zum 29. Januar mit dem Golem eine Ausstellung zum mythischen künstlichen Wesen, erschaffen aus Sand und Buchstaben – eine Parallele zu der künstlichen Intelligenz, die aus Silizium und Code erschaffen werden soll.

Nach der Paneldiskussion wurde vom Publikum knapp in Richtung ‚Fluch‘ abgestimmt – kein Wunder bei manchen an Fake-News grenzenden Meldungen zu AI.

Golem, von Joshua Abarbanel, fotografiert in der Ausstellung Golem, jüdisches Museum Berlin

Der Konflikt entzündet sich immer wieder neu an übersteigert fantastischen Erwartungen, die mit Erlösungshoffnungen oder Untergangsängsten gepaart hochkochen. Den Test gegen solche, von Angstlust befeuerten Erwartungen, kann die Technologie nie bestehen. Wenn die Emotion dann in die entgegengesetzte Richtung ausschlägt, wird die Technologie abgelehnt, obwohl sie großen Nutzen bieten kann.

Das „Gespräch“ mit der Maschine

Eine Klippe, an der AI bisher immer scheiterte, ist die interaktive Verwendung von Sprache, sei es in einem Chat, oder im gesprochenen Wort. Die Verwendung von Sprache impliziert für uns Bewusstsein, Verständnis, Einfühlung und Intention. Die Erkennung von Emotionen anhand von Hautspannung und Blickrichtung ist jedoch keine Einfühlung, sie täuscht es nur vor.

Ebenso ist die potentielle Reaktion darauf lediglich eine Aneinanderreihung von „Verhaltensimitaten“. Eine geschickte Zusammenstellung vom Worten kann uns dazu anregen in der Zusammenstellung Sinn zu erkennen – kann aber auch einfach zu ungläubigem Gelächter führen. Versuche mit Google Translate sind erhellend.

Natürlich können wir uns an eine AI Sprache adaptieren – jedoch nur auf Kosten der Reputation dieser AI. Vertraut man einer manchmal sehr dummen Maschine? Wird man die Flug- oder Hotelauswahl des Digital Assistant im Nachhinein kontrollieren? Hat die Funktion dann noch einen Sinn?

Diese Fragen lassen sich durch einen kooperativen Ansatz lösen, in dem menschliche Talente und maschinelle Fertigkeiten ergänzend kombiniert werden. Im Projekt Kooperatives Fahrzeug, aufbauend auf den Ideen des F015, arbeiten wir daran. Jedoch muss parallel dazu der Blick auf AI geklärt werden. Eine Bewertung als Fluch oder Segen ist jedenfalls nicht hilfreich.

Vielleicht kann man den Mindset auf die folgende Art in eine produktive Richtung wenden: Auf die Frage, wann denn endlich die AI von banaler Bilderkennung zu echtem Bewusstsein fortschreiten wird, antwortet Demis Hassabis von DeepMind diplomatisch:

In 20–25 Jahren vielleicht, aber bis dahin werden sehr viele nützliche Funktionen mit AI programmierbar sein.


Wie bewerten Sie diesen Artikel?
3.5 / 5 (2 Bewertungen)
Bitte warten...

Tags: , , , , ,

drucken

Wollen Sie wirklich das Internet ausdrucken?

Sparen Sie Papier und schonen Sie die Umwelt! Nutzen Sie die Funktionen zum Bookmarking oder zur E-Mail-Weiterleitung.

Ihre Daimler AG

Erst wenn Sie klicken, wird die Schaltfläche aktiv und stellt eine direkte Verbindung mit dem jeweiligen sozialen Netzwerk her. Hierdurch werden Daten an das jeweilige soziale Netzwerk übertragen. Bitte lesen Sie unsere Datenschutzhinweise.

Dieser Artikel wurde von geschrieben. Er ist Zukunftsforscher.

Lernen Sie weitere Autoren kennen oder lesen hier mehr über das Blog.

Die letzten 5 Kommentare

  1. AMG: Ahhhh My Godness

    Claudia: Herrlicher Text, vielen Dank dafür Frau Iwan! Autos wecken Emotionen, beziehungsweise...

  2. Zeitenwende bei Daimler

    Marcus: Toll geschrieben Erdal! Man kann den Spirit quasi spüren – auch von extern!...

  3. Eine Rallye für den guten Zweck

    Florian Heitz: Hier ist leider ein Fehler unterlaufen. Es sollte eigentlich „darf nicht...

  4. Kooperation Steinbeis und Daimler – Ein Live-Bericht

    Julia: Interessantes Fazit, das so nicht stimmt! Auf der Facebook-Seite der School of...

  5. Auf ein Date mit dem Concept EQ

    Sascha Pallenberg: Wow und danke dir fuer dieses tolle Feedback, Mansour. Wenn dies so bei dir...

DIE MEISTGELESENEN ARTIKEL (30 TAGE)

  1. Auf ein Date mit dem Concept EQ
    Mercedes-Benz Cars / Technologie & Innovation

    17. Mai 2017, 20.841 Besuche

  2. AMG: Ahhhh My Godness
    Gastautoren / Mercedes-Benz Cars

    22. Mai 2017, 9.115 Besuche

  3. Elektrisierendes Austin
    Mercedes-Benz Cars / smart

    08. Mai 2017, 6.637 Besuche

  4. GLE on Ice – Winter Road in Kanada
    Mercedes-Benz Cars

    04. Mai 2017, 6.592 Besuche

  5. Zeitenwende bei Daimler
    Mitarbeiter & Gesellschaft

    24. Mai 2017, 3.959 Besuche