Google I/O: Was wir von Mountain View lernen können

Entwicklerkonferenzen, das waren für mich immer die Pokalendspiele der Techbranche. Bevor ich Teil der Daimler-Familie wurde, habe ich im Jahr ähnlich viel Zeit im Flieger verbracht wie AC/DC auf Welttournee.

Im Januar rüber zur CES (Consumer Electronic Show), dann möglichst noch einen Abstecher nach Detroit zur Autoshow, im Februar dann auf den Mobile World Congress nach Barcelona, Computex, IFA und schon war das Jahr wieder rum.

Aber dann sind da diese Oasen der Ruhe. Diese Inselchen der Ausgeglichenheit, auf denen man das Gefühl hat mit all den Gleichgesinnten in einer universellen Sprache  zu kommunizieren. Ich spreche von den Entwicklerkonferenzen der großen Hersteller. Für mich fing dies alles im Jahr 2002 an, als mich VIA Technologies zum ersten Mal nach Taiwan einlud, um mich direkt auf eine Bühne zu packen und vor 500 asiatischen Journalisten von meinem neuen Linux-Projekt zu erzählen.

Wenn man noch nie eine öffentliche Rede gehalten hat, dazu selbige in einer Fremdsprache halten muss… Freunde, meinen Puls konnte man aus der ersten Reihe messen. Zeigefinger anlecken, in die Höhe halten und 180 beats per minute an der feuchten Fingerspitze spüren.

„Must go“ Mountain View

Zum Glück habe ich ganz gut die Kurve bekommen … und ab diesem Tage waren Entwicklerkonferenzen für mich ein „Must go“! Es folgten die ersten IDFs mit Intel, die Uplinq von Qualcomm und dann endlich, vor sieben Jahren, meine erste Google I/O – inzwischen ein echtes Woodstock der Entwicklergemeinde. Das Amphishore Theatre, direkt neben dem Google-Campus in Mountain View, öffnet für drei Tage seine Tore, um den Entwicklern aus allen Ecken dieser Welt die neuesten Entwicklungen der Google-Welt vorzustellen. Und was haben die da nicht wieder aufgefahren!

Man möge mir verzeihen, dass ich mich nicht schon vor vier Wochen mit diesem Artikel gemeldet habe, aber genau das habe ich bewusst versucht zu vermeiden. Eine Google I/O lässt man mal richtig in Ruhe sacken! Verinnerlicht noch einmal die Keynote, schaut sich ein paar dutzend Sessions an und macht sich dann Gedanken darüber, wie der Suchmaschinen-Gigant aus Kalifornien heraus unsere Welt verändern will. Wobei…. streiche „will“ und setze „wird“.

Google sieht, hört und versteht unsere Welt

Während der große Konkurrent Apple, der sein Cupertino Headquarter praktisch vor den Toren der „Mountain Viewer” aufgeschlagen hat, auf seiner eigenen Worldwide Developers Conference eher mit erwarteten Produkt-Updates auf sich aufmerksam machte, spricht Google „Meta“. Seht her, wir wollen die Welt um uns herum verstehen. Wir möchten wissen, was du benötigst, aber ohne dass du uns das mitteilen musst. Der berühmte Satz des Ex-Google-CEO Eric Schmidt „Wir wollen Dir bei Google die Ergebnisse liefern, bevor du überhaupt danach suchen willst“ wird immer mehr zur Realität.

Und dies zeigt Google anhand recht simpler, aber umso effektiverer Beispiele. Der Google Assistant kann inzwischen nicht nur Objekte erkennen, sondern auch relevante Informationen rausziehen und den passenden Kontext herstellen. Die Aufnahme einer Blume kann somit in Richtung: “So heißt das Gewächs” oder „Soll ich Dir Blumenläden in der Nähe anzeigen?” verarbeitet werden. Wer die Kamera seines Smartphones auf die Login-Daten für ein Wifi hält, wird zum Beispiel direkt mit diesem verbunden und wer ein Foto einer Konzertankündigung macht, kann direkt mit einer Ticketagentur verbunden werden, die sowohl die Eintrittskarte bereitstellt, als auch gleich den Kalender-Eintrag macht.

Google sieht, versteht und führt dann aus. Verdammt, die wissen was wir wollen und es fühlt sich nicht einmal ansatzweise irgendwie spooky an. Das muss so sein! Warum hat das nicht schon früher jemand getan? Aber bleiben wir doch noch für einen Moment bei den Augen der Kalifornier, die wirklich jeder mit uns rumträgt.

„Mobile first” war gestern

Das Smartphone stand in der Entwicklergemeinschaft über viele Jahre für das Mantra „Mobile First“. Und genau hier setzt Google den Hebel an und lässt die gesamte Konkurrenz um mindestens eine Generation hinter sich. „Mobile first” war gestern, heute ist „AI first” angesagt. Lass die Wettbewerber ruhig immer bessere Kameras entwickeln, wir erkennen dank unserer Algorithmen dann einfach noch schneller, was darauf zu sehen ist. Aber vor allen Dingen auch, was wir damit tun wollen!

Und auch hier sind die einfachsten Beispiele, die effektvollsten. So mal eben den Maschendrahtzaun aus einem Foto der Tochter zu entfernen… das sorgt bei der Keynote nicht nur für offene Münder bei den anwesenden Entwicklern. Dafür gibt es Szenenapplaus. Da wird gejohlt und gejubelt. Man stelle sich das mal bei einer unserer Veranstaltungen vor, wenn wir ein neues Feature für eine ganz bestimmte Plattform zeigen. Im Moment noch Utopie, aber für mich persönlich eine Entwicklung, die auf uns zukommen kann!

Assistenten überall

Wer glaubt, dass Google es bei den elektronischen Augen belässt, wurde schnell eines Besseren belehrt. Der im letzten Jahr vorgestellte Amazon Echo Konkurrent „Google Home” wurde um sinnvolle Features wie Anruffunktionen, Verknüpfung mit Chromecast und Smart TV (um z.B. YouTube Videos abzuspielen) und einen persönlichen Tagesplaner ergänzt. Ja, Google dringt damit nahezu in den letzten Winkel unseres Lebens ein und wird dies in Zukunft noch schneller, besser, komfortabler und vor allen Dingen effektiver tun können.

Dazu stellten die Amerikaner ihre neue Tensor Processing Units – kurz TPU – vor, einen Chip, der Algorithmen schneller durchexerziert, „Machine Learning”-Technologien beschleunigt und letztendlich den Unterbau für eine Vision darstellt, die bei Kritikern eher Unbehagen auslösen könnte: Maschinen, die Maschinen bauen. Mich erinnert das immer ein wenig an Skynet aus „Terminator“. Nur bei Google schaffen sie künstliche neuronale Netzwerke, die dann wieder künstliche neuronale Netzwerke entwickeln werden.

Vielleicht versteht Ihr nun ein wenig besser, warum ich mir mit diesem Artikel ein wenig mehr Zeit gelassen habe. Diese Vision muss sich erstmal setzen und an meinen Synapsen andocken. Das ist nicht mehr und nicht weniger als die Idee, einer völlig neuen, sich dynamisch entwickelnden Zukunft von Plattform- und Service-Technologien, die sich zum Teil selber optimiert und weiterentwickelt. Freunde, Science-Fiction wird mehr und mehr zu Science-Now!

Und was hat das alles mit uns zu tun?

Wer bis hier durchgehalten hat, ist nun entweder ähnlich fasziniert wie ich, ziemlich erschrocken oder fragt sich einfach nur, warum uns das beim Daimler betrifft … Meine ersten vier Monate mit Euch haben mir vor allen Dingen eines gezeigt: Ich darf Teil einer Familie sein, die den fundamentalsten Wandel in ihrer Firmengeschichte durchmacht. Das, und ich glaube nicht, dass dies hier nur subjektive Eindrücke sind, wird von Euch in den Teilbereichen mit einem Enthusiasmus und einer Aufbruchsstimmung getragen, die mich mitreißt und täglich inspiriert.

Nein, wir müssen nicht zu einem Softwarehaus werden! Ich halte diesen oft diskutierten Ansatz für völlig daneben, denn letztendlich müssen wir Metalle und Kunststoffe in Form versetzen und Räder drunterschrauben. Ohne das Auto wird es den, für uns alle so wichtigen, Mobilitäts-Mix nicht geben.

Die Meta-Ebene der Mobilität bespielen

Aber wir müssen diesen auch breiter fassen und uns den Industrien öffnen, die Infrastrukturen und Ökosysteme anbieten, die wir in der Form nicht entwickeln können. Unsere Kernkompetenz ist es Kunden sicher und komfortabel von A nach B zu bringen. Aber mit Blacklane, Croove, car2go, Hailo, Moovel und MyTaxi haben wir auch Angebote, die zeigen wie sehr wir Google ähneln können. Mit derartigen Services bespielen wir die Meta-Ebene der Mobilität.

Wir zeigen – auch im Vergleich zu den Mitbewerbern –, dass hier die Zeichen der Zeit nicht erst gestern erkannt wurden. Und ja, hier und da haben wir „Mobility as a Service“ ein Stück weit auch mitgestaltet. Das ist keine Errungenschaft, für die wir uns lautstark feiern müssen, sondern ein wichtiger Mosaikstein um unsere Zukunft zu definieren. Und genau diese wird auch in Mountain View erdacht, erfunden und umgesetzt.

Verschließen wir uns nicht davor, sondern öffnen wir uns für die Möglichkeiten! DAS muss das Mantra einer jeden Entwicklerkonferenz sein. Ob bei einem Software- und Service Giganten wie Google oder beim Erfinder des Automobils, der irgendwann vielleicht auch mal derartige Events veranstalten wird.


Wie bewerten Sie diesen Artikel?
4.6 / 5 (154 Bewertungen)
Bitte warten...

Tags: , , ,

drucken

Wollen Sie wirklich das Internet ausdrucken?

Sparen Sie Papier und schonen Sie die Umwelt! Nutzen Sie die Funktionen zum Bookmarking oder zur E-Mail-Weiterleitung.

Ihre Daimler AG

Erst wenn Sie klicken, wird die Schaltfläche aktiv und stellt eine direkte Verbindung mit dem jeweiligen sozialen Netzwerk her. Hierdurch werden Daten an das jeweilige soziale Netzwerk übertragen. Bitte lesen Sie unsere Datenschutzhinweise.

Dieser Artikel wurde von geschrieben. Er hat zum 01.02.2017 die neu geschaffene Funktion „Leiter Digital Content“ innerhalb des Kommunikationsbereichs übernommen und wird als erfahrener Online-Redakteur insbesondere Inhalte an der Schnittstelle zwischen Auto- und IT-Industrie für Daimler Online-Medien aufbereiten

Lernen Sie weitere Autoren kennen oder lesen hier mehr über das Blog.

Die letzten 5 Kommentare

  1. Flüssiges Gold: Besuch bei den Daimler-Bienen

    franz einfeld: Super artikel und ich würde auch gerne bei ihnen honig kaufen aber leider geht es...

  2. Kamera für den KTL-Ofen: Durchblick bei 180 Grad

    Meissner: „Wir werden die Reisen fortsetzen, die wir begonnen haben und mutig zu all den...

  3. Erstklassiger Bus für ein erstklassiges Team!

    Jennifer Armbruster: Hallo Tim, super Beitrag – sehr authentisch geschrieben, gefällt mir...

  4. Gastbeitrag: Wie sieht die Mobilität der Zukunft aus?

    Ingrid Ullmann-Bammer: Nicola TESLA, dieser grosse Geist!!!! ELEKTRO-AUTOS Endlich sind wir...

  5. Wer geht denn schon zur Hauptversammlung?

    Thorsten Zanker: Hallo Herr Tuncyürek, die wichtigsten Fragen & Antworten zur...