Alphatiere auf Safari?

Vor mehr als drei Jahren betiteltet Die Welt die Besuche deutscher Vorstandsetagen im Silicon Valley mit Alphatiere auf Safari. Die Manager ließen sich hier die Zukunft zeigen, man schmücke sich mit Namen wie Facebook, Apple und Google und eigentlich sei das Silicon Valley so etwas wie der „Ballermann der Tech-Szene“ geworden.

Und in gewisser Weise hat der Artikel ja recht mit seiner Kritik.  Nicht immer sind die Besuche effektiv oder können aus mehreren Gründen nicht wirklich in die Tiefe gehen. Sie geben aber zumindest immer einen gewissen Einblick, der vielleicht dazu beitragen kann, sich selbst besser für die Zukunft aufzustellen.

Ich selbst sehe generell jeden Besuch als etwas Positives. Es kostet Überwindung, sich aus seiner Komfortzone zu bewegen und sich für ein paar Tage teilweise sehr provokanten Ideen und Aussagen auszusetzen, und beinahe schon mit teils neuen, teils unverständlichen Begriffen und Konzepten über- und gefordert zu werden. Weiterlesen Alphatiere auf Safari?

Treiber und Annahmen mit der STÖÖP-Methode identifizieren

Keine Sorge, es gibt keine Notwendigkeit, den Teesud zu lesen oder in die Kristallkugel zu schauen. Die Zukunft ist nämlich überraschend gut vorhersagbar. Wenn wir Signale und Trends identifizieren, die Bausteine heranziehen, und sie mit Treibern, Annahmen und Motivationsfaktoren kombinieren, dann können wir recht überzeugende und interessante Szenarien erstellen, die uns helfen, heute besser Entscheidungen zu treffen.

Eine dieser Methoden nennt sich STÖÖP, oder kurz für Soziale, Technologische, Ökonomische, Ökologische und Politische Treiber und Annahmen. Arbeitsgruppen in einer Foresight Strategie zählen sie auf und priorisieren sie. Die Reihenfolge basiert dabei auf zwei Kriterien: Weiterlesen Treiber und Annahmen mit der STÖÖP-Methode identifizieren

Von Intelligenzräumen und menschenähnlicher Intelligenz

Glaubt man dem gängigen Narrativ in den Medien, Hollywood-Filmen und der heutigen populärwissenschaftlichen Literatur, dann steht uns mit künstlicher Intelligenz (KI) die Apokalypse bevor. Der Terminator und die Superintelligenz werden uns bald vernichten oder zumindest versklaven. KI wird smarter sein als wir, und mit ihr werden wir unsere letzte Erfindung geschaffen haben.

Auf der einen Seite trauen wir Menschen uns zu, so klug zu sein, dass wir eine Superintelligenz schaffen können, gleichzeitig  sind wir aber so dämlich, dass wir sie nicht testen und ihr Einhalt gebieten können.

Nun, Superintelligenz wird etwas sein, was wir in unsere Lebenszeit mit an Sicherheit grenzender Wahrscheinlichkeit nicht erleben werden. Und sie wird vermutlich ganz anders aussehen, als wir uns vorstellen können. Ein Fehlschluss ist bereits, dass wir solche Allgemeinen Generellen Intelligenz (AGI) immer mit menschlicher Intelligenz vergleichen und gleichsetzen. Dabei haben wir selbst schon mal Schwierigkeiten zu definieren, was denn Intelligenz überhaupt ist, und welche wir Menschen eigentlich haben. Ganz zu schweigen von der Intelligenz der Tierwelt.

Dabei haben wir Intelligenz über die Zeiträume immer anders definiert. Eine KI wird dann intelligent sein, wenn sie den Schachweltmeister besiegt. Tja, und sobald sie es schaffte mit Deep Blue gegen Garri Kasparow im Jahr 1997, definierten wir sie rasch um, den das „Brute Force“-Computing sahen wir nicht wirklich als intelligent an. Und die nächste Stufe – eine KI die einen Go-Weltmeister besiegen kann – war dann wiederum nur von Wahrscheinlichkeiten geprägte Algorithmen, also auch nicht wirklich was wir als Intelligenz verstehen wollen. Weiterlesen Von Intelligenzräumen und menschenähnlicher Intelligenz