Wenn Mensch und Maschine gemeinsam in die Zukunft blicken

Die neue Kunst des Vorhersagens – und warum sie unsere politische Zukunft verändern könnte

Von weitem wirkt das Büro von Barbara Mellers unspektakulär. Eine Tasse Kaffee, Papierstapel, eine Uhr, die leise tickt. Doch wer der Psychologie-Professorin von der University of Pennsylvania zuhört, merkt schnell: Hier denkt jemand über die Zukunft nach – nicht im metaphysischen, sondern im messbaren Sinn. »Die Frage ist nicht, ob wir die Zukunft vorhersagen können«, sagt sie. »Die Frage ist, wie präzise – und wer dabei die bessere Arbeit leistet: Mensch oder Maschine.«

Ihre Forschung, gemeinsam mit John McCoy, Louise Lu und Philip E. Tetlock, erschien 2024 im Fachjournal ›Perspectives on Psychological Science‹. Der nüchterne Titel – ›Human and Algorithmic Predictions in Geopolitical Forecasting¹‹ – verbirgt eine kleine Revolution. Denn die Studie beschreibt, wie sich aus menschlicher Intuition und algorithmischer Berechnung eine neue, hybride Intelligenz formen lässt – präziser als alles, was allein denkende Köpfe oder lernende Maschinen bislang hervorbrachten.

Der uralte Wettstreit: Intuition versus Statistik

Die Debatte um Vorhersagekraft begann lange vor der Ära künstlicher Intelligenz. Schon 1954 veröffentlichte der US-amerikanische Psychologe Paul E. Meehl ein Buch, das ganze Generationen von Forschenden prägte: ›Clinical versus Statistical Prediction‹. Meehl wollte wissen, wer besser vorhersagt – der Arzt, der Patientinnen nach Bauchgefühl beurteilt, oder das mathematische Modell, das ihre Daten auswertet.

Das Ergebnis war unbequem: Statistische Modelle lagen fast immer vorn. Nicht spektakulär, aber konstant. Ob in der Medizin, der Kriminalpsychologie oder der Finanzanalyse – Maschinen machten weniger Fehler. Doch Meehl wusste auch: Es gibt Bereiche, in denen Daten fehlen, Vergleichsfälle rar sind und Intuition unersetzlich bleibt. Einer davon ist die Geopolitik.

Wenn die Geschichte sich nur einmal ereignet

Wer die Zukunft der Weltpolitik vorhersagen will, steht vor einem Dilemma: Es gibt keine zweiten Durchläufe. Wie viele »Syrienkriege« oder »Kubakrisen« gab es in der Geschichte? Nur je einen oder eine. Und wie sollte ein Algorithmus aus einem einzigen Beispiel lernen?

»In der Medizin kann man aus tausend Fällen von Herzinfarkt Rückschlüsse ziehen«, erklärt Mellers. »In der Geopolitik erleben wir jedes Ereignis nur einmal.« Darum tun sich Maschinen schwer, in diesem Feld Muster zu erkennen. Die Datenlage ist dünn, die Ursachen vielschichtig – wirtschaftlich, kulturell, psychologisch, manchmal schlicht zufällig. Und dennoch müssen politische Entscheidungsträger Prognosen wagen: Wird China Taiwan angreifen? Wird ein Staat zerfallen? Wird eine Währung kollabieren?

Fehlt die Datentiefe, bleibt nur eine Vorhersagemöglichkeit: der Mensch.

Die Wette der Geheimdienste

2011 beschlossen die US-Geheimdienste, das Rätsel systematisch anzugehen. Die Forschungsagentur IARPA (Intelligence Advanced Research Projects Activity) rief internationale Wissenschaftsteams auf, in einem Wettbewerb gegeneinander anzutreten. Das Ziel: bessere politische Vorhersagen.

Jedes Team durfte eigene Strategien entwickeln – mit Menschen, Maschinen oder beidem. Die Genauigkeit wurde mit einer präzisen Metrik gemessen: dem ›Brier Score‹, einer mathematischen Formel, die misst, wie weit eine probabilistische Wahrscheinlichkeitsprognose von der Realität entfernt liegt.

Unter den Teilnehmenden: ein Team der Universität Pennsylvania – das später weltberühmte ›Good Judgment Project‹ von Mellers und Tetlock.

Die Geburt der »Superforecaster«

Das Prinzip war einfach, aber genial. Tausende Freiwillige aus aller Welt meldeten sich online an, um Fragen zu beantworten, etwa:

  1. Wird der Ölpreis bis Jahresende über 100 Dollar steigen?
  2. Wird Nordkorea innerhalb von zwölf Monaten einen Atomtest durchführen?
  3. Wird Griechenland aus der Eurozone austreten?

Jeder durfte tippen – nicht mit Ja oder Nein, sondern mit einer Wahrscheinlichkeitsrelation, etwa 70 zu 30 Prozent. Und jeder konnte seine Einschätzungen laufend anpassen, wenn sich neue Informationen ergaben. Nach kurzer Zeit zeigte sich: Manche Teilnehmer lagen deutlich häufiger richtig als andere. Diese »Elite« nannte das Team bald »Superforecaster« – Menschen, die komplexe Zusammenhänge intuitiv gewichten und in präzise, realistische Wahrscheinlichkeiten übersetzen können.

Ihre Geheimwaffe war kein geheimes Wissen, sondern eine bestimmte Denkweise. Sie dachten langsam, überprüften Annahmen, verglichen Szenarien, und sie änderten ihre Meinung – oft und gern.

Was gute Prognostiker wirklich ausmacht

In den Daten zeigte sich ein klares Muster. Gute Vorhersager sind keine Genies, sondern intellektuell bescheidene Rationalisten. Sie zeichnen sich durch drei Eigenschaften aus:

  • Analytische Klarheit: Sie verstehen Zahlen, Logik und Wahrscheinlichkeiten.
  • Offenheit: Sie lassen widersprechende Informationen zu und verarbeiten sie.
  • Selbstreflexion: Sie wissen, wie leicht sie sich täuschen können – und korrigieren sich fortlaufend.

Ein Beispiel: Statt zu fragen, »Wird Russland angreifen?«, fragen sie, »Wie oft haben Staaten in ähnlicher Lage tatsächlich angegriffen?« – und beginnen, aus historischen Analogien Wahrscheinlichkeiten zu schätzen. Diese Denkschulung lässt sich trainieren. Interaktive Kurse halfen den Teilnehmenden, systematische Denkfehler wie Selbstüberschätzung (Overconfidence) oder Bestätigungsfehler (Confirmation Bias) zu vermeiden. Das Ergebnis: bis zu elf Prozent höhere Genauigkeit.

Zur Erinnerung: In der wissenschaftlichen Literatur bezeichnet ›Overconfidence‹ die Überschätzung der Genauigkeit des eigenen Wissens bzw. Entscheider, die ihre eigenen Urteile für präziser halten als sie es tatsächlich sind. Unter ›Confirmation Bias‹ wird die kognitive Neigung verstanden, sich Informationen so auszusuchen, zu interpretieren und zu erinnern, dass sie die eigenen bestehenden Ansichten und Erwartungen bestätigen.

Wenn Teams klüger sind als Einzelne

Noch besser funktionierte die Vorhersage, wenn Menschen gemeinsam dachten. In Online-Teams diskutierten je zehn bis fünfzehn Teilnehmer ihre Einschätzungen, stritten und korrigierten sich. Ergebnis: Die Gruppenprognosen übertrafen die Einzelleistungen deutlich.

Teamarbeit wirkt wie ein Resonanzboden, der extreme Meinungen abschwächt und begründete Argumente verstärkt – solange Vielfalt und Disziplin im Gleichgewicht bleiben. Denn wo zu viel Harmonie herrscht, droht das berüchtigte Gruppendenken (Groupthink), bei dem der Wunsch nach Harmonie und Konformität in einer Gruppe dazu führt, dass Mitglieder ihre eigene kritische Denkfähigkeit unterdrücken, um einen Konsens zu erzielen. Das führt zum Schweigen durch Anpassung. Auch das untersuchten Mellers und Tetlock – und fanden Wege, Teams so zu kalibrieren, dass sie kritisch bleiben.

Wenn Algorithmen die Weisheit der Vielen veredeln

Doch der eigentliche Durchbruch kam, als die Forschenden begannen, menschliche Urteile algorithmisch zu kombinieren. Das Grundprinzip war bekannt: Der Durchschnitt vieler Meinungen liegt oft erstaunlich nah an der Wahrheit – ein Effekt, den schon Aristoteles kannte und der US-amerikanische Journalist James Surowiecki 2004 populär machte mit seinem Buch ›Die Weisheit der Vielen‹ (Wisdom of Crowds).

Das ›Good-Judgment‹-Team verfeinerte die Methode. Es gewichtete einzelne Stimmen nach ihrer bisherigen Trefferquote, nach Aktualität und Konsistenz. Dann kam der Trick des »Extremizing«: Wenn viele unabhängige Beobachter ein Ereignis für »wahrscheinlich« hielten (z.B. 70 %), wurde diese kollektive Meinung algorithmisch verstärkt – etwa auf 90 Prozent.

So entstand eine Form von rechnerisch kalibriertem Selbstvertrauen: Die Menge irrt weniger, wenn sie von der Maschine gezähmt wird.

Das BIN-Modell: Wenn der Zufall verschwindet

Um zu verstehen, warum diese Verfahren funktionierten, entwickelten die Forscher das sogenannte BIN-Modell – kurz für ›Bias, Information, Noise‹. Es teilt Prognosefehler in drei Komponenten:

  • Bias – systematische Verzerrungen, etwa politisches Wunschdenken.
  • Information – echtes Wissen über relevante Zusammenhänge.
  • Noise – zufällige Schwankungen, also das Rauschen bzw. Hintergrundrauschen in menschlichen Urteilen.

Das Ergebnis war verblüffend: Mehr als die Hälfte aller Verbesserungen durch Training und Teamarbeit beruhten schlicht auf Rauschreduktion. Die teilnehmenden Personen urteilten stabiler, nicht unbedingt »klüger«. Anders gesagt: Vorhersage ist weniger die Kunst der Eingebung als vielmehr die Disziplin der Konsistenz.

Hybride Intelligenz: Mensch plus Maschine

Die Forschenden betonen, dass es keine Rückkehr zu reiner Intuition geben wird – aber auch keine Zukunft rein algorithmischer Kontrolle. Die Lösung liegt in hybriden Modellen, die beide Welten verbinden. In medizinischen Studien etwa kombinierten Radiologen ihre Diagnosen mit KI-Systemen zur Bildanalyse – die Genauigkeit stieg signifikant. Ähnliches zeigte sich in der Politik: Ein hybrides Prognosemodell, das menschliche Urteile mit algorithmischer Gewichtung verband, schlug sowohl KI-Modelle als auch Experten allein.

»Hybride Systeme sind mehr als die Summe ihrer Teile«, sagt Tetlock. »Menschen liefern Kontext und Kreativität, Algorithmen die Struktur und Stabilität.«

Wie erkennt man ein Prognosetalent?

Eine der spannendsten Fragen für die Zukunft lautet: Kann man »Superforecaster« vorab erkennen? Studien deuten darauf hin, dass bestimmte Denk- und Persönlichkeitsmerkmale verlässlich mit hoher Prognoseleistung einhergehen – etwa analytische Rationalität, Offenheit für Korrektur und Freude an präziser Formulierung (s. oben).

Doch es geht nicht nur um Individuen. Auch die Teamarchitektur spielt eine Rolle: Gruppen sind dann am besten, wenn die kompetentesten Mitglieder auch die selbstbewusstesten sind – eine Balance, die die Forschenden »kollektive Kalibrierung« nennen. Nur dann hören Teams auf die Richtigen.

Diversity versus Exzellenz – die ewige Spannung

Ein weiteres Dilemma betrifft die Zusammensetzung der Menge. Sollen Vorhersageplattformen möglichst vielfältige Perspektiven sammeln – oder lieber die besten Köpfe bündeln? Die Antwort lautet: Beides.

Vielfalt bringt frische Argumente, reduziert gemeinsame Blindflecken. Doch zu viel Heterogenität kann das Rauschen erhöhen. Künftig, so hoffen die Autorinnen und Autoren, könnten adaptive Systeme beide Prinzipien vereinen: erst die Vielfalt einfangen, dann durch kluge Gewichtung die stärksten Signale herausfiltern.

Die Zukunft der Vorausschau

Wenn Mellers und Tetlock über ihre Vision sprechen, klingt sie erstaunlich pragmatisch. Sie träumen nicht von Orakeln, sondern von Werkzeugen, die helfen, Unsicherheit systematisch zu quantifizieren. Algorithmen könnten Vorhersagende künftig auf übersehene Datenquellen hinweisen, Denkfehler markieren oder Wahrscheinlichkeiten dynamisch visualisieren. Das Ziel ist nicht Unfehlbarkeit, sondern Transparenz im Irrtum – das Wissen darum, wie sicher man unsicher ist.

Eine neue Aufklärung des Vorhersagens

Geopolitische Zukunftsforschung war lange ein Feld der Mutmaßungen – von Bauchentscheidungen und diplomatischer Intuition. Doch die neue Forschung zeigt: Präzision ist kein Privileg der Maschine und kein Mysterium des Menschen. Sie entsteht dort, wo beide ihre Stärken bündeln.

Wenn Menschen lernen, wie Algorithmen zu denken, und Algorithmen lernen, menschliche Unsicherheiten zu verstehen, entsteht eine neue Form der Intelligenz – kollektiv, selbstreflektiert, lernfähig. Vielleicht, sagt Barbara Mellers, ist das die eigentliche Lehre ihrer Arbeit: »Vorhersagen ist keine Kunst des Sehens, sondern des Verstehens. Die Zukunft gehört nicht den Propheten – sondern den Lernenden.«

¹Mellers, B. A., McCoy, J. P., Lu, L., & Tetlock, P. E. (2023). Human and Algorithmic Predictions in Geopolitical Forecasting: Quantifying Uncertainty in Hard-to-Quantify Domains. Perspectives on Psychological Science, 19(5), 711-721. https://doi.org/10.1177/17456916231185339 (Original work published 2024)
© ÆON-Z e.V. Thinktank. Hinweis: Bei der Recherche und Analyse dieses Beitrags wurde unterstützend Künstliche Intelligenz eingesetzt. Die redaktionelle Verantwortung für den Inhalt liegt bei der Redaktion. Alle Rechte vorbehalten, all rights reserved. Nachdruck und Weitergabe an Dritte untersagt.

Diese Seite kann nicht kopiert werden!