ADMIN

2022

02

2022-01-30T12:00:00

Cloudmanagement

RUBRIKEN

105

Forschungslabor

Aus dem Forschungslabor Folge 38

Spiel mit mir

von John Pardey

Veröffentlicht in Ausgabe 02/2022 - RUBRIKEN

Künstliche Intelligenz sorgt bislang immer dann für Schlagzeilen, wenn sie den Menschen in bestimmten Fähigkeiten übertrifft. Besonders prominente Vertreter dieser menschlichen Niederlagen sind zweifellos die in den Spielen Schach und Go. Doch dieser Alles-oder-nichts-Ansatz hat in der realen Welt nur sehr wenige Anwendungsfälle, vielmehr verspricht die Kooperation zwischen Mensch und KI deutlich mehr Nutzen. Forscher des MIT haben daher eine KI entwickelt, die zur Zusammenarbeit fähig ist.

Computer sind in der Lage, die besten Menschen in intellektuell sehr herausfordernden Spielen zu schlagen. Es gelingt ihnen mittlerweile auch, Dinge zu lernen, die vielen Menschen schwerfallen – dazu zählt nicht zuletzt das Steuern eines Kraftfahrzeugs. Doch bei all diesen bemerkenswerten Leistungen haben KI-Algorithmen bislang große Schwierigkeiten zu kooperieren. Denn bei erwachsenen Menschen ist Collaboration ein komplexes System kultureller und sozialer Normen. Solche Gesunder-Menschenverstand-Mechanismen fallen Computern bislang äußerst schwer und selbst die besten Algorithmen versagen, wenn die optmiale Lösung Zusammenarbeit wäre – insbesondere, wenn der Kooperationspartner ein Mensch und keine Maschine ist.
Kooperation erlernen
Iyad Rahwan vom Massachusetts Institute of Technology und Jacob Crandall von der Brigham Young University machten es sich daher zur Aufgabe, Computer die gemeinsame Arbeit mit Menschen beizubringen. Doch Grundstein dafür war, dass die Maschinen die Kooperation erst einmal grundsätzlich beherrschten. So machten sich die beiden Forscher zunächst daran, einer KI genau dies beizubringen. Dabei mussten sie das KI-Rad auch nicht neu erfinden, die Algorithmen standen vor der für Spiele wie Schach oder Dame gültigen Aufgabe, ihre (Spiele-)Welt im Sinne einer maximalen Belohnung zu optimieren.
Nachdem dies gelungen war, brachten Rahwan und Crandall ihre KI mit menschlichen Gegenübern in verschiedenen Szenarien zusammen. Eines davon war ein klassisches Problem der Wirtschaftsmathematik – das Gefangenendilemma. Diese Aufgabe aus der Spieltheorie, die optimale Strategien von Marktteilnehmern zu beschreiben versucht, lässt aus der Sicht des Einzelnen ein bestimmtes Vorgehen mathematisch optimal erscheinen. Doch in Wahrheit führt Kooperation zu einem wesentlich besseren Ergebnis. Dabei zeigte sich, dass zwei KIs untereinander gut zusammenarbeiten und das Optimum erzielen können, doch zwischen Algorithmus und Personen kam es zunächst zu weniger guten Ergebnissen.
Computer sind in der Lage, die besten Menschen in intellektuell sehr herausfordernden Spielen zu schlagen. Es gelingt ihnen mittlerweile auch, Dinge zu lernen, die vielen Menschen schwerfallen – dazu zählt nicht zuletzt das Steuern eines Kraftfahrzeugs. Doch bei all diesen bemerkenswerten Leistungen haben KI-Algorithmen bislang große Schwierigkeiten zu kooperieren. Denn bei erwachsenen Menschen ist Collaboration ein komplexes System kultureller und sozialer Normen. Solche Gesunder-Menschenverstand-Mechanismen fallen Computern bislang äußerst schwer und selbst die besten Algorithmen versagen, wenn die optmiale Lösung Zusammenarbeit wäre – insbesondere, wenn der Kooperationspartner ein Mensch und keine Maschine ist.
Kooperation erlernen
Iyad Rahwan vom Massachusetts Institute of Technology und Jacob Crandall von der Brigham Young University machten es sich daher zur Aufgabe, Computer die gemeinsame Arbeit mit Menschen beizubringen. Doch Grundstein dafür war, dass die Maschinen die Kooperation erst einmal grundsätzlich beherrschten. So machten sich die beiden Forscher zunächst daran, einer KI genau dies beizubringen. Dabei mussten sie das KI-Rad auch nicht neu erfinden, die Algorithmen standen vor der für Spiele wie Schach oder Dame gültigen Aufgabe, ihre (Spiele-)Welt im Sinne einer maximalen Belohnung zu optimieren.
Nachdem dies gelungen war, brachten Rahwan und Crandall ihre KI mit menschlichen Gegenübern in verschiedenen Szenarien zusammen. Eines davon war ein klassisches Problem der Wirtschaftsmathematik – das Gefangenendilemma. Diese Aufgabe aus der Spieltheorie, die optimale Strategien von Marktteilnehmern zu beschreiben versucht, lässt aus der Sicht des Einzelnen ein bestimmtes Vorgehen mathematisch optimal erscheinen. Doch in Wahrheit führt Kooperation zu einem wesentlich besseren Ergebnis. Dabei zeigte sich, dass zwei KIs untereinander gut zusammenarbeiten und das Optimum erzielen können, doch zwischen Algorithmus und Personen kam es zunächst zu weniger guten Ergebnissen.
Sprich mit mir
Die hatten laut dem Forscherteam die Ursache, dass die KI zwar korrekt auf das Vorgehen ihres menschlichen Gegenübers reagierte, doch im Gefangenendilemma die Kommunikation mit dem jeweiligen Partner entscheidend ist. So verbesserten sich die Ergebnisse zwischen Mensch und Maschine drastisch, als es Letzterer ermöglicht wurde, Menschen zuzuhören und auch mit ihnen zu sprechen.
So verbessert wurde die KI auf ihr bis dahin unbekannte Szenarien losgelassen, in denen sie mit Menschen kooperieren musste. Dabei gelang es dem Algorithmus tatsächlich, Kooperation zu lernen und diese auch stetig zu verbessern.
Don't be evil
Um die letzten, verblüffenden Ergebnisse der Forscher darzustellen, müssen wir kurz noch einmal zur Spieltheorie zurückkehren: In einer Abwandlung des Gefangenendilemmas, bei dem pro Spieler nur eine Entscheidung das komplette Szenario ausmacht, existieren Varianten davon, in denen auf einen Spielzug von Spieler A eine Reaktion von Spieler B erfolgt. Diese kann "nett" sein und darauf zielen, die Zusammenarbeit aufrechtzuerhalten, sich aber auch "böse" darstellen, um so im Prinzip Vergeltung für einen nicht-kooperativen Spielzug des Partners zu nehmen.
Zu diese Kategorisierung der Spielzüge des Gegenübers ist auch die KI in der Lage. Sie weiß also, ob der Spielpartner ihr Gutes oder Böses will. Rahwan und Crandall beobachteten, dass ihr Algorithmus – wie sie es beschreiben – "wütend" wurde und einen bösartigen Spielzug nutzte, wenn der menschliche Mitspieler sich gegen die Kooperation entschied. Bei einer künftigen Zusammenarbeit in der echten Welt gilt es hier natürlich, den Menschen vor der Maschine zu schützen – Crandall verweist hier auf die Notwendigkeit von Richtlinien, wie sie etwa Asimovs Robotergesetze beschreiben.