(TL). Wie menschenähnlich kann eine KI in strategischen Entscheidungen wirklich sein? Eine faszinierende Studie, die kürzlich in den „Proceedings of the National Academy of Sciences“ veröffentlicht wurde, liefert neue Einblicke in diese Diskussion. Durch den Einsatz von psychologischen Turing-Tests haben Forscher herausgefunden, dass die neuesten Generationen von ChatGPT – insbesondere GPT-4 – in vielen Aspekten erstaunlich menschenähnliche Züge aufweisen.
Der Weg zum digitalen Altruismus
Die Forscher um Qiaozhu Mei von der University of Michigan haben die „Persönlichkeiten“ von GPT-3.5 und GPT-4 mit einer Vielzahl von Spieltests auf die Probe gestellt. Diese Spiele, zu denen das Gefangenendilemma und das Ultimatumspiel zählen, sind darauf ausgelegt, Entscheidungen zu analysieren, die auf Fairness, Kooperation, Altruismus und Vertrauen basieren. Im Vergleich zu den Antworten von über 108.000 Menschen aus 50 Ländern lieferte vor allem GPT-4 Ergebnisse, die denen eines durchschnittlichen Menschen verblüffend ähnlich waren.
GPT-4: Mehr als nur eine Maschine?
Im Gegensatz zu seinem Vorgänger GPT-3.5 hat GPT-4 den Turing-Test mit Bravour bestanden und zeigt, dass es bei sozialen Entscheidungen fast genauso reagiert wie ein Mensch. Interessanterweise tendieren beide KI-Modelle dazu, altruistischer und fairer zu agieren als der Durchschnitt der Menschheit. Dies ist besonders im Gefangenendilemma offensichtlich, wo GPT-4 in fast 92 Prozent der Fälle kooperierte – ein starkes Zeichen von Altruismus und Kooperationsbereitschaft, das weit über die menschliche Neigung hinausgeht.
Das menschliche Element in der KI
Eines der überraschendsten Ergebnisse der Studie ist die menschliche Reaktion der KI-Systeme auf Framing und vorherige Erfahrungen. Wenn beispielsweise ChatGPT gebeten wurde, seine Entscheidungen zu erklären oder informiert wurde, dass eine dritte Partei diese überprüfen wird, zeigte die KI signifikant mehr Großzügigkeit. Diese Fähigkeit, aus Erfahrungen zu lernen und die Perspektive des Gegenübers zu verstehen, deutet darauf hin, dass KI-Systeme mehr sind als nur kühle Rechenmaschinen. Sie sind in der Lage, ein Verständnis für menschliche Interaktionen und die Bedeutung von Kooperation und Fairness zu entwickeln.
Der Einsatz von KI in sensiblen Bereichen
Die Studie von Mei und seinem Team lässt optimistisch in die Zukunft blicken. Die Ergebnisse legen nahe, dass KI-Systeme, insbesondere solche auf dem Entwicklungsstand von GPT-4, durchaus für den Einsatz in sensiblen Bereichen wie dem Kundenservice, der Konfliktschlichtung und sogar im Gesundheitswesen geeignet sein könnten. Ihre Fähigkeit, menschlich zu agieren und sogar in einigen Aspekten menschliche Reaktionen zu übertreffen, öffnet neue Wege für den Einsatz von KI in unserer Gesellschaft.
Fazit: Die Brücke zwischen Mensch und Maschine
Die jüngsten Entwicklungen und Forschungen zeigen, dass die Unterscheidung zwischen menschlichem Verhalten und dem einer KI immer schwerer zu treffen ist. GPT-4 markiert einen entscheidenden Schritt hin zu einer KI, die nicht nur menschliche Entscheidungen nachahmen kann, sondern auch menschliche Werte wie Altruismus und Fairness in ihren Aktionen widerspiegelt. Diese Erkenntnisse werfen ein neues Licht auf die Rolle von KI in unserer Gesellschaft und deuten auf ein Zukunftsbild hin, in dem KI-Systeme als Partner und Helfer agieren, die nicht nur effizient, sondern auch empathisch und moralisch handeln können.
Quelle: Proceedings of the National Academy of Sciences (PNAS), 2024; doi: 10.1073/pnas.2313925121)