Bei der Entwicklung und dem Einsatz von künstlicher Intelligenz (KI) geht es ja meist prominent um den Straßenverkehr, nämlich um selbstfahrende Autos, die dann von einer KI gelenkt werden. Dabei habe ich dann auch immer wieder ein Szenario in den Diskussionen zu dem Thema erlebt, was natürlich auch sehr wichtig ist: Wie verhält sich die KI im Falle eines unvermeidbaren Unfalls? Beliebtes Beispiel: Es besteht nur die Option, entweder in eine Menschengruppe zu fahren und dabei mit großer Wahrscheinlichkeit etliche davon zu töten oder aber den Wagen gegen einen Betonpfeiler oder etwas ähnlich Robustes zu setzen, was dann eine große Chance beinhaltet, den Fahrer und eventuelle weitere Insassen zu töten. Mal abgesehen davon, welche Lösung man hier nun als sinnvoller erachtet, so finde ich es vor allem bedenklich, dass so einer Entscheidung eine in hohem Maße psychopathische Denkweise zugrunde liegt.
Kurz vorweg zur Begriffsklärung: Psychopathie wird ja umgangssprachlich immer wieder mal für alle möglichen psychischen Störungen, Erkrankungen und Indispositionen verwendet. Psychopathisches Verhalten ist nun allerdings nicht einfach nur etwas, was man salopp als „verrückt“ bezeichnen würde, beispielsweise wenn jemand mit seiner Zahnbürste an der Leine spazieren geht, sondern ist sehr genau definiert.
Ein Psychopath handelt vor allem ohne Empathie und verfolgt sein Ziel, dass er für absolut richtig hält (hier ergeben sich oft Überschneidungen mit dem Narzissmus), ohne Rücksicht auf Verluste oder auf andere Menschen und ohne von seinem Pfad abzuweichen. Das kann dann in kriminelle Handlungen münden, ist aber in einigen Berufen in gewissem Maße sogar ganz nützlich. So muss ein Chirurg beispielsweise etwas machen, wogegen man sich normalerweise sträubt: einen Menschen aufschneiden. Hier gilt es, das Ziel auch gegen innere Widerstände zu verfolgen.
Und auch in Führungspositionen von Unternehmen finden sich häufig Menschen mit deutlichen psychopathischen Eigenschaften (s. hier), bei Tradern und Investmentbankern stellte eine Schweizer Studie vor einigen Jahren sogar ein stärker psychopathisches Verhalten fest als bei diagnostizierten Psychopathen in der Forensik (s. hier). Das ist natürlich bedenklich, zeigt aber, dass psychopathisches Verhalten in unserer Gesellschaft nicht automatisch dazu führt, keinen Erfolg zu haben oder kriminell zu werden – wobei man Letzteres bei vielen Tradern und auch Spitzenmanagern natürlich noch mal ausgiebig diskutieren könnte.
Als klassisches Beispiel für psychopathisches Denken wird ein Szenario angesehen: Jemand beobachtet, wie eine Straßenbahn außer Kontrolle gerät und in eine Gruppe von Menschen hinzufahren droht. Unmittelbar in seiner Nähe steht eine dicke Person, die mit großer Wahrscheinlichkeit, wenn man sie vor die Straßenbahn stoßen würde, deren Fahrt aufhalten würde. Nun stellt sich die Frage: Soll man eine Person, die einem vollkommen fremd ist, opfern, um dadurch eine ganze Gruppe von Menschen zu retten?
Ein Psychopath würde kein Problem damit haben, den dicken Menschen für das aus seiner Sicht sinnvolle Ziel, so mehr Menschenleben zu retten, auf die Schienen zu schubsen. Alle anderen würden dazu, selbst wenn sie die nackte Rationalität der mehr geretteten Leben einsehen, kaum in der Lage sein. Die Hemmschwelle, einfach so jemanden umzubringen, ist da (glücklicherweise) zu hoch.
Nun erinnert diese Szenario ja ziemlich an das oben geschilderte Entscheidungsdilemma von KI in selbstfahrenden Autos in Unfallsituationen. Und die Tendenz geht, soweit ich das mitbekommen habe, eindeutig in die Richtung, dass möglichst viele Menschenleben gerettet oder verschont werden sollten.
Also eine klar psychopathische Entscheidung, welche die KI da zu treffen hat.
In der Programmierung der KI muss also so ein psychopathisches Muster angelegt werden, damit entsprechend in kritischen Situationen ausschließlich vermeintlich rational entschieden wird, um so den Schaden möglichst gering zu halten. Nun kommt ja noch hinzu, dass KI so konstruiert werden, dass sie selbstlernend sind, um sich selbst zu verbessern und Situationen in ihren „Erfahrungsschatz“ aufzunehmen, die so noch nicht in der Programmierung angelegt waren.
Und diesem Eigenlernen läge dann also eine psychopathische Basiskomponente zugrunde. Ich weiß nicht, ob ich das nun so richtig toll finde …
Wenn eine KI nämlich zur Beurteilung ihrer Umgebung und zum Aufbau ihres Erfahrungshorizonts psychopathische Strukturen nutzt, dann könnte sie ja, durchaus naheliegend, wie ich finde, auch auf die Idee kommen, dass Menschen eigentlich ein Störfaktor für reibungslose Abläufe sind. Und dass man diesen Störfaktor am besten eliminieren sollte.
Klingt jetzt abgedreht? Zumindest sind das ja Gedanken, die Entwickler von KI haben, wie man in der empfehlenswerten arte-Dokumentation „iHuman“ sehen konnte. Da wird dann nämlich tatsächlich davon gesprochen, dass dank KI Menschen überflüssig werden könnten. Und wenn man dann also einer KI von Haus aus noch psychopathische Züge verleiht – na, was dann wohl dabei rauskommt?
Das mag Euch jetzt vielleicht ein bisschen weit hergeholt vorkommen, wenn man die Ausgangssituation einer KI für selbstfahrende Autos betrachtet. Aber ich finde, solche Gedanken sollte man sich besser am Anfang einer Entwicklung machen und nicht erst, wenn die Büchse der Pandora bereits (zu) weit aufgerissen ist.
Dir gefällt, was Karl Haas schreibt?
Dann unterstütze Karl Haas jetzt direkt: