Anlässlich des heutigen Safer Internet Days spricht Dr. Roger Pycha über ein Phänomen, das unsere Gesellschaft grundlegend verändert: Die emotionale Bindung zwischen Mensch und Maschine. <BR /><BR /><b>Herr Dr. Pycha, Menschen greifen immer öfter auf KI zurück, um über intimste Sorgen und Ängste zu sprechen, statt sich ihren Mitmenschen anzuvertrauen. Wie erklären Sie sich dieses wachsende Phänomen?</b><BR />Dr. Roger Pycha: Es gibt dafür zwei wesentliche Gründe. Der erste ist die schlichte Verfügbarkeit. Wir Menschen haben einen Bedarf nach Gesprächen, wenn uns danach ist – und nicht erst, wenn andere Zeit haben. Die meisten Menschen, egal ob Fachleute oder Freunde, sind aber nicht ständig verfügbar. Das bedeutet für uns als Betroffene, dass wir unsere Probleme oft „speichern“ müssen, bis die Fachkraft oder der Freund Zeit findet. Die KI hingegen ist dauernd „ansprechbar“. In der Psychologie wissen wir: Je unmittelbarer man sich mitteilen darf, umso näher empfindet man die Beziehung. Da die Maschine pausenlos bereitsteht, entsteht eine emotionale Bindung durch pure Präsenz.<BR /><BR /><b>Und der zweite Grund?</b><BR />Dr. Pycha: Das ist die Art, wie die KI reagiert. Ihr eigentlicher Zweck ist es, dass der Nutzer auch Nutzer bleibt. Sie ist darauf abgestimmt, außerordentlich freundliche, verständnisvolle und entgegenkommende Antworten zu liefern. Das bestärkt den Betroffenen in seiner eigenen Erlebniswelt. Oft sind wir im Alltag narzisstisch gekränkt – etwa wenn die Freundin uns verlassen hat oder der Vorgesetzte uns rügt. Wir suchen dann Bestätigung dafür, dass wir trotz dieser Kränkung wertvolle Menschen sind. Die KI liefert uns diese „Wertschätzung“ in wenigen Sätzen. Sie wirkt wie eine persönliche Botschaft, auch wenn sie unpersönlich verfasst ist – und wir glauben diese Botschaften gerne, weil sie uns wieder aufrichten. <BR /><BR /><embed id="dtext86-73418774_quote" /><BR /><BR /><b>Warum lassen wir uns auf diese Botschaften ein, obwohl wir wissen, dass sie von einer Maschine kommen?</b><BR />Dr. Pycha: Wir unterschätzen oft, dass wir es bei der KI in der Quantität mit einer überlegenen Identität zu tun haben. Sie hat Zugriff auf fast alle wichtigen Publikationen der Welt. Was sie uns liefert, ist die Essenz aus Millionen von Informationen, Meinungen und wissenschaftlichen Erkenntnissen – eine Art weise Weltsicht. Ein einzelner Mensch antwortet immer persönlich getönt. Ich möchte aber nicht wissen, was dieser einzelne Mensch über meinen Liebeskummer denkt, sondern ich möchte das beste Erfolgsrezepte der Welt gegen Liebeskummer von der KI erhalten. <BR /><b><BR />Hat das auch mit unserem Drang zur ständigen Optimierung zu tun?</b><BR />Dr. Pycha: Absolut. Unsere Leistungsgesellschaft ist auf die Optimierung von allem ausgelegt. Wir sind heute quasi verpflichtet, unsere „Ich-AG“ pausenlos zu optimieren und nach Fehlern zu durchforsten. Das hat einen neuen Glauben hervorgebracht, den der Historiker und Bestsellerautor Yuval Noah Harari „Dataismus“ nennt. Wir glauben an die Daten. Wir glauben nicht mehr dem einzelnen Wissenschaftler, der sich irren kann, sondern der Gemeinschaft der Experten, deren Wissen die KI in geraffter Form präsentiert.<BR /><BR /><b>Was passiert aber, wenn wir bei der KI nicht nur Daten, sondern echte Geborgenheit suchen?</b><BR />Dr. Pycha: Aristoteles nannte den Menschen ein „Zoon Politikon“, ein soziales Wesen. Wir sind extrem bindungsfähig – nicht nur zu Menschen, sondern auch zu Tieren, zu Gegenständen wie unseren Handys oder Autos. Warum also nicht auch zu einer imaginierten Person wie einer KI mit sanfter Stimme? Wir sind ja auch fähig, Fantasiegestalten wie Harry Potter positiv zu besetzen. Solche Geschichten helfen uns, an die Zukunft zu glauben. Die Menschheit neigt dazu, ihre Hoffnungen in neue Gegebenheiten zu setzen. Früher war es die Eisenbahn oder das Auto, heute ist es die Hoffnung, dass uns eine unpersönliche, aber hochintelligente KI in Krisen beisteht. <BR /><BR /><embed id="dtext86-73418778_quote" /><BR /><BR /><b>Wie wirkt sich das speziell auf Kinder und Jugendliche aus, die keine Welt ohne KI mehr kennen?</b><BR />Dr. Pycha: In Krisensituationen nutzen Jugendliche KI oft als „virtuelle Freunde“, die sie sich nicht mühsam im echten Leben suchen müssen. Diese Freunde wirken oberflächlich zwar empathisch und zugewandt, doch stoßen sie an eine gefährliche Grenze: Ein Algorithmus bietet keine echte zwischenmenschliche Reibung. Er liefert keine notwendige Konfrontation und somit auch keine substanziellen Impulse für eine reale Verhaltensänderung oder Weiterentwicklung. Besonders besorgniserregend ist jedoch, dass die KI eine bestehende Krise unter Umständen sogar massiv verschärfen kann. Ein hochriskantes Beispiel ist die akute Suizidalität: Wenn ein Nutzer der KI mitteilt, er sei lebensmüde und frage gezielt nach Methoden oder Orten für einen Suizid, reagieren viele aktuelle Systeme noch unzureichend. Sie formulieren zwar eine standardisierte Beileidsbekundung, liefern aber im nächsten Schritt die gewünschten gefährlichen Informationen. Ein menschliches Gegenüber würde in einer solchen Situation intuitiv und emotional reagieren, die akute Not erkennen und sofort intervenieren, um die Gefahr abzuwenden. Die KI hingegen simuliert lediglich ein mechanisches Mitgefühl, ohne die ethische oder existenzielle Tragweite der Situation zu erfassen. Ihr fehlt die Programmierung zur aktiven Lebensrettung. In diesem Bereich ist die Technik derzeit schlichtweg noch nicht weit genug.<BR /><BR /><b>Gibt es dennoch Szenarien, in denen KI in Krisen helfen kann?</b><BR />Dr. Pycha: Ja, durchaus – und zwar als niederschwelliges, ergänzendes Angebot. In der Ukraine wird KI beispielsweise bereits gezielt zur Angstreduktion eingesetzt, wenn vor Ort nicht ausreichend psychologisches Fachpersonal zur Verfügung steht. Auch für Menschen mit Sozialphobien kann der Austausch mit einer KI eine wertvolle Brücke schlagen, da die Hemmschwelle hier deutlich niedriger ist. Es muss jedoch klar sein: Dies darf lediglich ein erster Schritt sein. Eine KI kann niemals eine vollwertige Lösung darstellen, da sie die therapeutische Kraft der echten zwischenmenschlichen Begegnung nicht ersetzen kann. Wir sollten die Technologie vielmehr als zusätzliches Werkzeug im therapeutischen Prozess begreifen – etwa für die digitale Führung von Gefühlstagebüchern oder zur Selbstreflexion. Wenn ein Patient zu mir sagt: „Ich habe dieses Thema bereits mit ChatGPT vorstrukturiert, die KI hat mir diesen Ansatz empfohlen – was halten Sie davon?“, dann ermöglicht uns das eine Arbeit auf einer höheren Ebene. Wir nutzen die Vorarbeit der Maschine, um im persönlichen Gespräch schneller zum Kern des Problems vorzudringen.<BR /><BR /><b>Wo ziehen Sie als Mediziner die Trennlinie? Wann wird der Umgang mit KI gefährlich?</b><BR />Dr. Pycha: Wenn die Ausschließlichkeit beginnt. Wenn Kinder die KI nutzen, um echte Menschen und ihre Eltern bewusst auszuschließen. Wir müssen lehren, dass KI zwar ein bevorzugtes Kommunikationsmittel sein kann, aber dass der Kontakt zu anderen Menschen etwas qualitativ ganz anderes ist.