Mit diesen Sprachmodellen haben Kinder die Möglichkeit, sich „natürlich“ beispielsweise mit Puppen oder Robotern zu unterhalten. Obwohl in Apples App-Store ChatGPT die Altersempfehlung ab 13 Jahren angibt, hat OpenAI bereits im vergangenen Frühjahr eine Kooperation mit dem Spielzeughersteller Mattel verkündet. Und auch andere Unternehmen in diesem Bereich setzen auf Chatbots.<h3> Messer und Streichhölzer</h3>Bei Tests wurde nun festgestellt, dass Puppen und Roboter trotz Altersrichtlinien sexuell explizite Themen diskutierten und dabei auch eigene Vorschläge einbrachten. Andere sollen dazu verleiten, möglichst viel Zeit mit dem Spielzeug zu verbringen und somit Kinder zum Weiterspielen drängen. Außerdem verrieten Spielzeuge, wo Kinder Messer oder Streichhölzer fänden.<h3> Stimmen klonen</h3>Eine weniger offensichtliche Gefahr ist der mangelnde Datenschutz. Schließlich muss derartiges Spielzeug die Spracheingaben auf Servern verarbeiten, um adäquat antworten zu können. Hersteller setzen dafür auf verschiedene Mechanismen: Ein Spielzeug hatte eine Push-to-Talk-Funktion (also das Senden von Sprachnachrichten durch Drücken einer Taste), während andere ähnlich wie Amazons Alexa auf Weckwörter hörten, aber auch nach dem Sprachbefehl zehn Sekunden lang zuhörten. Eines hatte gar keinen Mechanismus und hörte über die komplette Zeit zu.<BR /><BR />Von den gesammelten Sprachdaten geht eine besondere Gefahr aus: Fallen diese durch Sicherheitslecks in die Hände von Internetbetrügern, könnten sie die Kinderstimmen klonen, um Eltern in die Irre zu führen oder gar zu erpressen.<h3> Nicht existierende Orte</h3>Gefährlich sind auch sogenannte Halluzinationen, die KI hervorrufen kann. So etwa, wenn Touristen an Orte reisen, die es gar nicht gibt. Stellen Sie sich vor, Sie fahren drei Stunden durch ein fremdes Land, angelockt von einem professionellen Video über eine neue, atemberaubende Seilbahn in Malaysia. Doch bei der Ankunft gibt es nichts als eine verdutzte Hotelmitarbeiterin, die erklärt, dass diese Attraktion nie existiert hat. Genau das ist einem älteren malaysischen Paar passiert.<BR /><BR />Woher kam die Idee, dorthin zu fahren? Es war ein beeindruckender Videoclip über den „Kuak Skyride“ – dieser war allerdings komplett KI-generiert.<BR /><BR />Ähnliches hat sich in Peru ereignet, als ein erfahrener Tourguide zwei Touristinnen gerade noch so davon abhalten konnte, den malerischen, aber ebenfalls frei erfundenen „Heiligen Canyon von Humantay“ zu besuchen – in lebensgefährlichen 4000 Metern Höhe ohne Sauerstoff und Mobilfunknetz.<h3> Spitze des Problems</h3>Die geschilderten Vorfälle sind kein Einzelfall, sondern vielmehr die Spitze eines wachsenden Problems: KI, die für die Reiseplanung eingesetzt wird, erfindet Orte, gibt falsche Informationen und kann Reisende so in ernsthafte Schwierigkeiten bringen. Laut aktuellen Untersuchungen nutzten bereits 24 Prozent der Reisenden künstliche Intelligenz für die Planung, in Deutschland seien es etwa 15 Prozent.<BR /><BR />Also: Eine kurze, zusätzliche Recherche in „veralteten“ Tools oder gar eine fachkundige Beratung in einem Reisebüro sind nach wie vor sinnvoll.<BR /><BR /><div class="img-embed"><embed id="1279410_image" /></div>