ChatGPT liefert oft schlichtweg falsche Informationen, weiß Rechtsanwalt Notdurfter und nennt besonders eklatante Beispiele. <BR /><BR /><b>Viele haben das schon probiert und denken sich wenig dabei: Wo liegt das Problem?</b><BR />Christian Notdurfter: KI-Systeme wie ChatGPT, ein Sprachbot des KI-Entwicklers OpenAI, haben das Potenzial, die Welt und unsere Gesellschaften zu verändern. Damit gehen verschiedene Herausforderungen einher – auch in rechtlicher Hinsicht. Eine der großen rechtlichen Herausforderungen ist der Datenschutz. <BR /><BR /><b>Deswegen wohl auch das Verbot aus Italien.</b><BR />Notdurfter: Ja, die italienische Datenschutzbehörde hat schwerwiegende Datenschutzmängel bei ChatGPT festgestellt und der Firma OpenAI untersagt, personenbezogene Daten von Betroffenen in Italien zu verarbeiten. OpenAI hat daraufhin den Zugang zu ChatGPT in Italien gesperrt. Es ist wichtig zu betonen, dass diese Maßnahme vorläufig und nicht endgültig ist. Die Maßnahme war auch ein starkes Zeichen und hat dementsprechend weltweit große Aufmerksamkeit erregt. <BR /><BR /><div class="img-embed"><embed id="885545_image" /></div> <BR /><BR /><b>Was wird in puncto Datenschutz konkret bemängelt?</b><BR />Notdurfter: Konkret beanstandet die Datenschutzbehörde insbesondere 4 Aspekte. Zunächst bemängelt sie die <b>fehlende Transparenz</b> der Datenverarbeitung. Es werden personenbezogene Daten erhoben, um ChatGPT zu trainieren, und es werden auch Daten verarbeitet, die von den Nutzern eingeben werden. Das europäische Datenschutzrecht verlangt hier jedoch mehr Transparenz. Insofern würde die Firma OpenAI ihrem Namen, der gerade Transparenz suggeriert, nicht gerecht.<BR />Weiterhin <b>fehlt eine Rechtsgrundlage</b> für die Erhebung und Verarbeitung personenbezogener Daten für das Training von ChatGPT. Eine solche Rechtsgrundlage, die z. B. in einer Einwilligung oder in einem berechtigten Interesse bestehen kann, muss vorhanden sein, damit die Datenverarbeitung zulässig ist. <BR />Zudem liefert ChatGPT oft <b>ungenaue oder sogar schlicht falsche Informationen</b>. Man spricht in diesem Zusammenhang umgangssprachlich von „Halluzinationen“ der KI, die in einigen Fällen schwerwiegenden Folgen haben können. Einige Fälle, in denen ChatGPT falsche Informationen geliefert hat, haben bereits Aufmerksamkeit erregt. <BR /><BR /><b>Zum Beispiel?</b><BR />Notdurfter: Ein australischer Bürgermeister wurde fälschlicherweise als kriminell dargestellt und mit einem Bestechungs- und Korruptionsskandal in Verbindung gebracht. In Wirklichkeit hatte gerade dieser Bürgermeister den Skandal überhaupt erst aufgedeckt. In einem anderen Fall behauptete ChatGPT, ein amerikanischer Rechtsprofessor habe Studenten auf einer Reise sexuell belästigt, und zitierte dazu einen nicht existierenden Artikel der „Washington Post“. <BR /><BR /><b>Was ist der vierte Punkt, den die Datenschutzbehörde bemängelt?</b><BR />Notdurfter: Das sind <b>Mängel beim Kinderschutz</b>, da keine Prüfung des Alters stattfindet und auch Kinder unter 13 Jahren ohne Weiteres Zugriff auf ChatGPT haben; sie könnten somit Antworten erhalten, die ihrem Entwicklungsstand und ihrer Selbstwahrnehmung nicht angemessen sind. Es bleibt abzuwarten, ob und welche weiteren Datenschutzmängel bei ChatGPT noch thematisiert bzw. aufgedeckt werden. Auch andere Datenschutzbehörden haben zwischenzeitlich Untersuchungen eingeleitet, unter anderem in Deutschland, Österreich, Frankreich und Kanada. Auf europäischer Ebene wurde nun eine besondere Task Force eingerichtet, um die Zusammenarbeit und den Informationsaustausch hinsichtlich möglicher Maßnahmen der Datenschutzbehörden gegen OpenAI zu verbessern. Allerdings bleibt die italienische Datenschutzbehörde bislang die einzige Stelle, die die Nutzung von ChatGPT vorläufig blockiert hat.<BR /><BR /><embed id="dtext86-59122132_quote" /><BR /><BR /><b>Ist das Verbot aus Ihrer Sicht zielführend?</b><BR />Notdurfter: Einmal abgesehen von der Frage, ob die Maßnahme gerichtsfest wäre, ist das Verbot insofern zielführend, als es den Datenschutz als kritischen Aspekt von KI-Systemen wie ChatGPT in das Bewusstsein der internationalen Gesellschaft gerückt hat. Das Verbot der Datenverarbeitung und die öffentliche Aufmerksamkeit, die diese Maßnahme hervorgerufen hat, zwingen OpenAI, sich intensiv mit dem Thema auseinanderzusetzen, den Datenschutz zu verbessern und in einen Dialog mit der Datenschutzbehörde zu treten. Ein entsprechender Austausch hat bereits stattgefunden. Eine weniger drastische Maßnahme hätte vermutlich nicht dieselbe öffentliche Resonanz und das gleiche Engagement von OpenAI ausgelöst. Wenn man bedenkt, dass selbst Sam Altman, der CEO von OpenAI, im Vorfeld öffentlich eingeräumt hat, dass künstliche Intelligenz „reale Gefahren“ birgt ist eine sorgfältige Betrachtung auch aus datenschutzrechtlicher Sicht sicherlich zu begrüßen. <BR /><BR /><b>In der Zwischenzeit hat die Datenschutzbehörde Maßnahmen angeordnet, die OpenAI bis zum 30. April umsetzen muss. Wenn diese Maßnahmen umgesetzt werden, wird die Datenschutzbehörde das Verbot aussetzen. Welche Maßnahmen sind das?</b><BR />Notdurfter: OpenAI muss bis zum 30. April die Transparenz verbessern und die Rechtsgrundlage für die Verarbeitung von Daten für das Training von ChatGPT klären. Außerdem muss es den Betroffenen ermöglicht werden, ihre Rechte, insbesondere das Recht auf Berichtigung unrichtiger Daten, wahrzunehmen. Hinsichtlich des Schutzes von Kindern hat OpenAI hingegen bis zum 30. September 2023 Zeit, ein wirksames System zur Altersüberprüfung einzuführen. Schließlich muss OpenAI eine Informationskampagne starten, um die Öffentlichkeit über die Verwendung ihrer Daten für Trainingszwecke zu informieren.<BR /><BR /><b>Es gibt also tatsächlich Probleme. Welche praktischen Empfehlungen geben Sie für den Umgang mit KI?</b><BR />Notdurfter: Wenn Sie ChatGPT als Privatperson nutzen möchten, sollten Sie aus einer Datenschutzperspektive mindestens die zwei folgenden wesentlichen Punkte beachten:<BR />Zunächst sollten Sie sich bewusst sein, dass die von Ihnen eingegeben Daten an OpenAI gesendet werden und von OpenAI insbesondere zum Training des Chatbots verwendet werden. Es ist nicht auszuschließen, dass diese Daten in der einen oder anderen Form bei anderen ChatGPT-Nutzern wieder auftauchen können. Aus Datenschutzgründen sollten Sie daher vermeiden, personenbezogene Daten einzugeben.<BR />Außerdem sollten Sie die Antworten, die Sie von ChatGPT erhalten, kritisch betrachten und hinterfragen. ChatGPT „denkt“ nicht und „versteht“ die Fragen und eigenen Antworten auch nicht im herkömmlichen Sinne, so wie wir Menschen es tun. Vereinfacht gesagt gibt ChatGPT Wörter und Sätze auf der Basis von Wahrscheinlichkeiten und Mustern wieder, die es aus Trainingsdaten gelernt hat. Aus diesem Grund wird ChatGPT oft auch als „stochastischer Papagei“ bezeichnet: Das System kombiniert und wiederholt Wörter und Strukturen mehr oder weniger zufällig, ohne zu verstehen, was die eigene Antwort eigentlich bedeutet. Es liegt also an uns Menschen, die Antworten kritisch auf ihre Richtigkeit zu überprüfen, auch wenn sie durchaus plausibel klingen.<BR /><BR />