Auch Kriminelle nützen mittlerweile Künstliche Intelligenz, erklärt der Rechtsanwalt. Eine Form ist Sextortion – und es könnte jede und jeden von uns treffen. <BR /><BR /><BR /><b>Im März hatte die italienische Datenschutzbehörde ChatGPT gesperrt, inzwischen ist es wieder verfügbar. Was hat sich geändert?</b><BR />Thomas Schnitzer: Gründe für die Sperrung waren unter anderem, dass die Nutzer nicht transparent über die Verarbeitung ihrer Daten informiert wurden und dem Betreiber die Rechtsgrundlage für das Sammeln und Speichern von personenbezogenen Daten fehlte. Einer der wichtigsten Gründe war jedoch das Fehlen einer Alterskontrolle für Minderjährige. Inzwischen hat OpenAI, der Betreiber von ChatGPT, die notwendigen Änderungen vorgenommen.<BR /><BR /><b>Worin bestanden diese?</b><BR />Schnitzer: Es wurden Informationen über die Verwendung der Nutzerdaten veröffentlicht, für Nutzer innerhalb der EU wurde zudem die Möglichkeit geschaffen, Widerspruch gegen die Verwendung ihrer Daten einzulegen. Eine Alterskontrolle für Minderjährige wurde ebenfalls eingeführt. Nun will auch die EU ein Gesetzespaket erlassen, Mitte Juni hat sich das EU-Parlament auf eine gemeinsame Position geeinigt. Das Paket soll den Namen Artificial Intelligence Act (AI Act) tragen und die Verwendung von Künstlicher Intelligenz, unter die auch Programme wie ChatGPT fallen, reglementieren und Missbrauch verhindern. Der AI Act soll KI in 4 Risikokategorien unterteilen.<BR /><BR /><div class="img-embed"><embed id="913072_image" /></div> <BR /><BR /><b>Welche sind das?</b><BR />Schnitzer: Zum ersten sollen Anwendungen, die ein inakzeptables Risiko darstellen, gänzlich verboten werden. Social-Scoring-Modelle beinhalten solche Risiken, bei diesen werden Personen u. a. auf Grundlage ihrer Persönlichkeitsmerkmale klassifiziert. Zweitens gibt es Anwendungen mit hohem Risiko: Sie werden zwar nicht verboten, müssen die Nutzer aber ausreichend über die Datenerhebung und -verarbeitung informieren. Auch sind die Betreiber verpflichtet, eine Risikoevaluierung ihrer Anwendung vorzulegen. Als Anwendungen mit hohem Risiko gelten all jene, die u. a. für den Bildungsbereich, kritische Infrastrukturen oder Grenzkontrollen eingesetzt werden. <BR /><BR /><b>Und die anderen beiden Kategorien?</b><BR />Schnitzer: An dritter Stelle stehen Anwendungen mit limitiertem Risiko: Nutzer sollen wenigstens darauf hingewiesen werden, dass sie mit einem Bot und keinem Menschen kommunizieren. Ein Beispiel für solche Anwendungen sind Chatbots, also Bots, welche automatisch Antworten, Kommentare und Fragen generieren können, um mit Menschen zu interagieren. Schließlich sind für Anwendungen, die nur ein minimales Risiko darstellen, keine Beschränkungen oder Pflichten vorgesehen. Es handelt sich u.a. um Videospiele mit Elementen von Künstlicher Intelligenz. <BR /><BR /><b>Wie sieht es mit dem Schutz der Privacy aus?</b><BR />Schnitzer: Das ist ein wichtiger Punkt. Die EU-Abgeordneten forderten weitere Verbote für jene KI-Anwendungen, die in die Privatsphäre eingreifen und Personen diskriminieren können. So sollen z. B. biometrische Systeme, durch die es möglich ist, Personen im Nachhinein oder in Echtzeit zu identifizieren, verboten werden. Stark diskutiert wurde auch über ein Verbot der Nutzung einer Live-Gesichtserkennung in der Strafverfolgung, die nur nach richterlicher Zustimmung möglich sein soll. Bis das Gesetz effektiv Rechtswirkung erlangt, werden aber wohl noch 2 bis 3 Jahre vergehen. <BR /><BR /><embed id="dtext86-60202331_quote" /><BR /><BR /><BR /><b>Apropos Strafverfolgung: Wie groß ist das Risiko, dass Künstliche Intelligenz in Zukunft gezielt zur Begehung von Straftaten eingesetzt wird?</b><BR />Schnitzer: Diese Zukunft ist bereits da – leider. Seit April dieses Jahres verzeichnet beispielsweise das amerikanische FBI einen Anstieg von Fällen einer neuen Form von Sextortion. Dabei werden Bilder und Videos mittels KI erstellt und so manipuliert, dass darauf Personen bei sexuellen Handlungen zu sehen sind. Diese Bilder und Videos werden den Opfern dann zugesendet und diese damit erpresst.<BR /><BR /><b>Welche Maßnahmen sind vorgesehen, um solche und andere Straftaten zu verhindern?</b><BR />Schnitzer: Künftig müssen Anbieter von Modellen wie ChatGPT die Risiken ihrer Programme abschätzen und versuchen, diese zu mindern. Dabei kann es sich sowohl um Gesundheitsrisiken als auch um Risiken für die Demokratie handeln. Zudem müssen Nutzer transparent darüber informiert werden, dass Inhalte von künstlicher Intelligenz erzeugt wurden, was vor allem dazu beitragen soll, Deep-Fake-Bilder und <BR />-Videos besser von Echten zu unterschieden. <BR /><BR />