Die Experten waren sich einig, dass KI in der Ermittlungsphase vielfach die Effizienz von Arbeitsabläufen verbessern kann. Doch die neue Technik hat durchaus auch ihre Tücken. <BR /><BR />Wenn z.B. bei Überwachungsvideos Gesichtserkennungssoftware eingesetzt wird, kann diese die Identifizierung von Tatverdächtigen beschleunigen. Doch was, wenn die KI – möglicherweise aufgrund eines Programmfehlers – eine unschuldige Person identifiziert? Oder: Gerade bei komplexen Finanztransaktionen kann die KI blitzschnell große Datenmengen analysieren. Aber nicht jeder, der größere Summen ins Ausland überweist, ist automatisch ein Geldwäscher.<BR /><BR /><div class="img-embed"><embed id="1183539_image" /></div> Wie deshalb Margareth Helfer, Strafrechtsprofessorin am Institut für Italienisches Recht an der Universität Innsbruck und Organisatorin der Tagung, betonte, brauche es in Sachen KI gerade im strafrechtlichen Kontext strenge Maßstäbe hinsichtlich Transparenz, Nachvollziehbarkeit und Kontrolle. Sofern die KI nach bestimmten Kriterien gespeist werde, könne sie ein wertvolles Hilfsmittel sein. Ergebnisse müssten aber durch zusätzliche, objektive Beweiselemente gestützt werden.<BR /><BR />KI eröffnet aber auch Straftätern neue Möglichkeiten. KI-generierte Inhalte – Texte, Bilder und Stimmen – werden für Betrügereien missbraucht (Deepfakes). KI kann aber auch Fotos, die im Internet gepostet werden, benutzen, um Darstellern in Filmen pornografischen Inhalts das Gesicht völlig unbeteiligter Personen zu geben – was auch für Kinderfotos in pädopornografischen Videos gilt (Deepnudes). Deshalb sollte man sehr vorsichtig sein, wenn man visuelle Inhalte in sozialen Netzwerken teilt. Das gilt übrigens auch für sensible Daten, die von Betrügern mit Hilfe von KI für Identitätsdiebstähle missbraucht werden können. <BR /><BR />Mehr noch: Es ist längst keine Utopie mehr, dass ein KI-System ab einem bestimmten Punkt nach seiner ursprünglichen Programmierung beginnt, eigenständig zu denken und zu handeln („machine learning“). Wenn dadurch eine Straftat verübt wird – wer kann dann zur Verantwortung gezogen werden? <BR /><BR />Fabio Basile, Strafrechtsprofessor an der Universität Mailand, stellte zur Diskussion, inwieweit es möglich sei, der KI bzw. der Maschine, die autonom von den noch vom Menschen programmierten Inhalten agiert, eine Rechtspersönlichkeit zuzusprechen, ähnlich der Strafbarkeit von Rechtspersonen. Und in der Folge, welche Sanktionen potenziell denkbar sind – etwa das Abschalten eines Systems, sofern technisch überhaupt möglich. <BR /><BR />Florian Messner, Strafrechtler an der Uni Innsbruck, und Roberto E. Kostoris, Professor für Strafprozessrecht an der Uni Padua, thematisierten die grundrechtlichen Schranken des Strafprozessrechts und die Frage, inwieweit der Einsatz KI-gestützter Technologien mit den verfassungsrechtlichen Garantien eines fairen Verfahrens vereinbar ist.<BR /><BR /> Die Strafrechtsprofessorinnen und Projektpartnerinnen Kolis Summerer (Freie Uni Bozen) sowie Antonia Menghini und Elena Mattevi (beide Uni Trient) betonten, dass gerade im sensiblen Bereich des Strafrechts technologische Innovation nicht zu einem Abbau rechtsstaatlicher Garantien führen dürfe.<BR /><BR />Bei der Tagung wurden auch die Ergebnisse des Projekts Euregio-Mobility-Fund 2024 „Criminal Law and AI (CrimAI)“ der Unis Innsbruck, Bozen und Trient präsentiert. Enrico Mario Ambrosetti, Strafrechtsprofessor an der Uni Padua, hob die Bedeutung des Projekts für die europäische rechtswissenschaftliche Zusammenarbeit hervor. Mit dem AI Act liege zwar ein erster europäischer Rechtsrahmen vor – für die konkrete Umsetzung brauche es aber ausgewogene, rechtlich tragfähige und praktisch umsetzbare Lösungen.