Donnerstag, 29. Juni 2023

Schweizer Studie: Chat-GPT verbreitet Fake-News erfolgreich

Chat-GPT hat ein Talent für die Erstellung überzeugender Falschinformationen. Zu diesem Ergebnis kommt eine neue Studie der Universität Zürich (UZH). „GPT-3 ist ein zweischneidiges Schwert“, so das Fazit der Forscher.

Künstliche Intelligenzen bergen Chancen und Risiken. - Foto: © Shutterstock / shutterstock

In der Studie hatten die Teilnehmenden bei von Chat-GPT generierten Tweets mehr Schwierigkeiten, Fake-News zu erkennen, als bei jenen, die von Menschen verfasst wurden. Gleichzeitig verstanden die Teilnehmer aber von Chat-GPT produzierte Tweets besser, wie die am Mittwochabend im Fachblatt „Science Advances“ publizierte Studie zeigt.

Unterscheiden, welche Tweets von Chat-GPT und welche von Menschen verfasst wurden, konnten die Studienteilnehmerinnen und -teilnehmer nicht zuverlässig. „GPT-3 ist ein zweischneidiges Schwert“, schrieben die Forscher als Fazit in der Studie.



Sollte sich die Umfrage nicht automatisch öffnen, klicken Sie hier auf diesen Link.

Von Menschen verfasste Fehlinformationen leichter erkennbar

Die Wissenschafter der Universität Zürich ließen für die Studie 697 Teilnehmerinnen und Teilnehmern im Alter von 26 bis 76 raten, ob ein Tweet von einem realen Twitter-Nutzer oder von Chat-GPT-3 verfasst wurde. Zudem wurden die Teilnehmenden gefragt, ob die Tweets der Wahrheit entsprechen oder nicht. Die Themenfelder der Tweets beinhalteten unter anderem die Corona-Pandemie und die Sicherheit von Impfstoffen, den Klimawandel und homöopathische Behandlungen für Krebs.

Dabei erkannten die Teilnehmenden von Menschen verfasste Fehlinformationen mit einer Wahrscheinlichkeit von 92 Prozent, von Chat-GPT erstellte mit einer Wahrscheinlichkeit von 89 Prozent. Zudem dauerte es bei von Menschen verfassten Tweets im Schnitt länger, bis die Teilnehmenden feststellten, ob ein Tweet korrekt war oder nicht. Das zeigt laut der Studie, dass GPT-3 „effizienter“ informiert als Menschen.

Forscher plädieren für strenge Vorschriften

Diese Resultate deuten darauf hin, dass von GPT-3 erstellte (aber von geschulten Menschen bewertete) Informationskampagnen etwa in Krisensituationen effektiver wären, wie die UZH in einer Mitteilung zur Studie schrieb. Die Erkenntnisse zeigen demnach aber auch Risiken. Die Forschenden plädieren deshalb in der UZH-Mitteilung für strenge, evidenzbasierte und ethisch fundierte Vorschriften, um der potenziellen Bedrohung durch diese Technologien zu begegnen.

Mit dem Software-Instrument ChatGPT hat die Debatte rund um Künstliche Intelligenz (KI) so richtig an Fahrt aufgenommen. Der Sarner Universitätsprofessor Dr. Bernd Gänsbacher hat sich letzthin intensiv mit der Technologie befasst und erläutert im Interview die Funktionsweise, die Vorteile sowie die Gefahren. Lesen Sie hier mehr dazu.

Zum richtigen Umgang mit den neuen Technologien gibt der Rechtsanwalt, Thomas Schnitzer, der auf Internetrecht spezialisiert ist, wichtige Tipps.
Auch um sich vor Kriminellen zu schützen.

apa

Stellenanzeigen


Teilzeit






Teilzeit





powered by
Kommentare
Kommentar verfassen
Bitte melden Sie sich an um einen Kommentar zu schreiben
senden