<b>Wie wird KI im Gesundheitswesen eingesetzt?</b><BR />Dr. Herbert Heidegger: KI bringt viele Vorteile, sei es in der Diagnostik, in der Therapie oder in der Prävention. Sie wird z. B. als Entscheidungsunterstützung in der Bildgebung verwendet. Radiologen betrachten nicht mehr alle Röntgenbilder, sondern die KI screent die Aufnahmen. Die Radiologen schauen sich nur noch auffällige Bilder an. KI wird nicht nur im Röntgenbereich eingesetzt, sondern auch in der Mammografie oder in der Ultraschalldiagnostik. Es gibt auch in der Früherkennung von Alzheimer die Sprachanalyse die KI basiert ist.<BR /><BR /><embed id="dtext86-63606457_quote" /><BR /><BR /><b>Kann KI auch gegen den Fachkräftemangel helfen?</b><BR />Dr. Heidegger: Klar. Es gibt schon Forschungsprojekte in verschiedenen Bereichen. Da geht es etwa um Roboter, die in der Pflege eingesetzt werden. Der „intelligente Rollator“ wird schon getestet. <BR /><BR /><b>Damit einhergehen aber auch bestimmte Risiken?</b><BR />Dr. Heidegger: Ethische Fragen der Digitalisierung im Bereich von Gesundheit und Krankheit werden zunehmend diskutiert. Neben Fragen des Datenschutzes werden insbesondere auch Auswirkungen auf die Patientenautonomie und die Arzt-Patient-Beziehung diskutiert. Eine weitere Frage ist: Wer hat die Verantwortung, für das was KI macht?<BR /><BR /><embed id="dtext86-63606591_quote" /><BR /><BR /><b>Die KI-Entwicklungen werden hauptsächlich von weltweit agierenden Unternehmen, wie Google oder Facebook, gestaltet. Wie problematisch ist das?</b><BR />Dr. Heidegger: Diese Unternehmen arbeiten autonom und sind nicht an nationale Gesundheitssysteme angeschlossen. Sie richten sich direkt und niederschwellig an den Verbraucher. Die Qualität wird nicht kontrolliert. <BR /><BR /><b>Was bedeutet das?</b><BR />Dr. Heidegger: Das primäre Ziel von KI sollte sein Gesundheit zu fördern, möglichst viele Menschen sollten durch Prävention und Therapie gesund bleiben. Weltfirmen verfolgen oft vor allem strategisch unternehmerische und ökonomische Ziele. <BR /><BR /><embed id="dtext86-63606596_quote" /><BR /><BR /><b>Außerdem haben nicht alle Menschen weltweit Zugang zum Gesundheitswesen...</b><BR />Dr. Heidegger: Man spricht von einer digitalen Kluft. Ärmere Menschen haben vielleicht keinen ausreichenden digitalen Zugang und sind hinsichtlich ihrer Gesundheitschancen benachteiligt. <BR /><BR /><b>Das Landesethikkomitee organisiert morgen eine Veranstaltung zum Thema. Was erwartet Interessierte?</b><BR />Dr. Heidegger: Dr. Marckmann wird über die ethische Bewertung der KI im Gesundheitswesen referieren. Er wird sich auf die 4 medizinethischen Prinzipien berufen: das Prinzip des Wohltuns, das Prinzip des Nichtschadens, das Prinzip des Respekts der Autonomie und das Prinzip der Gerechtigkeit. Daraus versucht er möglichst konkrete Handlungsempfehlungen zu entwickeln. <BR /><BR /><embed id="dtext86-63606641_quote" /><BR /><BR /><b>Zum Beispiel?</b><BR />Dr. Heidegger: Beim Prinzip des Wohltuns stellt sich die Frage: Nützt die KI dem Menschen wirklich? Wird die Lebensqualität, die Gesundheit durch sie verbessert? Oder das Prinzip des Nichtschadens: Wie häufig sind Fehler, wie ist die Datensicherheit, wer ist am Ende verantwortlich. Wie häufig empfiehlt KI eine Behandlung, die nicht die beste für diesen Menschen ist? <BR /><BR /><b>Wie kann man diesen Nachteilen von KI am besten entgegentreten?</b><BR />Dr. Heidegger: Bei der Anwendung der digitalen Technologien sind ethische Überlegungen zu berücksichtigen, die sich von der Frage der Zielbestimmung über gerechtigkeitsethische Fragen, Fragen der Selbstbestimmung bis hin zu Fragen des Datenschutzes erstrecken. Keine KI darf in unserer täglichen Arbeit menschliche Zuwendung , Bewertung und Erfahrung ersetzen.<BR /><BR /><embed id="dtext86-63606646_quote" /><BR /><BR /><b>Erst kürzlich hat die Weltgesundheitsorganisation (WHO) Richtlinien veröffentlicht. Was empfiehlt sie?</b><BR />Dr. Heidegger: Die WHO sagt, dass die menschliche Autonomie nicht ausgehebelt werden darf. KI muss ausreichend transparent sein. KI kann die menschliche Intelligenz und die Bewertung durch den Menschen nicht ersetzen. Der Mensch muss entscheidend in der Beurteilung sein. <BR /><BR /><b>Bräuchte es solche Empfehlungen auch in Südtirol?</b><BR />Dr. Heidegger: Ja. Es bräuchte möglichst konkrete Handlungsempfehlungen zu KI, um aufzuzeigen, wie eventuelle Risiken vermieden werden könnten.<BR /><BR /><BR />Am morgigen Mittwoch, den 28. Februar 2024, lädt das Landesethikkomitee alle Interessierten zu einer kostenlosen Informationsveranstaltung über ethische Aspekte von Künstlicher Intelligenz (KI) im Gesundheitswesen ein, 17 bis 19 Uhr, Landhaus 1 am Bozner Silvius-Magnago-Platz. Neben <Fett>Dr. Herbert Heidegger</Fett> werden auch die beiden Professoren <Fett>Dr. Bernd Gänsbacher</Fett> und <Fett>Dr. Georg Marckmann</Fett> zum Thema referieren. Im Anschluss ist eine Diskussion mit dem Publikum vorgesehen.