Skip to main content
Erschienen in: Ethik in der Medizin 2/2023

Open Access 01.06.2023 | Editorial

Künstliche Intelligenz in Medizin und Pflege

verfasst von: Dr. Sebastian Schleidgen, Prof. Dr. Dr. Orsolya Friedrich

Erschienen in: Ethik in der Medizin | Ausgabe 2/2023

download
DOWNLOAD
print
DRUCKEN
insite
SUCHEN

Thema

Der Einsatz Künstlicher Intelligenz (KI), d. h. algorithmischer Systeme, die eigenständig komplexe Probleme lösen können, wird absehbar eine bedeutsame Rolle in der klinischen wie pflegerischen Praxis spielen. In der klinischen Praxis sind teilweise schon jetzt KI-Systeme im Einsatz, die diagnostische und therapeutische Entscheidungen unterstützen oder prognostisch arbeiten. Schon seit einigen Jahren werden etwa Systeme zur diagnostischen Unterstützung in der Radiologie getestet und diskutiert (Wu et al. 2020; McKinney et al. 2020). Damit einhergeht die Hoffnung auf schnellere, effizientere und effektivere Diagnosen und Entscheidungen sowie neue Therapie- und Prognosemöglichkeiten, insbesondere in der Big Data-basierten Medizin (d. h. in medizinischen Bereichen, die auf die Verarbeitung großer Mengen komplexer und unstrukturierter Daten angewiesen sind). In der pflegerischen Praxis spielt KI v. a. im Zusammenhang mit dem Einsatz von Pflegerobotern wie Paro oder Pepper eine Rolle, die pflegebedürftige Personen eigenständig animieren, mit diesen kommunizieren oder bestimmte pflegerische Tätigkeiten übernehmen sollen (Bendel 2018).
Diesen Erwartungen gegenüber steht eine Reihe ethischer Bedenken, etwa hinsichtlich möglicher Auswirkungen eines zunehmenden Einsatzes KI-basierter Systeme auf die ärztliche und pflegerische Rolle oder das Ärzt:innen-Patient:innen-Verhältnis. Darüber hinaus werden Fragen des Datenschutzes ebenso diskutiert wie mögliche gesellschaftliche Implikationen. Einen weiteren Schwerpunkt in der Debatte bilden die möglichen ethischen Implikationen der mangelnden Erklärbarkeit bzw. Explizierbarkeit von Diagnosen, therapeutischen Entscheidungen sowie Prognosen durch KI-basierte Systeme und ihre Bedeutung für Patient:innen bzw. die Interaktion zwischen Mensch und Medizintechnologie im Allgemeinen. Mit Blick auf den Einsatz von Pflegerobotern steht im Fokus der Debatten, unter welchen Bedingungen solche Systeme als vertrauenswürdig gelten können bzw. wie ein im Sinne pflegebedürftiger Personen angemessener Einsatz aussehen kann.
Die skizzierten Erwartungen an den Einsatz KI-basierter Systeme in Medizin und Pflege, wie auch insbesondere die damit verbundenen ethischen Herausforderungen, werfen darüber hinaus eine Reihe von Rechtsfragen auf. Von besonderer Bedeutung sind dabei Fragen zivilrechtlicher Haftung sowie strafrechtlich relevanter Verantwortung im Kontext des Einsatzes von KI-basierten Systemen. Insofern eine angewandt-ethische Reflexion neuer technologischer Entwicklungen grundsätzlich auch den geltenden Rechtsrahmen bzw. hier auftretende Lücken und Herausforderungen berücksichtigen muss, erscheint eine Auseinandersetzung mit diesen Fragen auch mit Blick auf die ethische Analyse geboten.

Beiträge

Das Themenschwerpunktheft ist einigen der zentralen ethischen und rechtlichen Herausforderungen gewidmet, die sich im Zusammenhang mit dem Einsatz von KI in Medizin und Pflege ergeben.
Frank Ursin, Felix Lindner, Timo Ropinski, Sabine Salloch und Cristian Timmermann gehen in ihrem Beitrag „Levels of explicability for medical artificial intelligence: what do we normatively need and what can we technically reach?“ der Frage nach, welches Maß an Explizierbarkeit erforderlich ist, um eine ethisch angemessene informierte Einwilligung durch Patient:innen in Kontexten des Einsatzes medizinischer KI-Systeme zu ermöglichen. Dazu unterscheiden die Autor:innen mit der Offenlegung (disclosure), der Verstehbarkeit (intelligibility), der Interpretierbarkeit (interpretability) und der Erklärbarkeit (explainability) zunächst vier Ebenen der Explizierbarkeit, die in ethisch angemessenen Einwilligungsprozessen relevant sein können. Im Anschluss zeigen sie Möglichkeiten ihrer technischen Umsetzung auf und argumentieren, dass Verstehbarkeit, Interpretierbarkeit und Erklärbarkeit nicht notwendig bzw. nicht in jedem Fall des Einsatzes medizinischer KI-Systeme zu gewährleisten seien, um eine ethisch angemessene informierte Einwilligung zu ermöglichen. Vielmehr seien die individuellen Bedürfnisse von Patient:innen im Einzelfall sowie die möglichen Folgen medizinischer Entscheidungen zu berücksichtigen: Patient:innen seien beispielsweise umso mehr Ebenen der Explizierbarkeit anzubieten, je invasiver und potenziell beeinträchtigender oder je weniger reversibel ein mit dem Einsatz medizinischer KI-Systeme verbundener medizinischer Eingriff sei.
Arne Manzeschke und Galia Assadi gehen in ihrem Beitrag „Künstliche Emotion – Zum ethischen Umgang mit Gefühlen zwischen Mensch und Technik“ davon aus, dass der derzeitige Diskurs um emotions- und soziosensitive Roboter in der Pflege eher Ausdruck eines technologischen Solutionismus als einer realitätsgerechten Beschreibung des pflegerischen Alltags sei. Mit Blick auf die weiterhin bestehenden technischen Herausforderungen einerseits sowie den derzeit lediglich vereinzelten Einsatz solcher Systeme sei es aus ethischer Perspektive weniger drängend, wie emotions- und soziosensitive Roboter bzw. ihr Einsatz in pflegerischen Kontexten konkret bewertet werden können. Zentral sei vielmehr eine Explikation jener normativen Aspekte, die im Rahmen der Entwicklung und des zukünftigen Einsatzes emotions- und soziosensitiver Roboter Beachtung finden sollten. Vor diesem Hintergrund skizzieren die Autor:innen Elemente eines anthropologisch-ethischen Analysemodells im Sinne einer fünfdimensionalen Heuristik, deren Dimensionen „Emotion“, „Interaktion“, „Kontext“, „Akteur“ und „Aktant“ angemessene Situationsanalysen erlauben sollten, auf deren Basis emotions- und soziosensitive Roboter entwickelt bzw. ethisch evaluiert werden könnten. Im Rahmen solcher Analysen sei insbesondere die Differenz zwischen menschlichen Emotionen einerseits und ihrer technischen Simulation andererseits zu berücksichtigen, um zu gewährleisten, dass sozioemotionale Systeme – wenigstens in bestimmten Kontexten – tatsächlich einen Beitrag zu Heilung, Therapie oder Steigerung von Lebensqualität leisteten.
Ines Schröder, Oliver Müller, Helena Scholl, Shelly Levy-Tzedek und Philipp Kellmeyer unterziehen das Konzept des Vertrauens im ethischen Diskurs um soziale Roboter in der Pflege unter dem Titel „Can robots be trustworthy? Reflections about responsive robots and trust as a human capability“ einer kritischen Analyse. Dazu explizieren sie zunächst die Bedeutung von Vertrauen im Kontext der Entwicklung und des Einsatzes von Pflegerobotern. Anschließend analysieren die Autor:innen Vertrauen als mehrdimensionales Phänomen, für das die Fähigkeit des Vertrauen-Könnens mit Blick auf den Aufbau von Beziehungen zentral sei. Aufgrund der damit verbundenen relationalen Aspekte seien „Vertrauen“ und „Vertrauen-Können“ prinzipiell responsiv und setzten responsive Andere notwendig voraus. Damit, so die Autor:innen, sei das Konzept der Responsivität zentral, um „Vertrauen-Können“ begrifflich zu fassen. Vor diesem Hintergrund untersuchen sie den Zusammenhang bestimmter responsiver Qualitäten von Robotern und menschlicher Vertrauensbereitschaft bei simulierter (virtueller) Responsivität und skizzieren abschließend einige ethisch relevante Implikationen für die Auszeichnung vertrauenswürdiger Roboter.
Im abschließenden Beitrag „Rechtliche Aspekte des Einsatzes von KI und Robotik in Medizin und Pflege“ beschäftigen sich Susanne Beck, Michelle Faber und Simon Gerndt zunächst mit den zivil- und strafrechtlichen Herausforderungen des Einsatzes von Machine Learning (ML)-basierten Systemen in Medizin und Pflege. Angesichts ihres Black Box-Charakters stelle sich die juristische Kernfrage, wem etwa die Entscheidungen solcher Systeme normativ zuzurechnen seien. Dabei sei die naheliegende Position, solche Entscheidungen dem jeweils letztentscheidenden Menschen zuzurechnen, nicht in allen Situationen überzeugend. Darüber hinaus ergäben sich nach Auffassung der Autor:innen schwierige Fragen hinsichtlich der Zulassung von ML-Systemen im medizinischen und pflegerischen Bereich, insbesondere mit Blick auf den Umstand, dass solche Systeme in Nutzungskontexten weiterlernen und damit ihren strukturellen Aufbau kontinuierlich veränderten. Vor diesem Hintergrund sei es notwendig, frühzeitig einen praxisgerechten Handlungsrahmen zu schaffen.

Förderung

Das Themenschwerpunktheft entstand im Rahmen der Emmy Noether Forschungsgruppe „Interaktion in der Mensch-Maschine-Interaktion“, gefördert durch die Deutsche Forschungsgemeinschaft (DFG), Projektnummer 418201802.

Interessenkonflikt

S. Schleidgen und O. Friedrich geben an, dass kein Interessenkonflikt besteht.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Unsere Produktempfehlungen

e.Med Interdisziplinär

Kombi-Abonnement

Jetzt e.Med zum Sonderpreis bestellen!

Für Ihren Erfolg in Klinik und Praxis - Die beste Hilfe in Ihrem Arbeitsalltag

Mit e.Med Interdisziplinär erhalten Sie Zugang zu allen CME-Fortbildungen und Fachzeitschriften auf SpringerMedizin.de.

Jetzt bestellen und 100 € sparen!

e.Dent – Das Online-Abo der Zahnmedizin

Online-Abonnement

Mit e.Dent erhalten Sie Zugang zu allen zahnmedizinischen Fortbildungen und unseren zahnmedizinischen und ausgesuchten medizinischen Zeitschriften.

Ethik in der Medizin

Print-Titel

• Forum für die wissenschaftliche Erarbeitung, interdisziplinäre
Kommunikation und Vermittlung von Ethik in der Medizin in
allen Anwendungsbereichen
• Offizielles Organ der Akademie für Ethik in der Medizin

Literatur
Zurück zum Zitat Bendel O (2018) Roboter im Gesundheitsbereich. In: Bendel O (Hrsg) Pflegeroboter. Springer Gabler, Wiesbaden, S 195–212CrossRef Bendel O (2018) Roboter im Gesundheitsbereich. In: Bendel O (Hrsg) Pflegeroboter. Springer Gabler, Wiesbaden, S 195–212CrossRef
Zurück zum Zitat McKinney SM, Sieniek M, Godbole V, Godwin J, Antropova N, Ashrafian H, Back T, Chesus M, Corrado GS, Darzi A, Etemadi M, Garcia-Vicente F, Gilbert FJ, Halling-Brown M, Hassabis D, Jansen S, Karthikesalingam A, Kelly CJ, King D, Ledsam JR, Melnick D, Mostofi H, Peng L, Reicher JJ, Romera-Paredes B, Sidebottom R, Suleyman M, Tse D, Young KC, De Fauw J, Shetty S (2020) International evaluation of an AI system for breast cancer screening. Nature 577(7788):89–94CrossRefPubMed McKinney SM, Sieniek M, Godbole V, Godwin J, Antropova N, Ashrafian H, Back T, Chesus M, Corrado GS, Darzi A, Etemadi M, Garcia-Vicente F, Gilbert FJ, Halling-Brown M, Hassabis D, Jansen S, Karthikesalingam A, Kelly CJ, King D, Ledsam JR, Melnick D, Mostofi H, Peng L, Reicher JJ, Romera-Paredes B, Sidebottom R, Suleyman M, Tse D, Young KC, De Fauw J, Shetty S (2020) International evaluation of an AI system for breast cancer screening. Nature 577(7788):89–94CrossRefPubMed
Zurück zum Zitat Wu N, Phang J, Park J, Shen Y, Huang Z, Zorin M, Jastrzebski S, Fevry T, Katsnelson J, Kim E, Wolfson S, Parikh U, Gaddam S, Lin LLY, Ho K, Weinstein JD, Reig B, Gao Y, Toth H, Pysarenko K, Lewin A, Lee J, Airola K, Mema E, Chung S, Hwang E, Samreen N, Kim SG, Heacock L, Moy L, Cho K, Geras KJ (2020) Deep neural networks improve radiologists’ performance in breast cancer screening. IEEE Trans Med Imaging 39(4):1184–1194CrossRefPubMed Wu N, Phang J, Park J, Shen Y, Huang Z, Zorin M, Jastrzebski S, Fevry T, Katsnelson J, Kim E, Wolfson S, Parikh U, Gaddam S, Lin LLY, Ho K, Weinstein JD, Reig B, Gao Y, Toth H, Pysarenko K, Lewin A, Lee J, Airola K, Mema E, Chung S, Hwang E, Samreen N, Kim SG, Heacock L, Moy L, Cho K, Geras KJ (2020) Deep neural networks improve radiologists’ performance in breast cancer screening. IEEE Trans Med Imaging 39(4):1184–1194CrossRefPubMed
Metadaten
Titel
Künstliche Intelligenz in Medizin und Pflege
verfasst von
Dr. Sebastian Schleidgen
Prof. Dr. Dr. Orsolya Friedrich
Publikationsdatum
01.06.2023
Verlag
Springer Berlin Heidelberg
Erschienen in
Ethik in der Medizin / Ausgabe 2/2023
Print ISSN: 0935-7335
Elektronische ISSN: 1437-1618
DOI
https://doi.org/10.1007/s00481-023-00772-8

Weitere Artikel der Ausgabe 2/2023

Ethik in der Medizin 2/2023 Zur Ausgabe

Alter der Mutter beeinflusst Risiko für kongenitale Anomalie

28.05.2024 Kinder- und Jugendgynäkologie Nachrichten

Welchen Einfluss das Alter ihrer Mutter auf das Risiko hat, dass Kinder mit nicht chromosomal bedingter Malformation zur Welt kommen, hat eine ungarische Studie untersucht. Sie zeigt: Nicht nur fortgeschrittenes Alter ist riskant.

Fehlerkultur in der Medizin – Offenheit zählt!

28.05.2024 Fehlerkultur Podcast

Darüber reden und aus Fehlern lernen, sollte das Motto in der Medizin lauten. Und zwar nicht nur im Sinne der Patientensicherheit. Eine negative Fehlerkultur kann auch die Behandelnden ernsthaft krank machen, warnt Prof. Dr. Reinhard Strametz. Ein Plädoyer und ein Leitfaden für den offenen Umgang mit kritischen Ereignissen in Medizin und Pflege.

Mammakarzinom: Brustdichte beeinflusst rezidivfreies Überleben

26.05.2024 Mammakarzinom Nachrichten

Frauen, die zum Zeitpunkt der Brustkrebsdiagnose eine hohe mammografische Brustdichte aufweisen, haben ein erhöhtes Risiko für ein baldiges Rezidiv, legen neue Daten nahe.

Mehr Lebenszeit mit Abemaciclib bei fortgeschrittenem Brustkrebs?

24.05.2024 Mammakarzinom Nachrichten

In der MONARCHE-3-Studie lebten Frauen mit fortgeschrittenem Hormonrezeptor-positivem, HER2-negativem Brustkrebs länger, wenn sie zusätzlich zu einem nicht steroidalen Aromatasehemmer mit Abemaciclib behandelt wurden; allerdings verfehlte der numerische Zugewinn die statistische Signifikanz.

Update Gynäkologie

Bestellen Sie unseren Fach-Newsletter und bleiben Sie gut informiert – ganz bequem per eMail.