Psychiatr Prax 2021; 48(S 01): S26-S30
DOI: 10.1055/a-1369-2938
Originalarbeit

Psychotherapie mit einer autonomen Künstlichen Intelligenz – Ethische Chancen und Herausforderungen [1]

Psychotherapy with an Autonomous Artifical Intelligence – Ethical Benefits and Challenges
Eva Kuhn
1   Sektion Global Health, Institut für Hygiene und Öffentliche Gesundheit, Universitätsklinikum Bonn
,
Amelia Fiske
2   Institut für Geschichte und Ethik der Medizin, Technische Universität München
,
Peter Henningsen
3   Klinik für Psychosomatische Medizin und Psychotherapie, Klinikum rechts der Isar der Technischen Universität München
,
Alena Buyx
2   Institut für Geschichte und Ethik der Medizin, Technische Universität München
› Author Affiliations

Zusammenfassung

Ziel der Studie Dieser Beitrag bietet eine Zusammenschau ethischer Aspekte, die beim Einsatz einer autonomen, virtuellen oder verkörperten Künstlichen Intelligenz (KI) in der Gesundheitsversorgung psychisch Erkrankter tangiert sind.

Methodik Die Zusammenschau basiert auf einer thematischen Literaturrecherche. Sie orientiert sich an der Prinzipienethik und wird durch das Konzept der epistemischen (Un-)Gerechtigkeit erweitert.

Ergebnis Neben der Chancen-Risiken-Abwägung sind die (digitale) Gesundheitskompetenz, Zugangsgerechtigkeit, Fragen der Unter- oder Fehlversorgung sowie eine Anpassung der informierten Einwilligung in den Blick zu nehmen.

Schlussfolgerung Die ethische Beurteilung autonomer KI in der Psychotherapie ist weiterhin ergebnisoffen; zu viele klinische, ethische, rechtliche und praktische Fragen sind noch zu klären. Vor der Implementierung müssen Gütekriterien für die KI-Anwendung sowie Leitlinien für ihren klinischen Einsatz entwickelt werden.

Abstract

Objective This paper provides an overview of a range of ethical aspects involved in the use of autonomous, virtual or embodied artificial intelligence (AI) in the care of people with mental health issues.

Methodology The overview is based on a thematic literature review. It is guided by the principles of biomedical ethics together with the concept of epistemic (in)justice.

Results In addition to a risk-benefit analysis, (digital) health literacy, equity of access, issues of under- or misuse of care, and an adaptation of informed consent need to be considered.

Conclusion The ethical assessment of autonomous AI in psychotherapy remains open; too many clinical, ethical, legal, and practical questions remain to be addressed. Quality criteria for AI application as well as guidelines for its clinical use need to be developed before wider clinical implementation.

1 Dieser Artikel baut auf, aktualisiert und erweitert die Publikation von Fiske, Amelia C., Henningsen, Peter und Alena Buyx. 2019. Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. JMIR 21 (5): e13216. doi: 10.2196 /13216.




Publication History

Article published online:
02 March 2021

© 2021. Thieme. All rights reserved.

Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart, Germany

 
  • Literatur

  • 1 Kumazaki H, Muramatsu T, Yoshikawa Y. et al. Optimal robot for intervention for individuals with autism spectrum disorders. Psychiatry Clin Neurosci 2020; 74: 581-586
  • 2 Fiske A, Henningsen P, Buyx A. Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. J Med Internet Res 2019; 21: e13216 DOI: 10.2196/13216.
  • 3 Beauchamp TL, Childress JF. Principles of biomedical ethics. New York: Oxford University Press; 2019
  • 4 Meyer-Lindenberg A. Künstliche Intelligenz in der Psychiatrie – ein Überblick. Nervenarzt 2018; 89: 861-868
  • 5 Döllinger N, Wienrich C, Wolf E. et al. ViTraS – Virtual Reality Therapy by Stimulation of Modulated Body Image – Project Outline. Gesellschaft für Informatik e. V.; 2019. DOI: 10.18420/MUC2019-WS-633
  • 6 Fitzpatrick KK, Darcy A, Vierhile M. Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Ment Health 2017; 4: e19 DOI: 10.2196/mental.7785.
  • 7 Calvo RA, Milne DN, Hussain MS. et al. Natural language processing in mental health applications using non-clinical texts. Nat Lang Eng 2017; 23: 649-685
  • 8 Lin J, Baumeister H. Internet- und Mobilebasierte Interventionen in der Psychotherapie. Public Health Forum 2015; 23: 176-179
  • 9 Zipfel S, Junne F, Ringwald J. et al. E-Mental Health: Trends, Chancen und Risiken in der Versorgung. PiD – Psychotherapie im Dialog 2018; 19: 83-87
  • 10 Crossman MK, Kazdin AE, Kitt ER. The influence of a socially assistive robot on mood, anxiety, and arousal in children. Professional Psychology: Research and Practice 2018; 49: 48-56
  • 11 Rubeis G, Primc N. Ethische Aspekte internet- und mobilgestützter Interventionen (IMIs) bei Suchtstörungen. Suchttherapie 2020; 21: 180-188
  • 12 Kivelitz L, Watzke B, Schulz H. et al. Versorgungsbarrieren auf den Behandlungswegen von Patienten mit Angst- und depressiven Erkrankungen – Eine qualitative Interviewstudie. Psychiat Prax 2015; 42: 424-429
  • 13 Rubeis G, Steger F. Internet- und mobilgestützte Interventionen bei psychischen Störungen. Implementierung in Deutschland aus ethischer Sicht. Nervenarzt 2019; 90: 497-502
  • 14 Lucas GM, Gratch J, King A. et al. It’s only a computer: Virtual humans increase willingness to disclose. Computers in Human Behavior 2014; 37: 94-100
  • 15 Beck S, Grunwald A, Jacob K. et al. Künstliche Intelligenz und Diskriminierung. Herausforderungen und Lösungsansätze. Whitepaper der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. 2019. https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_Whitepaper_250619.pdf [zuletzt abgerufen: 17.01.2021]
  • 16 Courtland R. Bias detectives: the researchers striving to make algorithms fair. Nature 2018; 558: 357-360
  • 17 Rathner E-M, Probst T. Mobile Applikationen in der psychotherapeutischen Praxis: Chancen und Grenzen. PiD – Psychotherapie im Dialog 2018; 19: 51-55
  • 18 Stamm TJ, Sondergeld L-M, Juckel G. et al. Psychotherapie für Menschen mit bipolaren Störungen: Übersicht über evidenzbasierte Verfahren und neuere Entwicklungen. Nervenarzt 2018; 89: 263-270
  • 19 Ernstmann N, Heuser C, Halbach S. et al. Interaktive Gesundheitskompetenz, soziodemografische Faktoren und der Zeitraum bis zur Inanspruchnahme psychotherapeutischer oder medikamentöser Behandlung – gibt es Hinweise auf soziale Ungleichheiten in der Therapie der Sozialen Angststörung?. Psychiat Prax 2020; DOI: 10.1055/a-1294-0950.
  • 20 Schröder J, Berger T, Meyer B. et al. Attitudes Towards Internet Interventions Among Psychotherapists and Individuals with Mild to Moderate Depression Symptoms. Cogn Ther Res 2017; 41: 745-756
  • 21 Rüsch N, Heland-Graef M, Berg-Peer J. Das Stigma psychischer Erkrankung. Strategien gegen Ausgrenzung und Diskriminierung. München: Elsevier; 2021
  • 22 Marckmann G. Gesundheit und Gerechtigkeit. Bundesgesundheitsblatt Gesundheitsforschung Gesundheitsschutz 2008; 51: 887-894
  • 23 Cornejo Müller A, Wachtler B, Lampert T. Digital Divide – Soziale Unterschiede in der Nutzung digitaler Gesundheitsangebote. Bundesgesundheitsblatt Gesundheitsforschung Gesundheitsschutz 2020; 63: 185-191
  • 24 Fricker M. Epistemic Injustice. Oxford: Oxford University Press; 2007
  • 25 Crichton P, Carel H, Kidd IJ. Epistemic injustice in psychiatry. BJPsych Bull 2017; 41: 65-70
  • 26 Kidd IJ, Carel H. Epistemic Injustice and Illness. J Appl Philos 2017; 34: 172-190
  • 27 Goldhahn J, Rampton V, Spinas GA. Could artificial intelligence make doctors obsolete?. BMJ 2018; 363: k4563 DOI: 10.1136/bmj.k4563.
  • 28 Deutscher Ethikrat. Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung. Berlin: Deutscher Ethikrat; 2017
  • 29 Trachsel M, Gaab J. Disclosure of incidental constituents of psychotherapy as a moral obligation for psychiatrists and psychotherapists. J Med Ethics 2016; 42: 493-495
  • 30 Martinez-Martin N, Kreitmair K. Ethical Issues for Direct-to-Consumer Digital Psychotherapy Apps: Addressing Accountability, Data Protection, and Consent. JMIR Ment Health 2018; 5: e32 DOI: 10.2196/mental.9423.