KI Robbe
WZB

Gutes Altern in digitalen Zeiten

Vertrauenswürdige KI für das Gesundheitswesen

Die Potenziale Künstlicher Intelligenz (KI) im Gesundheitswesen sind vielversprechend: Sie soll Diagnosen verbessern, Gesundheitsrisiken frühzeitig erkennen und ältere Menschen durch digitale Assistenzsysteme im Alltag unterstützen. Doch die Entwicklung und Nutzung solcher Technologien wirft Fragen zu Gerechtigkeit, Teilhabe und Verantwortung auf.

Wir alle werden älter – und damit rückt die Frage in den Fokus, wie die digitale Transformation uns im Alter betrifft. Gerade bei älteren Menschen zeigt sich die Spannung zwischen Chancen und Risiken digitaler Technologien sehr deutlich: Sie profitieren zwar potenziell von besseren Diagnosemöglichkeiten und einer personalisierten medizinischen Behandlung, können jedoch auch besonders von digitalen Exklusionsmechanismen betroffen sein. Altersbedingte Barrieren im Umgang mit Technologien sowie die fehlende Berücksichtigung verschiedener Nutzerbedürfnisse in algorithmischen Systemen können Funktionalität und Zugang zu digitalen Gesundheitsangeboten erschweren.

Im Forschungsprojekt AGEAI am WZB untersuchen wir, wie ältere Menschen den Einsatz von KI im Gesundheitswesen wahrnehmen und welche Faktoren ihr Vertrauen in diese Technologien beeinflussen können. In einem partizipativen Workshop gingen wir den Perspektiven älterer Personen zu verschiedenen Anwendungsbereichen – etwa Symptom-Checker-Apps für den privaten Gebrauch und auch als entscheidungsunterstützende Systeme im Krankenhaus – nach, um ihre Erfahrungen, Bedenken, Hoffnungen und Erwartungen sichtbar zu machen. Die Ergebnisse liefern wichtige Impulse für die sozialverantwortliche Gestaltung von KI-Anwendungen im Gesundheitsbereich.
 

Was bedeutet Vertrauen in KI im Gesundheitswesen für ältere Menschen?

Der Deutsche Ethikrat thematisiert in seiner Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ die Problematik der Verantwortungsdiffusion bei KI-Systemen. Gemeint ist damit, dass die Entscheidungsprozesse sich auf viele Ebenen verteilen – von der Entwicklung der KI über das Training mit Daten bis hin zur konkreten Anwendung. Dadurch wird es schwierig, klar zu benennen, wer letztlich die Verantwortung für bestimmte Prozesse trägt. Die Implementierung von KI kann zudem Herausforderungen und Ungleichheiten für bestimmte soziale Gruppen bedeuten. Ältere Menschen können dabei, wie WZB-Forscherin Justyna Stypińska zeigt, mit fünf verschiedenen Formen der Exklusion konfrontiert werden: (1) altersbedingte Verzerrungen in Algorithmen und Datensätzen (technische Ebene), (2) stereotype Vorstellungen und Vorurteile in der Entwicklung (individuelle Ebene), (3) die Unsichtbarkeit des Alters in KI-Diskursen (Diskursebene), (4) diskriminierende Auswirkungen der KI-Nutzung auf verschiedene Altersgruppen (Gruppenebene) und (5) der Ausschluss älterer Menschen in der Nutzung von KI-Technologien, -Dienstleistungen und -Produkten (Nutzungsebene).

Ältere Menschen sind oft nur unzureichend in die Entwicklung und Nutzung technischer Innovationen eingebunden. Andreas Bischof und Juliane Jarke betonen dabei, wie wichtig partizipative Ansätze sind, die ältere Menschen in ihren Lebensrealitäten aktiv einbeziehen. Außerdem braucht es dabei eine kritische Auseinandersetzung mit der Frage, ob bestimmte Stereotype fortwirken oder die Vorstellung besteht, technische Lösungen könnten auch soziale Probleme vollständig beheben. Um die Perspektiven älterer Menschen in diese Debatte einzubringen, haben wir sie zu einem partizipativen Workshop eingeladen. Dabei ist selbstverständlich zu beachten, dass ältere Menschen keine homogene Gruppe sind – ihre Perspektiven, Erfahrungen, Wünsche und Bedenken sind ebenso vielfältig wie individuell.

Aus dem Workshop konnten wir drei Faktoren ableiten, die das Vertrauen in KI-basierte Technologien im Gesundheitswesen stärken können – vorausgesetzt, die Systeme funktionieren zuverlässig im Sinne ihrer Anwendungsziele. Ein erster wesentlicher Faktor ist die menschliche Aufsicht und Kontrolle. Die Aussagen der Workshop-Teilnehmenden verdeutlichen, dass KI-gestützte Systeme in klinischen Settings eher auf Vertrauen stoßen, wenn medizinisches Personal weiterhin eine maßgebliche Rolle in der Diagnostik und der Behandlung übernimmt. Dabei ging es nicht nur um die Sorge vor technischen Fehlern oder Fehldiagnosen, sondern auch um den Verlust der persönlichen Nähe, die als Voraussetzung für das Vertrauen in medizinische Entscheidungen angesehen wurde. Die Anwesenheit von medizinischem Fachpersonal dient nicht nur der Sicherung der diagnostischen Qualität KI-gestützter Verfahren, sondern trägt zugleich dazu bei, das Gefühl individueller Wertschätzung und persönlicher Zuwendung zu stärken. So betonte eine Teilnehmerin: „Diese emotionale Seite. Dieses engagierte Mitfühlen [...]. Ich weiß nicht, ob spätere Generationen darauf verzichten können, aber ich möchte jedenfalls nicht drauf verzichten.“

Zweitens wurden Transparenz und Nachvollziehbarkeit als grundlegende Voraussetzung für Vertrauen in KI-gestützte Gesundheitstechnologien betont. Unklarheiten führten zu Skepsis, zum Beispiel wenn nicht nachvollziehbar ist, welche Daten verwendet werden, wie KI-Systeme grundlegend funktionieren, wie sie verwendet werden und wer Verantwortung trägt. Die Sorge, dass KI-basierte Entscheidungen auf (alters-)diskriminierend verzerrten oder fehlerhaften Datensätzen basieren und unbemerkt Einfluss auf die medizinische Versorgung nehmen könnten, beeinträchtigte das Vertrauen in solche Systeme erheblich.

Als dritter Aspekt spielt die Exposition – also die bisherige Erfahrung und der Umgang mit digitalen Technologien – eine zentrale Rolle für das Vertrauen in KI-Systeme. Menschen, die beruflich oder privat regelmäßig mit digitalen Technologien und KI in Berührung kommen, zeigten eine höhere Aufgeschlossenheit, vor allem wenn ihre bisherigen Erfahrungen positiv waren. Dabei ist insbesondere relevant, in welchem Rahmen das Aufeinandertreffen stattfindet: Die Teilnehmenden des Workshops betonten, dass sie zunächst mit KI-Systemen in alltäglichen und risikoärmeren Anwendungsbereichen in Kontakt kommen möchten.
 

KI-Kontexte vertrauenswürdig gestalten

Unsere Ergebnisse zeigen, dass auch verschiedene kontextuelle Faktoren für eine faire und vertrauensfördernde Technologieeinbindung entscheidend sind. Altersdiskriminierung in der digitalen Gesundheitsversorgung ist kein isoliertes Phänomen, sondern entsteht an der Schnittstelle verschiedener sozialer Ungleichheiten. So können beispielsweise alleinstehende ältere Menschen ohne soziales Unterstützungsnetzwerk größere Schwierigkeiten bei der Nutzung digitaler Technologien haben, oder Personen mit niedrigem Einkommen müssen eher auf weniger datenschutzfreundliche oder qualitativ eingeschränkte Angebote zurückgreifen. Auch Sprachbarrieren und Sinnesbeeinträchtigungen können den Zugang erschweren, wenn digitale Gesundheitstechnologien nicht inklusiv gestaltet sind. Diese vielschichtigen Diskriminierungsrisiken verdeutlichen, dass Altersdiskriminierung nicht als einheitliches Problem betrachtet werden kann. Vielmehr tritt es auf verschiedene Weise in gesellschaftlichen Bereichen auf. Entsprechend erfordert ihre Bekämpfung nicht nur technologische Anpassungen, sondern auch umfassende strukturelle Maßnahmen zum Abbau sozialer Barrieren.

Die Förderung von mehr Transparenz und Nachvollziehbarkeit kann dazu durch ein soziotechnisches Verständnis unterstützt werden, nach dem Transparenz nicht nur als rein technische Eigenschaft betrachtet wird, sondern kontext- und nutzungsorientiert gestaltet werden sollte.Das Forschungsteam um Bianca Schor schlägt Designempfehlungen für KI-Systeme vor, die eine solche bedeutsam kontextualisierte Transparenz für die anwendenden Ärzt*innen bieten. Auch Informationen, die für die Adressat*innen relevant sind, sollten dabei zielgerichtet und selektiv bereitgestellt werden. Eine solche, an unterschiedliche Akteursgruppen, ihr Wissen, ihre Situation und Bedarfe angepasste sowie zeitlich sinnvolle Transparenz der Funktions- und Nutzungsweisen von KI-Systemen kann auch für Patient*innen von vertrauensfördernder Bedeutung sein.

Neben der technologischen Transparenz wurden im Workshop weitere vertrauensbildende Faktoren herausgearbeitet. Besonders hervorgehoben wurde dabei der Einfluss geografischer Nähe: KI-Anwendungen, die am Wohnort der Teilnehmenden – etwa in Berlin oder allgemein in Deutschland – entwickelt werden, wurden als deutlich vertrauenswürdiger eingeschätzt. Dies deutet darauf hin, dass physische Nähe das Gefühl stärkt, bei Bedarf leichter Zugang zu den Verantwortlichen zu haben. Zudem kann die Einbettung in einen vertrauten regionalen oder nationalen Kontext ein zusätzliches Vertrauensmoment schaffen, das durch gemeinsame rechtliche, kulturelle und institutionelle Rahmenbedingungen gestützt wird.
 

Fazit

Die Zukunft altersgerechter KI im Gesundheitswesen hängt weniger allein von technologischen Entwicklungen ab als von der Frage, wie diese Technologien in soziotechnische Zusammenhänge und organisationale wie gesellschaftliche Strukturen eingebettet werden. KI sollte nicht als isoliertes Instrument verstanden werden, sondern als integrativer Bestandteil eines solidarischen Gesundheitssystems, das Würde, Teilhabe und Gerechtigkeit fördert. Ein gutes Altern in der digitalen Ära erfordert nicht nur technologische Innovation, sondern auch eine inklusive, reflektierte und verantwortungsvolle Gestaltung von Technologien und ihren Nutzungsweisen, die den Menschen in den Mittelpunkt stellt.


Literatur

Bischof, Andreas/Jarke, Juliane: Configuring the Older Adult: How Age and Ageing are Re-Configured in Gerontechnology Design. In: Alexander Peine/Barbara L. Marshall/Wendy Martin/Louis Neven (Hg.): Socio-Gerontechnology: Interdisciplinary Critical Studies of Ageing and Technology. London: Routledge 2021, S. 197–212.

Deutscher Ethikrat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme, 2023. Online: https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf

Schor, Bianca G. S./Kallina, Emma/Singh, Jatinder/Blackwell, Alan: Meaningful Transparency for Clinicians: Operationalising HCXAI Research with Gynaecologists. In: Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT), 2024, S. 1268–1281. DOI: 10.1145/3630106.3658971.

Stypińska, Justyna. AI Ageism: A Critical Roadmap for Studying Age Discrimination and Exclusion in Digitalized Societies. In: AI & Society, 2023, 38, S. 665–677. DOI: 10.1007/s00146-022-01553-5.

Zum Bild: Die Sektion Alter(n) und Gesellschaft der Deutschen Gesellschaft für Soziologie lud im WZB zur Frühjahrstagung ein. Es ging um „Inklusion und Exklusion älterer Menschen in der Ära Künstlicher Intelligenz“. Paro war mit von der Partie, ein kleiner Roboter in Gestalt eines Robbenbabys, der hier im Bild zu sehen ist.

26.3.2025

Dieser Text steht unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Hier finden Sie das PDF zum Beitrag.