Künstliche Intelligenz und Alter(n)

Autor:in

Katrin Lehner BA MA

Algorithmen und Künstliche Intelligenz (KI) sind längst auch im Kontext des Alter(n)s ein Thema geworden. Dabei wird vielfach auf die Potenziale von KI für die Pflege älterer Menschen hingewiesen (Bhatia 2024; Leung u. a. 2022). Insbesondere die Unterstützung älterer Menschen durch KI-Systeme und die Frage, wie die Pflege durch den Einsatz von KI optimiert werden kann, stehen dabei im Fokus der Technikentwicklung und -forschung.

Welche Herausforderungen bestehen beim Einsatz von KI für das höhere Alter?

In den letzten Jahren wurden vermehrt ethische Risiken im Kontext von KI diskutiert – auch hinsichtlich des Einsatzes von KI in der Pflege. Auf Basis einer Literaturübersicht identifiziert Rubeis (2020) vier Bereiche ethischer Risiken in der Anwendung aktueller KI-Technologien in der Pflege. Diese umfassen:

Der Einsatz von KI-Systemen in der Pflege bringt eine Reihe an Standardisierungen und Klassifizierungen mit sich, die definieren was „normal” ist. Abweichungen von diesen Standards können von den Systemen jedoch nicht ausreichend berücksichtigt werden, wodurch individuell personalisierte Aspekte der Pflege in den Hintergrund rücken.

In KI-Technologien sind vielfach stereotypische Vorstellung zum Alter(n) eingeschrieben. Diese oftmals negativen Stereotype können dazu führen, dass Bedürfnisse älterer Menschen übersehen werden und diese in weiterer Folge Benachteiligung erfahren.

Werden KI-Technologien eingesetzt um mit älteren Menschen zu interagieren oder Entscheidungen und Vorhersagen in medizinischen Settings zu treffen, finden individuelle Erfahrungen älterer Menschen und jene des pflegerischen und medizinischen Personals unter Umständen nicht ausreichend Beachtung. Damit treten auch Fragen nach Verantwortung und Vertrauen in den Vordergrund.

Zwar können KI-basierte Technologien, etwa mobile Gesundheitstracker oder Sensoren zur Sturzerkennung zu einem selbständigen Leben im Alter beitragen, zugleich können sie jedoch auch dazu führen, dass ältere Nutzer:innen ihr Verhalten an die Standards der KI anpassen, etwa um das Auslösen von Alarmen zu vermeiden.


Weiters bestehen auch Herausforderungen hinsichtlich der Datenverfügbarkeit zum Training von KI-Systemen im Alter(n)skontext. Da Datenbanken, die für das Training von KI eingesetzt werden ältere Bevölkerungsgruppen kaum abbilden, ist die Funktionalität der KI für ältere Menschen vielfach eingeschränkt (Stypinska 2023; Chu u. a. 2022). So zeigt sich etwa für Technologien wie Gesichtserkennung und Spracherkennung, dass diese bei älteren Nutzer:innen deutlich fehleranfälliger sind, als bei jüngeren Personengruppen (Menezes u. a. 2021; Feng u. a. 2021).

Eine weitere Herausforderung in diesem Zusammenhang stellen Alter(n)sbilder dar, welche im Zuge der Technikentwicklung in KI-Technologien eingeschrieben werden. So wurde in den letzten Jahren vermehrt darauf hingewiesen, dass KI-Systeme, etwa im Bereich der Berufsvermittlung, sexistische und rassistische Stereotype reproduzieren und marginalisierte Gruppen so systematisch benachteiligen. Aus so einer Perspektive lässt sich danach fragen, welche Alter(n)sbilder – als stereotype Vorstellungen über das Alter(n) – durch KI-Systeme reproduziert werden.

Als ein Beispiel dafür lässt sich etwa danach fragen, welche Bilder über das Älterwerden von generativen KI produziert werden. Auf welche Art einseitige Alter(n)sbilder in KI-Technologien eingeschrieben sind, veranschaulichen die beiden untenstehenden Bilder, welche mit dem bildgenerierende KI-Tool „Night Café” erstellt wurden.

Abbildung 1 zeigt das Bild, dass die KI auf Basis der Eingabe (des sog. Prompts) „ageing” (übersetzt „altern”) erstellt hat.

Abbildung 1: Prompt „ageing” (übersetzt „altern”)

Dieses Bild verweist in vielerlei Hinsicht auf ein weit verbreitetes Alter(n)sbild. Zunächst deuten der Kleidungsstil, die Körperhaltung und die Haarfarbe der Person darauf hin, dass diese alt ist. Während etwa auffällt, dass die Person in gedeckten Farben gekleidet ist und im Sitzen gezeigt wird könnte man sich auch fragen, warum sich die KI die alte Person nicht bunt gekleidet und aktiv vorstellt. Die Person könnte beispielsweise Sport betreiben oder ein Smartphone bedienen – stattdessen wird hier jedoch ein Bild des Alter(n)s verdeutlicht, dass die Person als passives Subjekt darstellt, die im Sonnenuntergang (analog zum Lebensabend) in Gesellschaft einer Katze die Ruhe genießt.


Abbildung 2 zeigt ein weiteres generierte Bild, mit dem Prompt „old man and his AI” (übersetzt „Alter Mann und seine KI”)

Abbildung 2: Prompt „old man and his AI” (übersetzt „Alter Mann und seine KI”)

Die Person auf diesem Bild kann sofort als alt identifiziert werden. Die mit dem Alter assoziierten Falten, grauen Augenbrauen und die getrübten Makula stehen in diesem Fall im Kontrast mit der bunten, dynamischen KI. Während die schwer zu verbildlichende KI wird als bunter, undefinierbarer Mix aus Farben und Formen abgebildet wird, stellt das bildgenerierende KI-Tool den alten Menschen erneut als passives Subjekt dar, der von der KI förmlich eingenommen zu sein scheint.


Bildquelle/-generierung:
https://creator.nightcafe.studio/

Algorithmen vs. Alter(n) in der gerontologischen Literatur

Auch eine Analyse von gerontologischer Literatur zu Algorithmen und KI erlaubt es, Vorstellungen vom Alter(n) in entsprechende Technologien eingeschrieben sind zu analysieren. Mithilfe einer systematischen Literaturrecherche wurden Artikel des einflussstärksten Quartils internationaler gerontologischer Fachzeitschriften darauf untersucht, wie sie Alter(n) und Algorithmen darstellen.

Die beiden untenstehenden Wortwolken verdeutlichen, worauf in der Literatur vielfach hingewiesen wird:

Algorithmische Technologien werden als tätige Problemlösungen verstanden, welche vermeintlich einfache, datengestützte Antworten auf komplexe gerontologische Fragen liefern (Abbildung 3). Worte, die dabei mit KI und algorithmischen Technologien in Verbindung gebracht werden, zeichnen erneut ein flexibles, dynamisches Bild eines intelligenten Systems, das Alter(n) misst, vorhersagt, und unterstützt.

Abbildung 3: Wortwolke 1 „Algorithmische Technologien”

Ältere Menschen werden in der untersuchten Literatur hingegen mit deutlich weniger Worten beschrieben (Abbildung 4). Sie sind vielfach nur „Teilnehmer:innen” und „Patient:innen”, oder als gebrechlich, schwach und anfällig verstanden. Weniger sichtbar werden im gerontologischen Diskurs zu KI bislang positive Alter(n)sbilder, die die Heterogenität des Älterwerdens oder die aktive Rolle älterer Menschen in der Auseinandersetzung mit neuen Technologien betonen.

Abbildung 4: Wortwolke 2 „Alte Menschen”

Fazit: Wie kann der Einsatz von KI im Kontext von Alter(n) gelingen?

Die genannten Beispiele verdeutlichen ein einseitiges, defizitorientiertes Bild von Alter(n) im Kontext von künstlicher Intelligenz. Damit wird der Auftrag an eine kritische Gerontologie und Technologieforschung deutlich, auf die Heterogenität des Alter(n)s und potenzielle Gefahren des Einsatzes von KI hinzuweisen und ihre Berücksichtigung im Zuge der Technikentwicklung und -implementierung einzufordern. Partizipative Ansätze können es beispielsweise erlauben ältere Menschen aktiv in Forschungs- und Entscheidungsprozesse einzubinden und damit ihre Bedürfnisse, Erfahrungen und Perspektiven im Kontext von KI zu berücksichtigen. Zusammenfassend lässt kann der Einsatz von KI im Kontext des Alter(n)s gelingen, wenn …

  • … ältere Menschen aktiv in Prozesse der Technikentwicklung und -implementierung einbezogen werden – etwa durch partizipative Methoden.

  • … ethische Risiken reflektiert werden und Aspekte der Depersonalisierung, Diskriminierung, Dehumanisierung und Disziplinierung (Rubeis 2020, siehe oben) Berücksichtigung finden.

  • … die Heterogenität des Alter(n)s im Zuge technischer Innovationen beachtet wird und implizit (negative) Alter(n)sbilder nicht reproduziert werden.

ALGOCARE – das Projekt

Im WWTF geförderten Forschungsprojekt ALGOCARE (Laufzeit 2021-2025) gehen Vera Gallistl und Katrin Lehner gemeinsam mit den Projektpartner:innen der TU Wien und VICESSE Fragen der Erklärbarkeit, Bias und Transparenz von KI-Technologien mit Einsatz in der Langzeitpflege nach. Einen Überblick über die aktuelle Dissemination und Publikationen aus dem Projekt finden Sie auf der Projektwebsite (siehe Links, unten).

Verwendete Literatur

Bhatia, Munish. 2024. „An AI-Enabled Secure Framework for Enhanced Elder Healthcare“. Engineering Applications of Artificial Intelligence 131 (Mai): 107831. https://doi.org/10.1016/j.engappai.2023.107831.
Chu, Charlene H, Rune Nyrup, Kathleen Leslie, Jiamin Shi, Andria Bianchi, Alexandra Lyn, Molly McNicholl, Shehroz Khan, Samira Rahimi, und Amanda Grenier. 2022. „Digital Ageism: Challenges and Opportunities in Artificial Intelligence for Older Adults“. Herausgegeben von Suzanne Meeks. The Gerontologist 62 (7): 947–55. https://doi.org/10.1093/geront/gnab167.
Feng, Siyuan, Olya Kudina, Bence Mark Halpern, und Odette Scharenborg. 2021. „Quantifying Bias in Automatic Speech Recognition“. arXiv. https://doi.org/10.48550/ARXIV.2103.15122.
Leung, Angela Y. M., Ivy Y. Zhao, Shuanglan Lin, und Terence K. Lau. 2022. „Exploring the Presence of Humanoid Social Robots at Home and Capturing Human-Robot Interactions with Older Adults: Experiences from Four Case Studies“. Healthcare 11 (1): 39. https://doi.org/10.3390/healthcare11010039.
Menezes, Hanna F., Arthur S. C. Ferreira, Eanes T. Pereira, und Herman M. Gomes. 2021. „Bias and Fairness in Face Detection“. In 2021 34th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI), 247–54. Gramado, Rio Grande do Sul, Brazil: IEEE. https://doi.org/10.1109/SIBGRAPI54419.2021.00041.
Rubeis, Giovanni. 2020. „The Disruptive Power of Artificial Intelligence. Ethical Aspects of Gerontechnology in Elderly Care“. Archives of Gerontology and Geriatrics 91 (November): 104186. https://doi.org/10.1016/j.archger.2020.104186.
Stypinska, Justyna. 2023. AI Ageism: A Critical Roadmap for Studying Age Discrimination and Exclusion in Digitalized Societies“. AI & SOCIETY 38 (2): 665–77. https://doi.org/10.1007/s00146-022-01553-5.