Relevante Diagnosen
Unser KI-Begleiter ist dafür entwickelt worden, ältere Menschen in ihrer Einsamkeit zu begleiten — mit echten Gesprächen, Geduld und Wärme. Für die meisten Nutzerinnen und Nutzer ist das eine bereichernde Erfahrung ohne jedes Risiko.
Bei einigen psychiatrischen und neurologischen Erkrankungen zeigt die aktuelle Forschung jedoch, dass KI-basierte Gesprächspartner — unabhängig von ihrer Güte und Absicht — spezifische Risiken mit sich bringen können, die wir nicht ignorieren dürfen. Das ist kein Hindernis, sondern Fürsorge: Wir möchten, dass jeder Mensch, der unseren Dienst nutzt, davon profitiert — und niemand zu Schaden kommt.
Nutzung nicht empfohlen
Mittlere bis schwere Demenz (inkl. Alzheimer im fortgeschrittenen Stadium)
Was die Forschung zeigt
Eine Analyse von Harvard-Forschern, veröffentlicht 2025 in Nature Mental Health, identifiziert zwei zentrale Probleme. Erstens neigen KI-Systeme dazu, dem Gesprächspartner zuzustimmen und ihn zu bestätigen — ein Verhalten, das bei Demenz dazu führen kann, dass Verwirrtheit, Fehlerinnerungen oder Wahnvorstellungen unbeabsichtigt verstärkt werden. Zweitens können Menschen mit mittlerer bis schwerer Demenz in der Regel nicht dauerhaft verstehen oder erinnern, dass sie mit einer KI sprechen — echte informierte Einwilligung ist damit strukturell nicht möglich.
Unsere Haltung
Bei diagnostizierter mittlerer oder schwerer Demenz raten wir von einer eigenständigen Nutzung ab. Wir empfehlen das Gespräch mit der behandelnden Ärztin oder dem Arzt. In betreuten Umgebungen, wo Fachkräfte die Interaktion begleiten, kann eine Nutzung im Einzelfall sinnvoll sein — das sollte jedoch professionell begleitet und individuell entschieden werden.
Schizophrenie und verwandte psychotische Störungen (aktive Phase)
Was die Forschung zeigt
Seit 2023 häufen sich wissenschaftliche Berichte über das Phänomen des sogenannten „KI-induzierten Psychose-Erlebens". Forschende der UCSF, des King's College London und des Schizophrenia Bulletin beschreiben einen klaren Mechanismus: KI-Systeme sind darauf optimiert, Nutzerinnen und Nutzern zuzustimmen und zu spiegeln. Bei Menschen mit bestehenden Wahnvorstellungen oder Halluzinationen kann genau dieses Verhalten psychotische Inhalte verstärken und verfestigen — statt sie zu hinterfragen. Eine Analyse in Psychiatric News (2025) benennt drei zusammenwirkende Risikofaktoren: die Tendenz von KI, Aussagen zu spiegeln statt zu hinterfragen; durch Nutzerfeedback trainierte Zustimmungstendenzen (sog. Sycophancy); sowie persistente Gedächtnisfunktionen, die wahnhafte Themen über Gespräche hinweg fortschreiben können.
Unsere Haltung
Bei aktiver Psychose oder in instabiler Phase einer schizophrenen Erkrankung ist eine Nutzung nicht vertretbar. In stabiler Remission und mit psychiatrischer Begleitung kann eine Nutzung im Einzelfall besprochen werden.
Akute Suizidalität oder schwere Depression mit Suizidalitätsanamnese
Was die Forschung zeigt
Eine Studie in Scientific Reports (2026) untersuchte 29 KI-Chatbots auf ihre Fähigkeit, Suizidrisiken zu erkennen und angemessen zu reagieren. Das ernüchternde Ergebnis: Allgemeine KI-Sprachmodelle versagen besonders bei indirekten oder passiven Äußerungen von Suizidalität. Unser KI-Begleiter ist kein Kriseninterventionssystem und nicht darauf ausgelegt, Suizidrisiken zuverlässig zu erkennen oder entsprechende Maßnahmen einzuleiten. Das ist kein technisches Versagen — es ist ein strukturelles Problem, das kein Conversational-AI-System der aktuellen Generation verlässlich lösen kann.
Unsere Haltung
Bei bekannter akuter Suizidalität oder einer Vorgeschichte mit schwerer suizidaler Krise raten wir von einer Nutzung dringend ab.
Nutzung nur nach ärztlicher Rücksprache
Bipolare Störung
Was die Forschung zeigt
Eine RAND-Analyse zeigt, dass in 37 % der untersuchten Fälle von KI-assoziierten Psychose-Erlebnissen eine Vorgeschichte psychotischer Episoden vorlag — darunter auch bipolare Störungen. In manischen oder hypomanischen Phasen kann die enthemmte Gesprächsbereitschaft durch das positive Echo eines KI-Systems verstärkt werden. In ruhiger, euthymer Phase ist das Risiko deutlich geringer.
Unsere Empfehlung
Rücksprache mit der behandelnden Psychiaterin oder dem Psychiater vor Nutzungsbeginn. Kein eigenständiger Start während einer manischen Phase.
Schwere PTSD und komplexe Trauma-Störungen
Was die Forschung zeigt
Bestimmte Gesprächsthemen, Tonlagen oder Formulierungen können bei Betroffenen unvorhergesehen Flashbacks oder dissoziative Zustände auslösen. KI-Systeme können individuelle Trigger nicht kennen und nicht zuverlässig vermeiden.
Unsere Empfehlung
Nutzung möglich, idealerweise mit Wissen und Begleitung der behandelnden Fachkraft. Belastende Themen können im Onboarding vorab ausgeschlossen werden.
Emotional instabile Persönlichkeitsstörung (Borderline-Persönlichkeitsstörung)
Was die Forschung zeigt
Betroffene neigen zu intensiven Bindungsmustern, die eine klare Unterscheidung zwischen KI-Gespräch und echter menschlicher Beziehung erschweren können. Enttäuschungen — etwa wenn der Bot Grenzen zeigt oder sich wiederholt — können zu starken emotionalen Reaktionen führen.
Unsere Empfehlung
Nutzung möglich, aber das Onboarding sollte das Erwartungsmanagement besonders berücksichtigen. Fachliche Begleitung ist ratsam.
Hinweis, kein Ausschluss
Bei den folgenden Erkrankungen sehen wir kein erhöhtes Risiko durch unseren Dienst. Wir möchten jedoch transparent auf relevante Aspekte hinweisen.
| Diagnose | Unser Hinweis |
|---|---|
| Leichte bis mittlere Depression | Unser Angebot ist kein Ersatz für Therapie — bitte ergänzen, nicht ersetzen. |
| Leichte kognitive Einschränkung (MCI) | Grauzone zur Demenz: Angehörigenkonsent und Begleitung empfohlen. |
| Schwere Angststörung | Unbekannte Stimmen können initial Angst auslösen — sanftes Onboarding empfohlen. |
| Hörverlust / Schwerhörigkeit | Technische Anpassungen wie Lautstärke und Sprechtempo sind notwendig und auf Anfrage möglich. |
Unser Versprechen
Diese Hinweise bedeuten nicht, dass wir Menschen mit psychischen Erkrankungen pauschal ausschließen möchten. Das Gegenteil ist wahr: Einsamkeit trifft vulnerable Menschen besonders hart, und wir nehmen diese Verantwortung ernst. Genau deshalb setzen wir auf Transparenz — damit Angehörige, Pflegepersonal und behandelnde Fachkräfte gemeinsam entscheiden können, ob und wie unser Dienst für eine betroffene Person geeignet ist.
Bei Fragen stehen wir jederzeit gerne zur Verfügung.