Insights KI Neuigkeiten KI Chatbots psychische Unterstützung Jugendliche: Wie helfen
post

KI Neuigkeiten

08 Nov. 2025

Read 15 min

KI Chatbots psychische Unterstützung Jugendliche: Wie helfen

KI Chatbots psychische Unterstützung Jugendliche bieten schnell niederschwellig Orientierung und Hilfe.

Immer mehr junge Menschen sprechen mit Chatbots über Sorgen und Stress. Der neue US-weite Survey zeigt: Der Trend KI Chatbots psychische Unterstützung Jugendliche ist real und wächst besonders bei 18- bis 21-Jährigen. Die meisten Nutzer berichten von hilfreichen Antworten – doch es gibt deutliche Unterschiede in der Bewertung. Ein US-Forschungsteam hat die erste national repräsentative Befragung unter 12- bis 21-Jährigen vorgelegt, die den Einsatz generativer Chatbots bei Traurigkeit, Wut oder Nervosität untersucht. Es geht um Systeme wie ChatGPT, Gemini und My AI. Die Ergebnisse zeigen eine klare Bewegung: Jugendliche und junge Erwachsene wenden sich in emotionalen Momenten an Künstliche Intelligenz – häufig und mit überwiegend positiver Erfahrung. Zugleich macht die Studie Grenzen sichtbar und ruft wichtige Fragen nach Vertrauen, Qualität und Sicherheit auf. Gerade weil psychische Belastungen in dieser Altersgruppe weit verbreitet sind, verdienen die Zahlen besondere Beachtung. Die Studie wurde im Februar und März 2025 durchgeführt. Teilnehmende kamen aus RAND’s American Life Panel und Ipsos’ KnowledgePanel. Beide Panels arbeiten mit zufallsbasierter Stichprobenziehung, um eine nationale Repräsentativität zu erreichen. Befragt wurden englischsprachige Jugendliche und junge Erwachsene mit Internetzugang. Der Fokus lag auf der Nutzung generativer KI für Ratschläge und Hilfe, wenn man sich traurig, wütend oder nervös fühlt. Die Forschenden nennen dies als erste Momentaufnahme eines neuen Verhaltens im Alltag junger Menschen.

KI Chatbots psychische Unterstützung Jugendliche: Was die Studie zeigt

Wie wurde befragt?

Die Forschenden fragten, ob die Jugendlichen generative KI generell kennen, ob sie bei negativen Gefühlen Ratschläge von Chatbots holen, wie oft das geschieht und wie hilfreich die Antworten sind. Um die Verständlichkeit zu sichern, nannten sie Beispiele gängiger Bots: ChatGPT (OpenAI), Gemini (Google AI und DeepMind) und My AI (Snap). Es folgten gewichtete Analysen und multivariable logistische Regressionen, um Zusammenhänge mit Alter und weiteren Merkmalen zu prüfen.

Wer nutzt KI besonders häufig?

Von 2125 kontaktierten Personen antworteten 1058. Insgesamt gaben 13,1% an, generative KI bei Traurigkeit, Wut oder Nervosität um Rat zu fragen. In der Gruppe der 18- bis 21-Jährigen lag der Anteil mit 22,2% deutlich höher. In der Modellrechnung war das Alter der stärkste Faktor: 18- bis 21-Jährige nutzten KI signifikant häufiger als die Jüngeren (adjusted odds ratio [aOR] 3,99; 95%-KI 1,90–8,34; P < .001).

Wie oft und wie hilfreich?

Unter den Nutzenden griffen 65,5% mindestens monatlich zu einem Chatbot. 92,7% bewerteten die erhaltenen Ratschläge als zumindest etwas oder sogar sehr hilfreich. Diese Zahlen deuten auf eine wahrgenommene Relevanz im Alltag hin: Viele junge Menschen integrieren Chatbots als niederschwellige Anlaufstelle, wenn Gefühle belasten.

Unterschiede nach Bevölkerungsgruppen

Ein Ergebnis sticht heraus: Schwarze Teilnehmende bewerteten die Hilfe seltener positiv als weiße nicht-hispanische Teilnehmende (aOR 0,15; 95%-KI 0,04–0,65; P = .01). Für andere demografische oder sozioökonomische Merkmale zeigte die Analyse keine signifikanten Zusammenhänge mit der Nutzung. Dieses Muster wirft Fragen nach Vertrauen, Relevanz und kultureller Passgenauigkeit der Antworten auf.

Wichtige Einschränkungen

Die Studie macht Grenzen klar: – Alle Angaben sind selbstberichtete Daten. Erinnerungslücken und soziale Erwünschtheit könnten die Ergebnisse beeinflussen. – Nur englischsprachige Jugendliche mit Internetzugang wurden einbezogen. Das schränkt die Übertragbarkeit ein. – Querschnittsdesign: Es zeigt Zusammenhänge, aber keine Ursachen. – Die Qualität, Genauigkeit und Risiken der KI-Ratschläge wurden nicht bewertet. – Unklar bleibt, wie Jugendliche die KI-Hilfe mit professioneller Versorgung kombinieren. – Da Chatbots sich schnell weiterentwickeln, können sich Muster rasch ändern.

Einordnung: Warum die Zahlen wichtig sind

Junge Menschen in den USA tragen eine hohe psychische Last. Laut den zitierten Daten haben 49,5% der 13- bis 18-Jährigen irgendwann im Leben eine diagnostizierte psychische Störung erlebt; 22,2% berichten von starker Beeinträchtigung. Bei 18- bis 25-Jährigen meldeten 36,2% im vergangenen Jahr irgendeine psychische Erkrankung und 11,6% eine schwere psychische Erkrankung. Vor diesem Hintergrund ist es nachvollziehbar, dass niedrigschwellige, jederzeit verfügbare Hilfen gesucht werden. Die Formulierung KI Chatbots psychische Unterstützung Jugendliche beschreibt genau diese Entwicklung: Digitale Helfer stehen rund um die Uhr, anonym und ohne Termin bereit. Die Studie selbst nennt keine Gründe für die Nutzung, aber der Nutzungsumfang und die Häufigkeit deuten auf einen spürbaren Bedarf nach schneller Orientierung in belastenden Situationen hin. Wichtig bleibt: Die Ergebnisse bewerten die Verlässlichkeit der Empfehlungen nicht. Sie zeigen aber, dass Millionen Jugendliche solche Empfehlungen einholen und subjektiv als hilfreich einschätzen.

Chancen: Niedrigschwellige Ergänzung, kein Ersatz

Die Daten lassen auf Potenzial schließen. Drei Chancen zeichnen sich ab: – Erreichbarkeit: Chatbots sind sofort verfügbar, auch nachts oder am Wochenende. – Entlastung: Sie können erste Schritte vorschlagen, z. B. Atemübungen oder Strukturierung von Gedanken, und damit akute Anspannung senken – sofern die Antworten passend sind. – Brücke: Sie könnten helfen, Hemmschwellen zu senken und den Weg zu professioneller Hilfe zu ebnen. Gleichzeitig gilt: Die Studie prüft weder Qualität noch Richtigkeit der Inhalte. Daraus folgt, dass Chatbots nur ergänzen können. Professionelle Diagnostik, Therapie und Krisenintervention bleiben unersetzlich. Für Anbieter im Gesundheitswesen kann die beobachtete Nutzung ein Signal sein, digitale Lotsenfunktionen und klare Hinweise auf Hilfesysteme sichtbarer zu machen.

Risiken und offene Fragen

Die Forschenden betonen selbst, dass zentrale Aspekte unklar sind: – Qualität und Genauigkeit: Wie verlässlich sind die Tipps? Treffen sie den Kontext? Gibt es Fehlinformationen? – Sicherheit: Werden riskante Ratschläge gefiltert? Reagieren Chatbots in Krisen angemessen? – Gerechtigkeit: Warum stufen schwarze Jugendliche die Antworten seltener als hilfreich ein? Liegt es an Sprache, Beispielen, Tonalität oder an Vorerfahrungen mit digitalen Diensten? – Integration in Versorgung: Nutzen Jugendliche die KI als Ergänzung zu Beratung und Therapie oder als Ersatz? Welche Folgen hat das für Wartezeiten, Motivation und Adhärenz? Diese Punkte sind entscheidend, bevor man breiter auf Chatbots als Baustein der Versorgung setzt. Solange sie ungeklärt sind, sollten Schulen, Eltern und Versorgungseinrichtungen mit Augenmaß handeln.

Was Praxisakteure jetzt tun können

Schulen und Hochschulen

– Medienkompetenz stärken: Aufklären, wozu Chatbots gut sind und wo ihre Grenzen liegen. – Hilfswege sichtbar machen: Kontaktdaten von Beratungen, Krisendiensten und Campus-Angeboten neben digitalen Tools darstellen. – Feedbackkanäle schaffen: Studierende/Jugendliche können anonym berichten, wie hilfreich KI-Antworten waren und wo sie scheitern.

Eltern und Erziehungsberechtigte

– Gespräch anbieten: Ohne Druck fragen, welche Erfahrungen Jugendliche mit Chatbots machen. – Schutzrahmen klären: Betonen, dass bei anhaltenden Problemen oder Krisen professionelle Hilfe wichtig ist. – Gemeinsam prüfen: Wenn Jugendliche wollen, einzelne Antworten gemeinsam reflektieren – Was passt? Was wirkt plausibel?

Gesundheitsprofis und Kostenträger

– Lotsenfunktionen testen: Standardisierte Hinweise in Chatbots auf Beratungsstellen, Hausärzte, Psychotherapien. – Qualität erforschen: Mit Forschungsteams evaluieren, ob und wann Antworten hilfreich sind. – Barrieren senken: Niedrigschwellige Erstkontakte und schnelle Rückmeldungen ermöglichen, wenn Chatbots Nutzer weiterleiten.

Warum Vertrauen variiert: Hinweise aus der Studie

Die Studie zeigt Unterschiede in der Bewertung der Hilfsqualität zwischen Bevölkerungsgruppen, insbesondere bei schwarzen Teilnehmenden. Das legt nahe, dass Antworten nicht für alle gleich passend wirken. Mögliche Einflussfaktoren – ohne dass die Studie sie prüft – könnten Tonalität, Beispiele oder kulturelle Bezüge sein. Für Entwickler heißt das: Vielfalt der Trainingsdaten, Tests mit diversen Gruppen und transparente Leitplanken sind zentral, um Vertrauen und Nutzenerleben zu erhöhen. Für Institutionen bedeutet es, Rückmeldungen gezielt zu sammeln und bei erkennbaren Lücken gegenzusteuern.

Methodische Punkte, die man kennen sollte

– Repräsentativität: Die Panels von RAND und Ipsos nutzen zufallsbasierte Auswahl. Das stärkt die Aussagekraft. Dennoch gilt die Einschränkung auf englischsprachige Jugendliche mit Internetzugang. – Querschnitt statt Längsschnitt: Die Daten zeigen, wer nutzt und wie bewertet wird, aber nicht, ob Chatbot-Nutzung Symptome verbessert oder verschlechtert. – Statistische Befunde: Der Altersunterschied (aOR 3,99) ist robust. Die geringere positive Bewertung unter schwarzen Teilnehmenden (aOR 0,15) ist ebenfalls signifikant. Weitere Faktoren zeigten keine signifikanten Zusammenhänge. – Dynamisches Feld: Chatbots verändern sich schnell. Was heute zutrifft, kann morgen anders sein. Regelmäßige Folgebefragungen sind nötig.

Konkrete Anhaltspunkte für den Alltag

Auch wenn die Studie keine Qualitätsprüfung liefert, lassen sich pragmatische Schritte ableiten, um Nutzen zu erhöhen und Risiken zu begrenzen: – Erwartungen klären: Chatbots geben Hinweise, aber keine Diagnosen. – Doppelstrategie: Digitale Hilfe plus menschliche Unterstützung erhöht die Chance auf passende Lösungen. – Notfälle separieren: In akuten Krisen wenden Jugendliche sich an Menschen und Notfalldienste – nicht an Chatbots. – Reflexion fördern: Jugendliche ermutigen, Antworten zu hinterfragen und bei Unsicherheit eine Vertrauensperson einzubeziehen. – Vielfalt beachten: Inhalte sollten unterschiedliche kulturelle Hintergründe und Sprachstile berücksichtigen.

Forschung: Was als Nächstes wichtig ist

Die vorliegenden Zahlen sind ein Startpunkt. Nächste Schritte könnten aus Sicht der Autorinnen und Autoren sowie der Praxis sein: – Qualitätsmessung: Wie genau, hilfreich und sicher sind die Antworten bei häufigen Anliegen (Traurigkeit, Wut, Nervosität)? – Wirkungen im Zeitverlauf: Verbessern sich Belastung, Bewältigung und Hilfesuche durch wiederholte Chatbot-Nutzung? – Gerechtigkeit: Welche Anpassungen steigern die wahrgenommene Hilfsqualität bei Gruppen, die aktuell weniger profitieren? – Verzahnung mit Versorgung: Wie lassen sich automatische Hinweise, Terminangebote oder Peer-Support sinnvoll integrieren? – Governance: Welche Leitlinien und Kontrollen sichern Jugendschutz, Transparenz und Datenverantwortung?

Fazit: Ein wachsender Baustein mit Verantwortung

Die Studie zeigt: Rund 13,1% der befragten Jugendlichen und jungen Erwachsenen in den USA nutzen generative KI für Ratschläge bei negativen Gefühlen; bei 18- bis 21-Jährigen sind es 22,2%. 65,5% greifen mindestens monatlich darauf zurück, 92,7% empfinden die Antworten als hilfreich. Zugleich fällt auf, dass schwarze Teilnehmende die Hilfsqualität seltener positiv bewerten als weiße nicht-hispanische Teilnehmende. Qualität, Genauigkeit, Risiken und die Rolle im Zusammenspiel mit professioneller Hilfe bleiben vorerst offen. Für Schulen, Familien und Gesundheitsakteure lautet die Lehre: Chancen nutzen, Grenzen kennen, Vielfalt ernst nehmen. Der Begriff KI Chatbots psychische Unterstützung Jugendliche fasst den Trend zusammen – aber er ist nur dann ein Gewinn, wenn junge Menschen verlässliche Antworten bekommen, die sie verstehen und die sie sicher an die richtige Form der Hilfe heranführen. Das erfordert Aufklärung, Forschung und kluge Leitplanken. Mit diesem Dreiklang kann das, was heute vielen bereits subjektiv hilft, morgen zu einem fairen und sicheren Bestandteil der Versorgung werden – für alle Jugendlichen.

(Source: https://www.ajmc.com/view/adolescents-young-adults-use-ai-chatbots-for-mental-health-advice)

For more news: Click Here

FAQ

Q: Was zeigt die Studie zum Trend KI Chatbots psychische Unterstützung Jugendliche? A: Die nationale Umfrage ergab, dass 13,1% der befragten US‑Jugendlichen generative KI für Ratschläge bei Traurigkeit, Wut oder Nervosität nutzten; bei 18‑ bis 21‑Jährigen lag der Anteil bei 22,2%. 65,5% nutzten Chatbots mindestens monatlich und 92,7% empfanden die erhaltenen Ratschläge als zumindest etwas oder sehr hilfreich. Q: Welche Altersgruppe nutzt generative Chatbots am stärksten? A: Am stärksten nutzen 18‑ bis 21‑Jährige Chatbots: 22,2% dieser Altersgruppe gaben entsprechende Nutzung an. In der multivariablen Analyse war das Alter der stärkste Faktor (aOR 3,99; 95%-KI 1,90–8,34), sodass diese Gruppe signifikant häufiger KI‑Ratschläge suchte als Jüngere. Q: Wie häufig wenden sich Jugendliche an Chatbots und wie bewerten sie die Hilfe? A: Unter den Nutzenden gaben 65,5% an, mindestens monatlich einen Chatbot zu konsultieren. 92,7% bewerteten die erhaltenen Antworten als zumindest etwas oder sehr hilfreich. Q: Gibt es Unterschiede in der Wahrnehmung der Hilfe zwischen verschiedenen Bevölkerungsgruppen? A: Ja, schwarze Teilnehmende bewerteten die Chatbot‑Ratschläge seltener positiv als weiße nicht‑hispanische Teilnehmende; die Modellrechnung ergab dafür ein aOR von 0,15 (95%-KI 0,04–0,65). Für andere demografische oder sozioökonomische Merkmale wurden keine signifikanten Zusammenhänge mit der Nutzung festgestellt. Q: Welche methodischen Einschränkungen nennt die Studie? A: Die Ergebnisse beruhen auf Selbstberichten, was Erinnerungslücken und soziale Erwünschtheit begünstigen kann, und die Stichprobe umfasste nur englischsprachige Jugendliche mit Internetzugang. Außerdem ist das Querschnittsdesign nicht kausal und die Studie bewertete nicht die Qualität, Genauigkeit oder Risiken der KI‑Ratschläge. Q: Können KI‑Chatbots professionelle Versorgung ersetzen? A: Die Studie betont, dass Chatbots eine niedrigschwellige Ergänzung sein können, aber professionelle Diagnostik, Therapie und Krisenintervention unersetzlich bleiben. Chatbots könnten Hemmschwellen senken und als Brücke zur Versorgung wirken, sollten jedoch nicht als Ersatz verstanden werden. Q: Welche konkreten Maßnahmen empfehlen die Autorinnen und Autoren für Schulen, Eltern und Gesundheitsakteure? A: Schulen sollten Medienkompetenz stärken, Hilfswege sichtbar machen und Feedbackkanäle einrichten, und Eltern sollten offen nach Erfahrungen fragen sowie bei anhaltenden Problemen auf professionelle Hilfe verweisen. Gesundheitsfachpersonen und Kostenträger werden angehalten, Lotsenfunktionen in digitalen Tools zu prüfen, Qualitätsforschung zu unterstützen und niederschwellige Erstkontakte zu ermöglichen. Q: Welche offenen Forschungsfragen bleiben laut Studie wichtig? A: Zu untersuchen sind die Qualität, Genauigkeit und Sicherheit der Antworten, die langfristigen Wirkungen wiederholter Nutzung sowie die Ursachen der Gruppenunterschiede in der Wahrnehmung. Zudem halten die Autorinnen und Autoren Studien zur Verzahnung von Chatbots mit formaler Versorgung, zur Gerechtigkeit und zu Governance‑Leitlinien für erforderlich.

Contents