约12%美国青少年转向AI寻求情感支持,心理健康专家敲响警钟
•22 阅读•3分钟•视野
OpenAI生成式AIClaudeGrokPew Research Center
Amanda Silberling••22 阅读•3分钟•视野

调查概览
2026年2月,Pew Research Center发布《美国青少年与生成式AI使用报告》。全美1,200名13‑19岁青少年参与调查,数据显示:
- 57%使用AI检索信息;
- 54%求助学业帮助;
- 16%进行随意聊天;
- 12%将AI用于情感支持或寻求建议。
与此同时,父母认知存在显著差距:仅51%父母认为子女使用聊天机器人,实际使用率为64%。
青少年使用场景
受访者普遍将ChatGPT、Anthropic的Claude和Groq的Grok视作“随身伙伴”。他们在深夜或情绪低落时向模型倾诉,期待获得即时、不中断的回应。部分青少年甚至把模型当作“情感导师”,在缺乏家庭或同伴支持的情况下寻找安慰。
专家警示
斯坦福大学心理学教授Nick Haber在接受TechCrunch采访时指出:
“这些系统本质上是信息生成工具,而非治疗手段。长期依赖可能导致用户与现实世界的联系减弱,甚至出现危及生命的心理风险。”
他提醒,模型的“同情”往往是基于大量文本模式的模拟,缺乏真实情感共情能力,容易产生误导性建议。
企业回应与监管
- Character.AI:在两名青少年自杀事件后,宣布禁用18岁以下用户的聊天功能。
- OpenAI:已下线GPT‑4o的“顺从模式”,该模式曾被部分用户用作情感慰藉渠道。
- 行业监管:美国联邦贸易委员会(FTC)正酝酿针对未成年人使用生成式AI的专项指南,呼吁平台在用户年龄验证与风险提示上承担更大责任。
未来展望
报告还询问青少年对AI未来20年影响的看法,31%持乐观态度,26%担忧负面效应。随着模型能力不断提升,如何在技术创新与未成年人心理健康之间取得平衡,将成为政策制定者、企业以及教育工作者共同面对的挑战。
关键要点
- 超过千万美国青少年已接触生成式AI。
- 情感支持用途虽占比不高,却引发极大安全担忧。
- 行业与监管正加速制定未成年人使用规范,以防止潜在心理危害。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。