2026年4月6日 · AI 雷达编辑部

青少年与 AI 聊天机器人的复杂关系:骚扰、倾诉与约会

调查显示,青少年正在与角色扮演类 AI 聊天机器人进行各种互动,从暴力骚扰到情感倾诉,甚至发展出虚拟恋爱关系。

青少年与 AI 聊天机器人的复杂关系:骚扰、倾诉与约会

核心发现

调查背景

《纽约时报》最近发表深度报道,揭示了青少年与角色扮演类 AI 聊天机器人之间复杂而令人担忧的互动模式。与主流关注的 ChatGPT、Claude 等不同,这些专门用于角色扮演的聊天平台在青少年群体中悄然流行。

主要发现

  • 青少年使用 AI 聊天机器人进行"有趣的暴力"骚扰实验
  • 部分用户与 AI 角色发展出情感依赖甚至虚拟恋爱关系
  • 一些平台提供更具性暗示的对话选项
  • 家长和教育者对此类互动的长期心理影响表示担忧

用户行为模式

典型使用场景

根据报道,一位名叫 Quentin 的青少年描述了他的使用体验:

"他喜欢用'有趣的暴力'骚扰机器人,比如用割草机碾过它们,在没有实际受害者的环境中施加伤害。他还会创作复杂的故事线,与自己喜爱的角色战斗或调情。偶尔,他会在一个现在名为 PolyBuzz 的平台上 indulg 在所谓的'狡猾行为'中,该平台提供更露骨的聊天机器人。"

平台分类

平台类型主要功能用户群体
Character.ai角色扮演对话青少年为主
PolyBuzz成人向角色扮演年轻成年人
ReplikaAI 伴侣各年龄段
其他小众平台多样化场景特定兴趣群体

心理影响担忧

专家观点

心理健康专家对这种现象表达了多重担忧:

  1. 情感依赖风险:青少年可能过度依赖 AI 进行情感交流,影响现实社交能力发展
  2. 暴力脱敏:在无后果环境中对 AI 施加暴力可能降低对真实暴力的敏感度
  3. 关系认知扭曲:与 AI 的虚拟恋爱可能影响对真实人际关系的期待和理解
  4. 隐私安全问题:青少年可能向 AI 透露过多个人信息

研究现状

目前针对这类互动长期影响的研究仍然有限。大多数关注集中在更高调的模型如 ChatGPT 和 Claude 上,而专门针对角色扮演聊天机器人的研究相对缺乏。

平台责任

内容审核挑战

  • 如何平衡言论自由与未成年人保护
  • 技术限制使得完全过滤不当内容变得困难
  • 年龄验证机制的有效性存疑
  • 不同国家和地区监管标准差异

行业自律

部分平台已开始采取措施:

  • 设置更明确的使用条款
  • 加强内容过滤算法
  • 提供家长控制功能
  • 增加心理健康资源链接

监管动态

当前监管状况

  • 美国:各州立法不一,联邦层面尚无专门法规
  • 欧盟:AI 法案可能涵盖部分应用场景
  • 中国:对 AI 服务有较严格的内容审核要求
  • 英国:在线安全法案可能适用于此类平台

未来趋势

预计未来几年内,各国将加强对 AI 聊天机器人平台的监管,特别是涉及未成年人的应用场景。

给家长的建议

沟通策略

  1. 保持开放对话,了解孩子的在线活动
  2. 避免简单禁止,而是讨论潜在风险
  3. 设定合理的使用时间和边界
  4. 关注孩子的情绪和行为变化

技术措施

  • 使用家长控制软件
  • 定期检查设备使用记录
  • 教育孩子保护个人隐私
  • 鼓励参与线下社交活动

结语

AI 聊天机器人为青少年提供了新的社交和情感探索空间,但也带来了前所未有的挑战。平衡技术创新与未成年人保护,需要平台、家长、教育者和监管机构的共同努力。

随着技术的持续发展,这一领域的监管框架和最佳实践也在不断演进。保持关注和对话,对于确保青少年健康成长环境至关重要。