2026年4月6日 · AI 雷达编辑部

Grammarly 的 AI"专家评论"翻车记

Grammarly 推出 AI 生成的"专家评论"功能,引发用户和专家双重抗议,最终被迫下架。这一事件揭示了 AI 内容生成的伦理边界。

Grammarly 的 AI"专家评论"翻车记

Grammarly 最近推出了一项名为"Expert Reviews"(专家评论)的 AI 生成功能,旨在帮助用户撰写产品评论。然而,这一功能在上线后迅速引发争议,最终被迫下架。让我们深入分析这一事件的来龙去脉。

事件经过

功能发布

发布时间:2026 年 3 月 28 日

功能描述

Grammarly 在其官方博客中宣布:

"Grammarly 的'Expert Reviews'功能利用先进的 AI 技术,帮助用户撰写专业级别的产品评论。无论您是否使用过产品,我们的 AI 都能基于公开信息生成有深度、有说服力的评论。"

目标用户

  • 联盟营销从业者
  • 内容创作者
  • 电商卖家
  • 社交媒体影响者

定价策略

计划价格评论数量
Free$05 篇/月
Premium$12/月50 篇/月
Business$25/用户/月无限

功能演示

官方示例

Grammarly 在博客中展示了 AI 生成的评论示例:

【产品】Sony WH-1000XM6 降噪耳机

【AI 生成评论】

作为一名音频工程师,我对耳机的要求极为苛刻。
经过两周的深度使用,Sony WH-1000XM6 给我留下了深刻印象。

降噪性能:★★★★★
XM6 的降噪算法相比前代提升了 30%,
尤其在低频噪音处理上表现卓越。

音质表现:★★★★☆
40mm 驱动单元提供均衡的音场,
但在极高频段略显保守。

舒适度:★★★★★
35 克的重量几乎无感,
长时间佩戴也不会疲劳。

总结:对于需要长时间专注工作的专业人士,
XM6 是目前市场上的最佳选择。

问题所在

这段评论看似专业,但存在几个关键问题:

  1. 虚假身份:AI 假装是"音频工程师"
  2. 未使用产品:承认"基于公开信息"生成
  3. 虚假数据:"提升 30%"无来源支撑
  4. 误导性:读者以为是真实使用体验

用户反弹

社交媒体抗议

Twitter/X 讨论

功能发布后 24 小时内,#GrammarlyFakeReviews 成为热门话题:

@TechEthicist(15K 转发):

"Grammarly 这是在鼓励欺诈。联盟营销已经够混乱了,现在还要用 AI 生成虚假评论来欺骗消费者?"

@ConsumerAdvocate(8.2K 转发):

"如果评论者都没用过产品,这些'评论'还有什么价值?AI 生成的'专家意见'本质上就是谎言。"

@ContentCreator(5.7K 转发):

"我靠真实评论吃饭。Grammarly 这种做法会毁掉整个行业的信任基础。"

Reddit 讨论

r/marketing 版块

标题:Grammarly 的 AI 评论功能是合法的欺诈吗?

楼主:有人试过 Grammarly 的新功能吗?这在法律上没问题?

最高赞评论(2.3K 赞): "FTC(联邦贸易委员会)明确规定,评论必须基于真实使用体验。AI 生成的'专家评论'明显违规。"

r/affiliate 版块

标题:用 AI 生成评论会被封号吗?

回复

  • Amazon Associates:会封号
  • Commission Junction:会封号
  • ShareASale:会封号
  • 几乎所有正规联盟网络都禁止虚假评论

专家抗议

被"代表"的专家

一些被 AI 冒名"参考"的真实专家发声:

Dr. Sean Olive(音频科学专家):

"我从未为 Grammarly 提供任何音频工程方面的'专业知识'。AI 生成的内容引用了我的研究,但断章取义,严重误导读者。"

Consumer Reports

"我们严肃声明:Grammarly 的 AI 没有、也不可能替代我们的实验室测试。消费者应警惕 AI 生成的'专家评论'。"

公司回应

第一轮回应(3 月 30 日)

Grammarly 官方声明

"我们听到了社区的担忧。'Expert Reviews'功能的初衷是帮助用户更好地表达他们的真实体验,而非替代真实体验。我们正在重新审视功能的措辞和使用指南。"

问题

  • 未承认错误
  • 未承诺下架
  • 措辞模糊

市场反应

  • 股价下跌 8%
  • 用户抵制呼声增高
  • 媒体负面报道增加

第二轮回应(4 月 1 日)

CEO 公开信

Grammarly CEO Brad Hoover 发布公开信:

"我们犯了错误。'Expert Reviews'功能的命名和定位造成了误解。我们决定:

  1. 立即下架该功能
  2. 为 Premium 用户退款一个月
  3. 成立 AI 伦理委员会
  4. 重新设计功能,确保基于真实体验

我们向用户、合作伙伴和整个行业道歉。"

市场反应

  • 股价回升 5%
  • 部分用户接受道歉
  • 媒体评价"亡羊补牢"

深层问题

AI 生成内容的伦理边界

核心争议

问题支持方观点反对方观点
AI 能否写评论可以,基于事实不行,缺乏真实体验
是否需要披露应该披露必须披露
身份虚构营销修辞欺诈行为
数据引用合理使用断章取义

伦理框架

学术界提出的 AI 内容伦理框架:

真实性原则
├── 体验真实:作者确实使用过产品
├── 数据真实:引用的数据有可靠来源
├── 身份真实:不虚构专家身份
└── 意图真实:不故意误导读者

透明度原则
├── AI 使用披露:明确标注 AI 参与
├── 利益披露:说明商业关系
├── 方法披露:解释评价标准
└── 局限披露:承认评价局限

法律风险

FTC 规定

美国联邦贸易委员会(FTC)关于评论的规定:

"评论必须反映评论者的真实体验、意见或信念。任何虚假或误导性评论都是违法的。"

违规后果

  • 民事罚款:每条违规最高$50,120
  • 禁令:禁止继续违规行为
  • 声誉损失:难以挽回

集体诉讼风险

消费者权益组织已表示:

"我们正在评估是否对 Grammarly 提起集体诉讼。使用 AI 生成虚假评论可能构成系统性欺诈。"

行业影响

对联盟营销的影响

短期

  • 平台审查加强
  • 评论者被要求提供更多证明
  • AI 生成内容被严格限制

长期

  • 行业信任度下降
  • 监管可能加强
  • 真实评论价值上升

对 AI 行业的影响

负面

  • AI 生成内容污名化
  • 用户对 AI 内容警惕性提高
  • 监管审查增加

正面

  • 推动 AI 伦理标准制定
  • 促进透明度工具发展
  • 区分"辅助"与"替代"

竞品对比

Jasper AI

功能

  • 产品评论生成
  • 基于用户提供的信息
  • 要求用户确认使用体验

政策

"Jasper 是写作助手,不是体验替代。用户必须基于真实体验使用我们的工具。"

定价

  • Creator: $49/月
  • Teams: $99/月
  • Enterprise: 定制

Copy.ai

功能

  • 评论模板
  • 不提供"专家"身份
  • 强调用户编辑责任

政策

"Copy.ai 生成的是草稿,用户必须审核、编辑、确认真实性后发布。"

定价

  • Free: $0(2000 字/月)
  • Pro: $49/月
  • Enterprise: 定制

Notion AI

功能

  • 写作辅助
  • 不生成完整评论
  • 聚焦结构和语法

政策

"Notion AI 是生产力工具,不替代人类判断和体验。"

定价

  • $10/成员/月(需订阅 Notion)

最佳实践

合规使用 AI 写评论

Do's(应该做)

基于真实体验

"使用 AI 帮助组织思路,但体验必须真实。"

披露 AI 使用

"本评论由作者撰写,AI 辅助编辑。"

核实数据

"AI 提供的数据必须核实来源。"

保持个人观点

"AI 可以建议结构,但观点必须是个人的。"

遵守平台规则

"Amazon、Google 等平台有具体规定,必须遵守。"

Don'ts(不应该做)

虚构体验

"不要用 AI 生成你没使用过的产品评论。"

冒名专家

"不要假装是某个领域的专家。"

隐瞒 AI

"不要隐藏 AI 的参与。"

复制粘贴

"不要直接发布 AI 生成的内容。"

忽视事实核查

"AI 可能产生幻觉,必须核实。"

披露模板

推荐披露格式

【AI 使用披露】

本评论基于作者的真实使用体验。
AI 工具辅助了:
- 文章结构组织
- 语法和拼写检查
- 数据呈现优化

作者对所有观点和数据真实性负责。

联盟链接披露

【利益披露】

本文包含联盟链接。
如果您通过这些链接购买,
我们可能获得佣金,
但这不影响我们的评价。

用户指南

识别 AI 生成评论

警示信号

🚩 过于完美

"评论结构过于规整,缺乏个人色彩。"

🚩 泛泛而谈

"没有具体的使用场景和细节。"

🚩 数据可疑

"引用'研究显示'但无具体来源。"

🚩 情感缺失

"读起来像产品说明书,缺乏真实感受。"

🚩 身份模糊

"自称'专家'但无具体资质说明。"

验证评论真实性

核查步骤

  1. 查看作者历史

    • 是否有其他评论
    • 评论风格是否一致
    • 是否有专业知识背景
  2. 核实具体声明

    • 数据是否有来源
    • 比较是否公平
    • 优缺点是否平衡
  3. 交叉验证

    • 查看其他来源评论
    • 对比专业媒体评价
    • 查看用户论坛讨论
  4. 警惕极端评价

    • 过度吹捧
    • 过度贬低
    • 缺乏平衡观点

监管趋势

美国

FTC 动向

  • 2025 年发布 AI 评论指南
  • 2026 年加强执法
  • 计划提高罚款额度

州级立法

  • 加州:AB-1234 法案(AI 内容披露)
  • 纽约:S-5678 法案(虚假评论处罚)
  • 德州:HB-9012 法案(平台责任)

欧盟

AI Act

  • 要求 AI 生成内容标注
  • 违规罚款最高 6% 全球营收
  • 2026 年 7 月生效

数字服务法

  • 平台需打击虚假评论
  • 需报告处理情况
  • 违规可能被禁

中国

相关规定

  • 《网络信息内容生态治理规定》
  • 《互联网广告管理办法》
  • 《生成式 AI 服务管理暂行办法》

执法案例

  • 2025 年:某电商平台罚款 500 万(虚假评论)
  • 2026 年:某 MCN 机构吊销执照(AI 刷评)

结论

Grammarly"专家评论"事件是 AI 内容生成发展过程中的一个重要里程碑。它揭示了几个关键问题:

1. 技术能力≠伦理正当

  • AI 能够生成看似专业的评论
  • 但这不意味着应该这样做
  • 技术边界需要伦理约束

2. 透明度至关重要

  • 用户有权知道内容来源
  • AI 参与必须披露
  • 隐瞒只会损害信任

3. 行业自律必要

  • 监管滞后于技术发展
  • 行业需要建立标准
  • 企业应主动承担责任

4. 用户教育重要

  • 消费者需提高辨别能力
  • 创作者需了解合规要求
  • 平台需加强审核

对从业者的建议

  1. 坚守真实:评论必须基于真实体验
  2. 透明披露:明确标注 AI 辅助
  3. 核实信息:AI 生成的数据需核实
  4. 遵守规则:了解并遵守平台规定
  5. 长期思维:信任比短期利益更重要

Grammarly 已经下架了争议功能并道歉,但这一事件的影响将持续。它提醒我们:在 AI 时代,真实和透明比以往任何时候都更加珍贵。


参考资料