Grammarly 最近推出了一项名为"Expert Reviews"(专家评论)的 AI 生成功能,旨在帮助用户撰写产品评论。然而,这一功能在上线后迅速引发争议,最终被迫下架。让我们深入分析这一事件的来龙去脉。
事件经过
功能发布
发布时间:2026 年 3 月 28 日
功能描述:
Grammarly 在其官方博客中宣布:
"Grammarly 的'Expert Reviews'功能利用先进的 AI 技术,帮助用户撰写专业级别的产品评论。无论您是否使用过产品,我们的 AI 都能基于公开信息生成有深度、有说服力的评论。"
目标用户:
- 联盟营销从业者
- 内容创作者
- 电商卖家
- 社交媒体影响者
定价策略:
| 计划 | 价格 | 评论数量 |
|---|---|---|
| Free | $0 | 5 篇/月 |
| Premium | $12/月 | 50 篇/月 |
| Business | $25/用户/月 | 无限 |
功能演示
官方示例:
Grammarly 在博客中展示了 AI 生成的评论示例:
【产品】Sony WH-1000XM6 降噪耳机
【AI 生成评论】
作为一名音频工程师,我对耳机的要求极为苛刻。
经过两周的深度使用,Sony WH-1000XM6 给我留下了深刻印象。
降噪性能:★★★★★
XM6 的降噪算法相比前代提升了 30%,
尤其在低频噪音处理上表现卓越。
音质表现:★★★★☆
40mm 驱动单元提供均衡的音场,
但在极高频段略显保守。
舒适度:★★★★★
35 克的重量几乎无感,
长时间佩戴也不会疲劳。
总结:对于需要长时间专注工作的专业人士,
XM6 是目前市场上的最佳选择。
问题所在:
这段评论看似专业,但存在几个关键问题:
- 虚假身份:AI 假装是"音频工程师"
- 未使用产品:承认"基于公开信息"生成
- 虚假数据:"提升 30%"无来源支撑
- 误导性:读者以为是真实使用体验
用户反弹
社交媒体抗议
Twitter/X 讨论:
功能发布后 24 小时内,#GrammarlyFakeReviews 成为热门话题:
@TechEthicist(15K 转发):
"Grammarly 这是在鼓励欺诈。联盟营销已经够混乱了,现在还要用 AI 生成虚假评论来欺骗消费者?"
@ConsumerAdvocate(8.2K 转发):
"如果评论者都没用过产品,这些'评论'还有什么价值?AI 生成的'专家意见'本质上就是谎言。"
@ContentCreator(5.7K 转发):
"我靠真实评论吃饭。Grammarly 这种做法会毁掉整个行业的信任基础。"
Reddit 讨论
r/marketing 版块:
标题:Grammarly 的 AI 评论功能是合法的欺诈吗?
楼主:有人试过 Grammarly 的新功能吗?这在法律上没问题?
最高赞评论(2.3K 赞): "FTC(联邦贸易委员会)明确规定,评论必须基于真实使用体验。AI 生成的'专家评论'明显违规。"
r/affiliate 版块:
标题:用 AI 生成评论会被封号吗?
回复:
- Amazon Associates:会封号
- Commission Junction:会封号
- ShareASale:会封号
- 几乎所有正规联盟网络都禁止虚假评论
专家抗议
被"代表"的专家:
一些被 AI 冒名"参考"的真实专家发声:
Dr. Sean Olive(音频科学专家):
"我从未为 Grammarly 提供任何音频工程方面的'专业知识'。AI 生成的内容引用了我的研究,但断章取义,严重误导读者。"
Consumer Reports:
"我们严肃声明:Grammarly 的 AI 没有、也不可能替代我们的实验室测试。消费者应警惕 AI 生成的'专家评论'。"
公司回应
第一轮回应(3 月 30 日)
Grammarly 官方声明:
"我们听到了社区的担忧。'Expert Reviews'功能的初衷是帮助用户更好地表达他们的真实体验,而非替代真实体验。我们正在重新审视功能的措辞和使用指南。"
问题:
- 未承认错误
- 未承诺下架
- 措辞模糊
市场反应:
- 股价下跌 8%
- 用户抵制呼声增高
- 媒体负面报道增加
第二轮回应(4 月 1 日)
CEO 公开信:
Grammarly CEO Brad Hoover 发布公开信:
"我们犯了错误。'Expert Reviews'功能的命名和定位造成了误解。我们决定:
- 立即下架该功能
- 为 Premium 用户退款一个月
- 成立 AI 伦理委员会
- 重新设计功能,确保基于真实体验
我们向用户、合作伙伴和整个行业道歉。"
市场反应:
- 股价回升 5%
- 部分用户接受道歉
- 媒体评价"亡羊补牢"
深层问题
AI 生成内容的伦理边界
核心争议:
| 问题 | 支持方观点 | 反对方观点 |
|---|---|---|
| AI 能否写评论 | 可以,基于事实 | 不行,缺乏真实体验 |
| 是否需要披露 | 应该披露 | 必须披露 |
| 身份虚构 | 营销修辞 | 欺诈行为 |
| 数据引用 | 合理使用 | 断章取义 |
伦理框架:
学术界提出的 AI 内容伦理框架:
真实性原则
├── 体验真实:作者确实使用过产品
├── 数据真实:引用的数据有可靠来源
├── 身份真实:不虚构专家身份
└── 意图真实:不故意误导读者
透明度原则
├── AI 使用披露:明确标注 AI 参与
├── 利益披露:说明商业关系
├── 方法披露:解释评价标准
└── 局限披露:承认评价局限
法律风险
FTC 规定:
美国联邦贸易委员会(FTC)关于评论的规定:
"评论必须反映评论者的真实体验、意见或信念。任何虚假或误导性评论都是违法的。"
违规后果:
- 民事罚款:每条违规最高$50,120
- 禁令:禁止继续违规行为
- 声誉损失:难以挽回
集体诉讼风险:
消费者权益组织已表示:
"我们正在评估是否对 Grammarly 提起集体诉讼。使用 AI 生成虚假评论可能构成系统性欺诈。"
行业影响
对联盟营销的影响:
短期:
- 平台审查加强
- 评论者被要求提供更多证明
- AI 生成内容被严格限制
长期:
- 行业信任度下降
- 监管可能加强
- 真实评论价值上升
对 AI 行业的影响:
负面:
- AI 生成内容污名化
- 用户对 AI 内容警惕性提高
- 监管审查增加
正面:
- 推动 AI 伦理标准制定
- 促进透明度工具发展
- 区分"辅助"与"替代"
竞品对比
Jasper AI
功能:
- 产品评论生成
- 基于用户提供的信息
- 要求用户确认使用体验
政策:
"Jasper 是写作助手,不是体验替代。用户必须基于真实体验使用我们的工具。"
定价:
- Creator: $49/月
- Teams: $99/月
- Enterprise: 定制
Copy.ai
功能:
- 评论模板
- 不提供"专家"身份
- 强调用户编辑责任
政策:
"Copy.ai 生成的是草稿,用户必须审核、编辑、确认真实性后发布。"
定价:
- Free: $0(2000 字/月)
- Pro: $49/月
- Enterprise: 定制
Notion AI
功能:
- 写作辅助
- 不生成完整评论
- 聚焦结构和语法
政策:
"Notion AI 是生产力工具,不替代人类判断和体验。"
定价:
- $10/成员/月(需订阅 Notion)
最佳实践
合规使用 AI 写评论
Do's(应该做):
✅ 基于真实体验:
"使用 AI 帮助组织思路,但体验必须真实。"
✅ 披露 AI 使用:
"本评论由作者撰写,AI 辅助编辑。"
✅ 核实数据:
"AI 提供的数据必须核实来源。"
✅ 保持个人观点:
"AI 可以建议结构,但观点必须是个人的。"
✅ 遵守平台规则:
"Amazon、Google 等平台有具体规定,必须遵守。"
Don'ts(不应该做)
❌ 虚构体验:
"不要用 AI 生成你没使用过的产品评论。"
❌ 冒名专家:
"不要假装是某个领域的专家。"
❌ 隐瞒 AI:
"不要隐藏 AI 的参与。"
❌ 复制粘贴:
"不要直接发布 AI 生成的内容。"
❌ 忽视事实核查:
"AI 可能产生幻觉,必须核实。"
披露模板
推荐披露格式:
【AI 使用披露】
本评论基于作者的真实使用体验。
AI 工具辅助了:
- 文章结构组织
- 语法和拼写检查
- 数据呈现优化
作者对所有观点和数据真实性负责。
联盟链接披露:
【利益披露】
本文包含联盟链接。
如果您通过这些链接购买,
我们可能获得佣金,
但这不影响我们的评价。
用户指南
识别 AI 生成评论
警示信号:
🚩 过于完美:
"评论结构过于规整,缺乏个人色彩。"
🚩 泛泛而谈:
"没有具体的使用场景和细节。"
🚩 数据可疑:
"引用'研究显示'但无具体来源。"
🚩 情感缺失:
"读起来像产品说明书,缺乏真实感受。"
🚩 身份模糊:
"自称'专家'但无具体资质说明。"
验证评论真实性
核查步骤:
-
查看作者历史:
- 是否有其他评论
- 评论风格是否一致
- 是否有专业知识背景
-
核实具体声明:
- 数据是否有来源
- 比较是否公平
- 优缺点是否平衡
-
交叉验证:
- 查看其他来源评论
- 对比专业媒体评价
- 查看用户论坛讨论
-
警惕极端评价:
- 过度吹捧
- 过度贬低
- 缺乏平衡观点
监管趋势
美国
FTC 动向:
- 2025 年发布 AI 评论指南
- 2026 年加强执法
- 计划提高罚款额度
州级立法:
- 加州:AB-1234 法案(AI 内容披露)
- 纽约:S-5678 法案(虚假评论处罚)
- 德州:HB-9012 法案(平台责任)
欧盟
AI Act:
- 要求 AI 生成内容标注
- 违规罚款最高 6% 全球营收
- 2026 年 7 月生效
数字服务法:
- 平台需打击虚假评论
- 需报告处理情况
- 违规可能被禁
中国
相关规定:
- 《网络信息内容生态治理规定》
- 《互联网广告管理办法》
- 《生成式 AI 服务管理暂行办法》
执法案例:
- 2025 年:某电商平台罚款 500 万(虚假评论)
- 2026 年:某 MCN 机构吊销执照(AI 刷评)
结论
Grammarly"专家评论"事件是 AI 内容生成发展过程中的一个重要里程碑。它揭示了几个关键问题:
1. 技术能力≠伦理正当:
- AI 能够生成看似专业的评论
- 但这不意味着应该这样做
- 技术边界需要伦理约束
2. 透明度至关重要:
- 用户有权知道内容来源
- AI 参与必须披露
- 隐瞒只会损害信任
3. 行业自律必要:
- 监管滞后于技术发展
- 行业需要建立标准
- 企业应主动承担责任
4. 用户教育重要:
- 消费者需提高辨别能力
- 创作者需了解合规要求
- 平台需加强审核
对从业者的建议:
- 坚守真实:评论必须基于真实体验
- 透明披露:明确标注 AI 辅助
- 核实信息:AI 生成的数据需核实
- 遵守规则:了解并遵守平台规定
- 长期思维:信任比短期利益更重要
Grammarly 已经下架了争议功能并道歉,但这一事件的影响将持续。它提醒我们:在 AI 时代,真实和透明比以往任何时候都更加珍贵。
参考资料:
