引发暴动的数字代笔人
试想打开文档时,竟发现史蒂芬·金或卡尔·萨根的"幽灵"正在批改你的语法。
这正是Grammarly专家评审功能用户的真实体验——该功能通过模拟著名学者、记者和作家的AI人格提供反馈。
然而,这份专家名单的光环很快被一个令人不安的事实所掩盖:被模拟的专家们根本不知道自己已成为产品的一部分。
到2026年3月11日周三,舆论反弹达到临界点,迫使母公司Superhuman终止了这项争议工具。
该功能于去年夏天推出,当时Grammarly正试图转型为人工智能生产力平台,允许用户获得基于特定专业风格的反馈。
尽管该公司声称该人工智能依赖"公开信息",但批评者认为该工具本质上是在未经同意的情况下,对作家的身份和辛苦培养的写作风格进行剥削式挖掘。
当人们发现该算法甚至"咨询"已故人物时,争议进一步升级,引发了对身份盗窃和数字巫术的指控。
为何Grammarly未经许可使用用户姓名?
争议的核心在于根本性的透明度缺失。
Grammarly并未与专家建立合作关系,而是实施了"选择退出"政策,这意味着作者默认被纳入系统,必须主动申请才能退出。
这种做法在写作圈引发了强烈反弹。
The Verge前创意总监詹姆斯·巴雷汉姆在Bluesky平台道出了众多用户的愤懑:
"我虽非法律专家,但''我们将在未经授权的情况下持续使用您的内容,直至您明确表示反对'——这种辩护策略恐怕难以获得公众舆论的支持。"
来源: Bluesky
该功能的技术实现也受到质疑。
有报道称,某些人工智能建议与垃圾网站相关联,或使用过时的职位名称冒充记者。
更奇怪的是,该工具会针对无意义的占位文本(如lorem ipsum)提供"专家"建议。
作者本杰明·德雷尔嘲讽该公司慷慨的退出方案,写道:
"但与此同时,若能让某些企业无良律师焦虑片刻,我便觉得自己付出的努力并非徒劳。"
来源:Bluesky
多少作家在不知情的情况下被转化为AI?
这份"专家"名单堪称现代媒体与科学界的名人录,包含尼尔·德格拉斯·泰森、卡拉·斯威舍和马克·古尔曼等知名人物。
对许多人而言,这一发现令人震惊。
科技记者凯西·牛顿发现自己的数字形象正在提供写作建议,他撰写了题为《Grammarly违背我的意愿将我变成AI编辑,我对此深恶痛绝》的抨击性博文。
他指出此事的讽刺之处,写道:
"我一直认为,不久的将来人工智能可能会取代我的工作。只是我以为,当这种情况发生时,会有人告诉我。"
这场风波已蔓延至法律领域。
调查记者朱莉娅·安格温提起诉讼,表达了她对某公司"兜售冒牌货"的愤怒——这冒牌货竟冒用她的专业知识。
面对日益严峻的法律压力和公关危机,Superhuman首席执行官希希尔·梅赫罗特拉在领英发布致歉声明,承认公司"未能达到预期标准"。
他声明:
"过去一周,我们收到多位专家提出的合理批评,他们担忧该智能助手歪曲了他们的观点。"
人工智能生产力工具能否在不侵犯隐私的前提下生存?
拥有约4000万用户和50万企业客户的Grammarly,正竭力在ChatGPT和Claude主导的市场中保持竞争力。
2024年收购Coda Project Inc.本意是推动公司转型为更高级的人工智能代理,但专家评审的失败表明技术野心与伦理边界之间存在脱节。
Grammarly代理产品管理总监艾莲·甘向Decrypt透露,该功能正在重新设计,以确保专家对其形象拥有"真实控制权"。
尽管该功能目前已被禁用,但事件已让创作者们心生不快。
卡拉·斯威舍的回应或许最为直白,她警告道:
"你们这些贪婪的信息与身份窃贼,最好做好准备——我要对你们来个麦康纳式反击。 你们简直烂透了。"
该公司月费12美元的Pro订阅用户未来或许能看到改版功能,但AI开发者与被模仿的人类创作者之间的桥梁已严重受损。
灵感与冒充之间的道德边界
Coinlive 认为,当前人工智能的发展轨迹需要从寄生式数据采集转向共生式合作模式。
当人工智能开始以特定人物的名义输出其从未实际撰写或发表的言论时,它便不再是工具,而成为欺骗的载体。
"风格迁移"与赤裸裸的伪造之间,仅有一线之隔的危险界限。
若行业持续将"公开数据"置于个人身份权之上,互联网恐将沦为万花筒般的幻境,其中任何声音都不可信。
人工智能应当作为赋能用户的辅助工具,而非戴着窃取的专家面具误导公众的冒名顶替者。