博客 | 首席技术官办公室

新的机器人战争: 你认识的每个人可能都是假的

Lori MacVittie 缩略图
洛里·麦克维蒂
发布于 2025 年 5 月 13 日

机器人农场曾经是一个笑话。 数千个垃圾账户、蹩脚的英语、粗糙的交战策略。 很容易发现。 很容易被忽视。

不再。

如今,机器人农场已达到工业规模,部署了数千部真实的智能手机来运行行为类似于真实用户的脚本账户。 他们点赞、分享和评论的程度刚好足以触发平台参与算法。

这不是黑客行为。 它完全按照设计使用系统,只是速度更快、规模更大,并且不具备这些系统所假定的真实性。

一旦帖子获得关注,X 和 Meta 等平台就会进一步推广它。 它们增强的是参与度,而不是准确性。 X 的 2023 年透明度报告明确指出:哪些举措会得到推广。 即使有了基于机器学习的检测系统,人工智能驱动的机器人也能无缝融入有机流量中。

从那时起,真正的用户接管了。 可见性创造了感知的合法性。 如果某样东西看起来很受欢迎,就会让人觉得值得信赖。

虚假的参与会造成假象。 真正的人会生火。 而人工智能使得火灾比以往更难追踪。

人工智能的影响

机器人农场曾经需要大批工人发布重复的帖子,而现在人工智能工具可以生成连贯、多样且高度可信的内容。 根据NewsGuard 的 2023 年报告,人工智能生成的宣传与真实评论越来越难以区分,甚至包括特定地区的语言和情感。

这不再是垃圾内容了。 它合理、符合情境、并且具有反应性。 它看起来像是来自草根的支持,但却是工业规模的制造影响力。

但平台仍然会奖励它。 它们的建立是为了放大性能,而不是评估真实性。 

审核工具和人工审核员没有跟上步伐。 Meta 2024 年关于采取行动打击协同、虚假行为的报告强调了实时检测这些协同活动变得多么困难。

这不是一个边缘问题。 它冲击政治、营销、金融投机,甚至品牌信任。 2021年,美国 美国证券交易委员会警告称,社交媒体驱动的市场波动可能受到机器人的推动。

与此同时,依赖可见性和参与度的系统(趋势列表、“为您推荐”面板)现在很容易被劫持。 旨在揭示重要信息的工具现在可以揭示人们为使重要信息得以支付的一切费用。

当今的机器人不会违反规则。 他们跟随他们。 它们模仿人类的行为并产生对话。 它们随着时间的推移建立信誉并跨网络运营。 由于它们不违反技术政策,因此经常不被发现。

这暴露了一个更深层次的缺陷:系统的设计目的是评估行为,而不是动机。 我们信任模式。 如果看起来正常,就认为是安全的。

但AI的行为并不会异常。 它的行为令人信服。

人工智能将信号向上传递

信号已沿堆栈向上移动。 远离标题和费率。 分为有效载荷、内容语义和系统级协调。 人工智能产生的影响对于传统防御来说看起来很清晰。 异常不再存在于信封中。 它在消息中。

我们正在努力解决这一问题。 DARPA 的语义取证程序正在努力使用意图和语言标记来检测人工智能生成的内容。 X 的 2024 年更新提到了加强机器人清除力度。 但这些系统仍处于早期阶段。 这些工具的可扩展性和响应能力还不足以超越人工智能驱动的影响力活动。

如今,威胁再次演变。

除了简单的机器人之外,人工智能驱动的代理也正在被部署。 这些代理的作用不仅仅是自动化。 他们协调。 他们转向了。 他们分析响应数据并实时调整策略。 DFRLab 2022 年的一项研究记录了国家支持的活动如何使用人工智能代理在各个平台上策划虚假信息,并动态适应检测。

与此同时,合法企业正在采用代理来提供客户支持、营销和工作流程自动化。 Lyzr.ai 表示,70% 的人工智能应用工作重点是基于行动的人工智能代理,而不仅仅是会话机器人

这使得界限变得模糊。 当代理人同时代表公司和攻击者发言时,信任就会受到侵蚀。 冒充品牌代表的虚假支持机器人可能会钓鱼用户或传播错误信息,除非您知道要寻找什么,否则很难与真实的东西区分开来。

这不再是一个机器人问题。 这是一场真实性危机。

人工智能进化挑战假设

由先进的人工智能工具和协调代理推动的新机器人战争重新绘制了地图。 我们并不是在防御噪音。 我们正在防御那些看起来像人类、经过扩展以操纵系统并且经过优化以不被发现的合成可信度。

随着这种从基础设施转向算法、语义和感知合法性的转变,我们围绕安全性和规模建立的基本假设正在崩溃。

解决这个问题意味着重新思考基础。 为执行规则而构建的工具必须不断发展,以将行为、语言和协调模式解释为更广泛的意图系统的一部分。

在此之前,怀疑是我们的底线,恢复信任需要的不仅仅是检测。

这需要平台、企业和研究人员之间的积极合作,重建我们每天所依赖的系统的完整性,并确保他们的策略不会渗透到企业中,因为合成影响可能会悄悄地破坏决策、劫持自动化并从内到外侵蚀用户信任。