
合成身份+AI双杀,下一个十亿美元的网络犯罪风口 原创
合成身份欺诈已不仅仅是一种新的网络犯罪类别,它是对于数字化应用信任关系的根本性挑战。本文深入剖析了合成身份的基本原理、极度危害、流水线模式、产生的信任危机、以及给犯罪供应链带来的变革,也提出了利用技术和监管与之对抗的思路和成本。
2025年已过半,在线身份欺诈的行为已经从原始的信用卡号盗用和文件伪造,演变成为更具欺骗性的方式--合成身份欺诈(Synthetic identity fraud),即:由人工智能(AI)生成的角色来盗用和冒用你的身份,模仿你的语音与表达习惯,甚至深度融入你的数字生活,创造出令人信服的数字分身。这些数字幽灵已经成为我们从未预料到的最大威胁之一。
数字幽灵的剖析
传统的身份盗窃需要窃取的真实信息包括:社会安全号码、信用报告、驾照照片等。而合成身份欺诈可以创造一些从未存在过的东西,但在每个旨在检测欺诈的验证系统中被“看起来”完全合法。可见合成身份欺诈代表了从传统机会主义犯罪到系统性实现的根本转变。而且这种转变过程简单得令人惶恐,且越来越自动化。
具体而言,AI驱动的平台能够轻易生成逼真的个人资料图片;大语言模型可以快速制作出顺利通过人工审查和自动筛选系统的工作经历、教育背景和个人简历;语音合成技术则能够创建出音频样本,以骗过专门为防止此类攻击而设计的生物识别验证系统。
美国联邦贸易委员会的2024年欺诈报告曾揭示了一个惊人的现实:目前,由合成身份欺诈每年造成的损失已超过 200 亿美元,是增长最快的金融犯罪类别。而且该数字仅反映了直接的财务影响,尚不包括对数字系统信任产生的连锁反应、在线验证机制的破坏等。
合成身份的流水线化
目前,支持合成身份生成的基础设施,已经发展成为一个成熟的犯罪生态系统,其运行效率已赶超合法的软件即服务(software-as-a-service)平台。其中:
- ThisPersonDoesNotExist 使用生成式对抗网络,生成不受限的逼真人脸。
- D-ID 创建合成的视频内容,具有以假乱真的说话方式。
- ChatGPT 和 Rezi 等专业平台制作的详细工作履历,包括了特定行业的术语、合理的职业发展轨迹、以及对真实公司和教育机构的引述。
- ElevenLabs 和 PlayHT 已经将语音克隆全民化,可以从社交媒体视频、播客或视频通话中轻松获得几分钟的音频,以生成不受限的合成语音,并保留说话者的口音、情绪变化和讲述模式。
- Documate 和高级 OCR 系统等平台可以创建能顺利通过人眼检查、以及许多自动化验证系统的驾照、护照、水电费账单和就业文件。同时,综合上述服务的完整合成身份包(即包括了生成的照片、背景故事、支持文件和语音样本)只需 200 美元即可购买,其对应的高级套餐还能提供持续的支持和身份“维护”服务。据此,为网络与传统犯罪提供便利的暗网市场,也正在像合法的电子商务平台一样持续运作,甚至提供各种客户评论、技术支持和满意度保证。可以说,创建合成身份的商品化已将欺诈从需要技术专长的小众,扩展到了任何具有基本电脑知识和犯罪意图的人,都可以使用的点击化服务。
当数字化变得极度危险时
合成身份从理论威胁到作战武器化的转变,实际上比大多数安全专业人员预期得要更快,而且现实世界的攻击也证明了合成身份欺诈的灾难性潜力。
就在今年的早些时候,一家大型科技公司发现他们最近聘请的一名软件工程师其实并不存在。由AI生成的候选人通过了多轮面试,提交了令人信服的编程代码样本,并提供了完美的推荐信。这名合成员工在完全消失之前,曾被授予访问敏感代码库和客户数据的权限,并卷走了价值数百万美元的知识产权信息。实际上,该攻击一直无法通过传统的安全监控检测到,而是在人力资源部试图为没有合法存在的人员处理税务文件时才发现。
在另一个震惊金融业的案例中,一位“首席执行官”参加了 Zoom 电话会议,授权进行了一笔 3500 万美元的紧急收购。视频通话中的“他”具有完美的口型同步、适当的照明条件,甚至是高管特有的手势。直到真正的首席执行官度假回来后,才发现了该未经授权的交易系欺诈行为。可见,该深度伪造(Deepfake)是如此令人信服,以至于多名董事会成员后来作证说,他们在当时的通话中并没有产生任何怀疑。
更有甚者,语音克隆攻击可以成功绕过主要银行的生物识别电话验证系统,让欺诈者使用合成音频访问账户、修改安全设置、并发起大额转账。而此类攻击之所以有效,正是因为当前的语音身份验证系统仅旨在检测人类冒名者,并非AI生成的音频,而后者保持了完美的声学特性。
犯罪供应链的变革
现如今,合成身份欺诈已经超越了个人机会主义者的使用,发展成为了复杂犯罪组织的链条。其运作方式与合法企业一样,具有专业化、质量控制和客户服务。其中,Telegram 和 Reddit 上的地下论坛已成为“身份工具包”的市场,这些工具包不仅包括虚假角色的基本组件,还包括有效部署它们的整个运营框架。此类软件包里往往包括有关绕过特定验证系统的详细教程、用于跨多个平台自动创建帐户的脚本,以及用于长期维护合成身份的持续技术支持。
“欺诈即服务(fraud-as-a-service)”平台的出现代表了合成身份犯罪的产业化。这些服务使用大型语言模型来生成令人信服的客服交互,通过AI驱动的图像识别绕过验证码系统,并创建甚至可以蒙骗经验丰富的欺诈调查人员的对话脚本。
作为新的供应链,其间包含各级专家的协作。例如:专注开发的新深度伪造技术的AI研究人员、创建支持文档的平面设计师、制作可信背景故事的社会工程师、以及帮助客户有效部署合成身份的客服代表。
合成身份订阅服务也相继出现了。这些服务会随着时间的推移,持续维护已生成的虚假角色、更新社交媒体资料、生成新的支持文档、并适应不断变化的验证要求。这些服务将身份欺诈视为托管服务,按月收费,提供服务级别协议(SLA),以保证正常的运行时间和有效性。
当然,在某种程度上,合成身份犯罪的专业化也创造了一个反馈循环,推动了技术的快速进步,促进了犯罪组织在研发方面投入巨资,以对抗当前的防御措施。
API:不知情的同谋
合成身份欺诈者往往会利用系统在快速采用API 驱动的身份验证过程中遗留的漏洞,制造毁灭性的攻击。例如KYC(Know Your Customer)类API 旨在简化合法的企业身份验证,但它通常无法验证视频的活跃度,或检测AI生成的内容。许多系统依赖于静态图像的比较算法。而这些算法可能会被高质量的深度伪造、甚至复杂的照片处理所蒙混。
同时,那些通过真实的人脸来训练识别面部的系统,很难识别到由AI生成的与真实人脸的差别。训练数据集中包括了数百万张合法照片,但是合成的人脸示例相对较少,这便造成了系统被利用的盲区。
此外,开放的银行和金融科技 API 也是被利用的目标之一。它们通常仅接受 OAuth 令牌和验证凭证,而不会对底层身份进行充分的验证。如果一个合成身份成功地在某家金融机构创建了账户,它便可以利用该凭据去访问相关服务,进而在互连平台上创建一系列欺诈性交易。
作为另一个严重漏洞,客户服务聊天机器人系统通常被配置为根据成功的身份验证,提供敏感信息。但它们缺乏上下文的感知能力,无法检测到它们从何时开始与 AI 生成的角色、而非合法客户进行交互。因此,在将AI集成到客服中时可能会创造出一个特别危险的场景:该AI系统在与外界其他AI系统进行通信的过程中,并没有人工监督来检测整个交互中何时发生了合成身份欺诈。
构造信任的心理学
合成身份欺诈的成功不仅依赖AI技术的高明,也在于它利用了人类的基本认知偏差,使我们容易受到AI真实性的影响。现如今,早期模仿人类的外表和声音所带来的“恐怖谷效应”已基本消失,取而代之的是能够触发我们心理共鸣的合成媒体。除了上文提到的通过合成身份实现的金融欺诈,由AI生成的角色约会诈骗,通过维持数月或数年的关系,不仅能够从受害者那里诈骗金钱,还诈骗情感投资。这些关系通常包括:视频通话、语音消息和广泛的文本对话。所有这些都是由AI系统生成的,并且能够随着时间的推移,适应性地保持情感参与度。
类社会关系攻击是另一种恶意演变。AI机器人模仿有影响力的名人,甚至家庭成员来建立信任并操纵人类行为。这些攻击之所以有效,正是因为它们利用了人们与公众人物或亲人之间形成的情感联系。而且,更麻烦的是,AI生成角色与目标会保持长时间的持续互动,建立信任和情感投资,进而造成重大的财务或情报利用。
同时,社会工程攻击中合成身份的兴起,也改变了传统安全意识培训的效果。当“可疑”的通信是由专门设计为显得合法且值得信赖的AI系统生成时,员工已无法再依赖他们检测“可疑”模型的能力。
硅基反击
对于合成身份欺诈的防御主要涉及到使用AI来对抗AI,我们可以理解为攻击者和网络安全专业人员之间的技术军备竞赛。
- 由 Sensity 和 Microsoft Video Authenticator 等公司开发的 Deepfake 检测模型,代表了第一代AI驱动的合成媒体检测。此类系统主要分析面部动作、照明条件、以及能够表明人工生成的伪压缩阴影中的细微不同。然而,随着合成媒体生成的改进,这些工具的有效性面临着持续的挑战。深度伪造检测的每一次进步都会让攻击者的迭代速度超越防御系统的检测能力。
- 数字水印和生物行为识别技术提供了更好的解决方案。TypingDNA 和 BioCatch 等公司的产品能够分析人类打字节奏、鼠标移动、设备交互等行为模式,而AI系统很难令人信服地复制这些模式。
- iProov 和 IDnow 等提供商的活体检测系统,可以使用实时交互请求,挑战合成身份在多次验证尝试中保持角色一致性的能力。毕竟此类系统需要立即响应,避免了预先生成或编写随机提示的脚本。
- 区块链技术正在成为身份证明和 API 调用可追溯性的潜在解决方案。该技术通过创建不可变的身份验证记录,在多个系统上完成验证,而无需依赖可能受到蒙蔽的中心化节点。
- 基于AI的声誉系统代表了另一种发展方向。它使用机器学习来分析跨多种交互和平台的行为模式,以识别在某些领域保持了一致性,而在其他领域显示为人工模式的合成身份。
监管之战
目前,世界各国政府都在努力制定监管框架,以解决合成身份欺诈问题,同时又不至于扼杀合法的AI创新,或给企业带来合规的负担。显然,挑战在于如何平衡AI生成内容(例如娱乐、教育和辅助应用)的合法使用与防止犯罪利用。毕竟,过于严格的限制可能会损害有益的应用,而过于宽泛的限制则无法阻止犯罪组织的非法访问与使用。目前较为典型的监管法规有:
- 欧盟的《人工智能法案》试图通过披露要求和风险评估框架,来解决合成媒体的问题。不过,该执行机制仍不够明确,而且AI技术的发展速度已超过了监管指南的制定速度。
- 美国已经发布了多项解决AI安全和数字身份问题的行政命令。不过它们分散在具有不同技术专长和执法水平的机构。
- 而KYC (Know Your Customer) 法规、通用数据保护条例 (GDPR) 和加州消费者隐私法 (CCPA) 合规框架都已受到了合成身份扩散的挑战。这些法规在设计上假设的是:身份对应于具有明确权利和责任的真实人,但是合成身份恰恰存在于当前框架难以解决的法律灰色地带。
此外,国际合作也会带来了额外的挑战。毕竟合成身份犯罪经常会使用分布在不同法律体系中的基础设施和服务,跨越多个司法管辖区。这些地区往往会采用不同的AI监管和网络犯罪执法方法。
验证现实的成本
合成身份的激增不仅仅是一种新的网络犯罪类别,也标志着技术与人类身份之间关系的根本转变,其影响远远超出了欺诈预防的范围。
随着AI系统在生成人类角色方面变得越来越复杂,“在线交互是基于真人相互交流”的基本假设变得越来越不可靠。社交媒体平台、约会应用、专业社交网站,甚至家庭交流渠道都可能包含大量AI生成的参与者,这些参与者与真实用户几乎没有区别。
这种数字真实性的侵蚀已经对在线服务和社会关系的信任产生了连锁反应。当任何人都可以创造无限的、令人信服的角色时,管理在线行为的社会契约就会瓦解。取而代之的是持续怀疑和验证,这使得数字交互变得越来越繁琐、越来越缺乏人情味。与此同时,其经济影响将不仅限于直接的欺诈损失,还会包括验证成本、增强安全措施带来的生产力受损、以及当信任成为稀缺品时,数字商务效率的降低。
小结
综上所述,合成身份欺诈已不仅仅是一种新的网络犯罪类别,它是对于数字化应用信任关系的根本性挑战。在这个AI分身的时代,身份早已不再是你声称的那样,而是你的系统可以随着时间的推移,持续证明、验证和维护,以抵御日益复杂的欺诈企图的形态。数字身份的未来不在于对合成角色的完美检测,而在于即使无法可靠地确定真实和合成之间的区别,也可以建立和维持信任的开发验证框架。这将持续考验我们的防御能力是否能够发展得足够快,以确保数字交互的持续身份验证,以构建社会和法律层面上的信任关系。
原文标题:Synthetic Identities and AI Doppelgängers: The Next Billion-Dollar Cybercrime,作者:Igboanugo David Ugochukwu
