← 返回

人工智能技术或成网络诈骗新工具

纽约大学研究团队发现,AI技术被用于自动生成网络攻击代码和定制化勒索信。尽管该研究成果被证实为实验性质,但专家警告AI驱动的诈骗活动呈现数量激增且更具破坏性趋势。

人工智能技术或成网络诈骗新工具

纽约大学研究团队近日披露,利用大语言模型(LLM)开发的PromptLock勒索病毒可自主生成攻击代码、定位敏感数据并撰写个性化勒索信。该技术2024年8月被发现,次日即被证实为实验性项目。

技术突破与争议

PromptLock通过LLM在攻击全流程实现自动化,每次运行均采用不同策略。微软2025年4月数据显示,公司过去一年拦截了40亿美元AI辅助诈骗交易,哥伦比亚大学等机构研究发现,定向钓鱼邮件中AI生成比例从2024年4月7.6%升至2025年4月14%。

在2024年一宗高调案件中,某英国工程公司员工通过视频会议被AI生成的高管形象欺骗,导致2500万美元转移。专家指出,AI生成的深度伪造内容已显著降低犯罪门槛,使诈骗更易实施且更难识别。

防御体系应对

谷歌威胁分析组负责人比利·莱纳德表示,AI正被用于动态修改恶意软件行为。微软安全副总裁瓦苏·贾卡尔透露,其AI系统日均处理100万亿条可疑信号。尽管现有防御体系仍有效,但研究者强调需警惕AI技术加速攻击迭代的能力。

专家认为,当前AI主要提升犯罪效率而非突破技术瓶颈。微软安全顾问莉兹·詹姆斯指出,攻击者多采用“广撒网”策略,针对防御薄弱目标即可达成目的。网络安全防御者正通过共享情报应对新型威胁,但勒索病毒的AI化趋势已难以忽视。

编辑点评

此新闻揭示了AI技术对网络安全的双重影响,其重要性体现在多维度层面。地理层面,深度伪造诈骗已突破地域限制,跨国企业成为主要目标。技术层面,大语言模型的应用标志着犯罪工具智能化升级,微软日均处理100万亿条AI信号的数据印证了技术滥用的全球规模。

事件严重性体现在诈骗模式的范式转变。相比传统手段,AI生成的个性化攻击内容更易渗透企业内部控制体系。2024年2500万美元诈骗案表明,犯罪集团已掌握利用视频会议实施精准攻击的技术,这对国际金融安全构成实质威胁。

未来影响层面,开放源代码AI模型的普及可能加剧技术滥用。谷歌发现的“捕获旗帜”竞赛欺骗案例显示,AI伦理机制存在被绕过风险。尽管当前防御体系仍占优势,但网络安全行业需建立AI专项防御标准。国际社会应加速推进AI伦理规范,尤其需要中美等AI大国在技术监管上加强合作。

相关消息:https://www.technologyreview.com/2026/02/12/1132386/ai-already-making-online-swindles-easier/