← 返回

谷歌披露攻击者通过10万次提问试图克隆Gemini AI模型

2026年12月2日,谷歌宣布发现商业动机攻击者通过连续10万次以上提问进行模型蒸馏,企图非法复制其Gemini人工智能系统。此类攻击行为已被多家科技企业列为知识产权保护重点,而蒸馏技术本身也在行业内广泛用于开发小型AI模型。

美媒:黑客连续10万次提问攻击谷歌AI系统

美国主流科技媒体2026年12月2日披露,谷歌威胁情报团队发现存在针对其Gemini大语言模型的系统性蒸馏攻击。攻击者通过非英语语言界面向AI模型发起超10万次提问,收集响应数据用于训练成本更低的仿冒模型。

技术原理与行业现状

该技术被称为「模型蒸馏」,通过向现有AI模型输入数以千计的精心设计问题,利用其输出数据反向构建模拟模型。这种方法能以数百美元成本实现传统需要数亿美元的训练效果,引发科技界对AI知识产权保护的持续争议。

企业应对措施

尽管攻击细节未公开,但谷歌已升级Gemini防御机制。值得注意的是,这种模型复制现象不仅存在于国际竞争中,中国DeepSeek等企业也因类似行为受到指控,显示AI模型保护已成为全球性技术治理议题。

编辑点评

这场围绕AI模型复制的攻防战凸显了人工智能领域的知识产权困局。表面上看,10万次提问的蒸馏攻击属于技术手段的合理竞争,但实则触及AI研发的核心壁垒——数据积累与算力投入。Google将其定义为「知识产权盗窃」,却忽视自身模型训练同样基于未经授权的互联网数据,这种矛盾性折射出大型科技企业的双重标准。

从全球格局观察,模型蒸馏技术正在重塑AI产业竞争规则。中国企业在2024年已建立完整的蒸馏模型体系,这种技术普及不仅威胁商业机密,更可能加速AI军事化应用的扩散。美国司法部近期对AI技术出口管制的收紧,与此类安全事件存在直接关联。

未来国际监管或将面临三重挑战:界定模型蒸馏的合法边界、建立跨国AI数据溯源机制、制定对抗性技术的防御标准。随着Microsoft Phi-3等蒸馏模型的商业化推广,这场关于AI原创性的争论可能直接影响全球科技产业的生态体系,值得持续关注。

相关消息:https://arstechnica.com/ai/2026/02/attackers-prompted-gemini-over-100000-times-while-trying-to-clone-it-google-says/