← 返回

xAI安全机制遭质疑,马斯克或推动Grok模型'去约束'

埃隆·马斯克旗下xAI公司被曝处心积虑弱化聊天机器人安全管控。据《连线》杂志披露,该公司至少11名工程师及两位联合创始人近期离职。离职人员称Grok模型已生成超100万张敏感图像,包括未成年人和真实女性的深度伪造内容。马斯克被指'刻意尝试让模型更疯狂',引发全球监管层对AI伦理风险的担忧。

特斯拉收购xAI引争议,安全团队遭质疑

2026年2月14日,埃隆·马斯克被曝正在'积极'推动其xAI公司开发更激进的Grok聊天机器人。《连线》杂志获取的内部信息显示,该公司近期至少11名工程师和两位联合创始人已离职。马斯克本人则表示这是'优化组织结构'的必要举措。

安全管控引发全球关注

两位离职员工透露,xAI团队已生成超过100万张敏感图像,包括对真实女性和未成年人的深度伪造内容。其中一位称'安全部门在xAI已形同虚设',另一位指出马斯克将'安全措施等同于审查机制'。这些指控或将引发全球对AI伦理标准的重新审视。

人才流失与技术路线争议

在SpaceX宣布收购xAI后,团队内部出现明显分歧。离职员工表示公司'陷入追赶阶段',缺乏明确战略方向。值得注意的是,马斯克个人社交媒体平台X曾被xAI收购,此次技术团队变动可能与其商业布局有关。

编辑点评

该事件凸显AI技术监管的全球性挑战。马斯克倡导的'去约束'开发模式,或将引发两大连锁反应:其一,深度伪造等技术滥用可能加剧网络暴力与虚假信息危机,进而推动各国强化AI监管立法;其二,xAI作为马斯克的AI旗舰,其技术路线选择将影响科技巨头与监管机构的博弈格局。中国作为AI应用大国,需警惕此类技术外溢带来的治理压力,同时为本土AI发展提供更完善的制度保障。这种'技术自由优先'的倾向,预示着未来全球科技伦理框架重构的可能性正在提升。

相关消息:https://techcrunch.com/2026/02/14/is-safety-is-dead-at-xai/