Google的威胁团队最近警告称,AI恶意软件现在在运行时使用大型语言模型来生成针对加密钱包和网络钓鱼流程的混淆代码,这一危险在2025年11月7日被强调。
Summary
AI恶意软件如何利用LLM驱动的技术和Gemini模型的误用?
Google研究人员表示,攻击者在执行过程中调用诸如Gemini等模型,以生成即时代码和规避性负载。报告记录了PROMPTFLUX使用“思考机器人”例程,每小时调用Gemini重写VBScript负载,这使得基于签名的检测更加复杂,并实现了复杂的混淆。
因此,这些llm驱动的恶意软件策略将静态脚本转换为自适应工具包,防御者发现传统的启发式方法效果不佳。像监控出站模型API调用这样的警报措施现在变得越来越关键。
这些技术与朝鲜加密货币盗窃和钱包数据外泄有什么联系?
Google识别出至少五个AI支持的恶意软件家族,包括PROMPTFLUX和PROMPTSTEAL,以及归因于UNC1069(Masan)的活动。
分析发现PROMPTSTEAL使用托管在Hugging Face上的Qwen模型生成Windows命令,而UNC1069误用Gemini定位钱包应用数据,编写脚本以访问加密存储,并生成针对交易所员工的多语言网络钓鱼脚本。
在这种情况下,运行时模型查询可以直接实现钱包数据外泄和代币收集。也就是说,这些方法与朝鲜活动的联系强调了针对加密货币入侵的持续地缘政治风险。
防御者和投资者应该采取哪些实际步骤?
防御者必须将即时代码视为高风险,并更新针对提示驱动模块的检测规则。在2025年11月7日,团队被敦促跟踪异常的出站请求,记录模型API使用情况,并应用行为分析以尽早发现LLM辅助阶段。
Google表示已禁用与这些活动相关的账户,并加强了模型访问的安全措施;详情请参阅Google威胁情报组报告。对于托管和非托管服务,关键的收获是攻击面扩大,以及迫切需要加强端点遥测、补丁和钱包卫生。
两位专家指出了操作上的转变:一位描述了从固定二进制文件到动态、API驱动模块的演变,另一位警告说,当在运行时制作时,多语言网络钓鱼诱饵变得更加具有说服力(Google GTIG和Decrypt)。警告:威胁情报共享和快速事件响应仍然是决定性的缓解措施。
保持分层防御,记录模型API调用,并优先检测PROMPTFLUX和PROMPTSTEAL风格的行为,以改善事后分析并降低风险。

