近日,谷歌宣布其大言语模型(LLM)名目“Big Sleep”成功发现了一个SQLite数据库引擎中的内存安保破绽,这是人工智能初次在实在软件中发现可应用的内存安保破绽(且该破绽无法经过传统的含糊测试检测到)。
谷歌的“Project Naptime”名目旨在评价LLM在进攻性安保钻研方面的才干,起初该名目演化为“Big Sleep”,由谷歌Project Zero和DeepMind团队共同介入。Big Sleep名目努力于探求AI在发现软件破绽中的后劲,特意关注高危破绽的检测与应用。
在上周五的通告中,谷歌泄漏,Big Sleep名目的LLM代理在试验阶段成功识别出第一个实在环球中的破绽——SQLite开源数据库引擎中的基于栈的缓冲区溢出破绽。该破绽在往年10月初被发现,SQLite开发团队在接到披露消息后数小时内即成功了补丁修复。
这一发现具有严重意义,由于这是AI初次独立检测出可应用的内存安保破绽。
Big Sleep的上班流程模拟了人类的破绽钻研环节。首先,AI被要求审查SQLite代码中的最新提交记载,并寻觅相似于已知破绽的安保疑问。作为终点,钻研人员向LLM提供了一个最近修复的破绽,以疏导它发现新的破绽。经过这一战略,Big Sleep最终找到了一个严重的内存安保疑问。
谷歌随后尝试经常使用传统的含糊测试来检测这一破绽,消耗了150个CPU小时,仍未成功发现疑问。值得留意的是,多年来,谷歌的AFL含糊测试工具在发现SQLite破绽方面十分高效,但如今仿佛已到达“人造饱和点”,难以再找到新的破绽。相比之下,Big Sleep的LLM展现了其在识别初级安保疑问方面的后劲。
谷歌在博客中指出,的LLM在装备适合工具时,确实可以胜任某些破绽钻研义务。但是,Big Sleep团队强调,这一成绩仍属高度试验性,AI的发现才干还不具有齐全代替含糊测试的牢靠性。虽然如此,这一打破显示出AI在安保钻研中的前景,尤其是在指标特定的破绽检测方面,AI或者逐渐成为关键工具。
AI在网络安保中的运行越来越宽泛,尤其是软件破绽钻研。就在上周,要挟情报公司GreyNoise应用AI工具检测到了针对经常出现物联网摄像头的破绽应用希图。与此同时,AI安保公司Protect AI也开发了一种基于LLM的静态代码剖析器,能够检测并解释复杂的多步骤破绽,这进一步证实了AI在破绽检测和剖析中的共同长处。
除了检测已知破绽,一些钻研人员还在探求LLM代理如何应用已知和未知破绽。AI不只在发现安保疑问上体现出色,还展现了在多步骤破绽应用中的后劲。虽然目前这一钻研仍处于初级阶段,但AI技术的开展为破绽钻研提供了新思绪,并推进了网络安保技术的翻新。
谷歌和其余科技公司对LLM的钻研标明,AI在破绽检测和进攻中的运行前景宽广。但是,正如谷歌所强调的,AI并非万能,它在一些特定场景下的体现或者与传统含糊测试相当甚至逊色。未来,或者AI和含糊测试的协同运即将成为网络安保钻研的新趋向,经过融合不同技术手腕,提高破绽检测的效率和准确性。
本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载联系作者并注明出处:https://duobeib.com/diannaowangluoweixiu/9025.html