首页 > 精选知识 > 正文

幻觉包裹可能是人工智能开发者面临的下一个重大安全风险

来源:精选知识2024-07-18 16:13:20
导读 生成式人工智能工具可能产生幻觉,即暗示不存在的来源或工具,这种风险一直是开发人员担心的问题。现在,专家警告说,如果威胁行为者发现了...

生成式人工智能工具可能产生“幻觉”,即暗示不存在的来源或工具,这种风险一直是开发人员担心的问题。

现在,专家警告说,如果威胁行为者发现了一个软件包的生成性人工智能幻觉,他们实际上可以构建它,并使其成为恶意的。

这样,他们最终会使用超级流行的人工智能工具来传播恶意软件。

LassoSecurity的网络安全研究员BarLanyado最近着手研究这种风险是否纯粹是理论上的,并得出结论:它可能会在野外被滥用。

为了进行分析,他收集了近50,000个“如何做”的问题,开发人员在构建软件解决方案时可能会向生成式AI工具提出这些问题。他重点研究了五种编程语言:python、node.js、go、.net和ruby​​,并询问了Chat-GPT3.5-Turbo、GPT-4、GeminiPro和Coral。

GPT4出现幻觉(本质上是编造软件包)的概率为24.2%,重复回答相同问题的比例为19.6%。GPT3.5出现幻觉的概率为22.2%,重复回答的比例为13.6%,而Gemini出现幻觉的概率为64.5%,重复回答的比例为14%。最后,Coral出现幻觉的概率为29.1%,重复回答的比例为24.2%。

到目前为止一切顺利。理论上,这四种工具通常会建议开发人员下载相同的、不存在的软件包。如果研究人员注意到了,黑客也会注意到,他们可以创建这些幻觉软件包来携带恶意代码,并让GenAI推广它们。

关键词:
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

猜你喜欢

最新文章