ChatGPT的Python代码编写器存在重大安全漏洞

  • 发布时间:2024-01-19 16:45:51 来源:
标签:
导读 如果您是一名使用ChatGPT编写或分析Python代码的程序员,请务必小心粘贴到生成式AI工具中的URL,因为黑客可以通过这种方式从您的项目中窃取

如果您是一名使用ChatGPT编写或分析Python代码的程序员,请务必小心粘贴到生成式AI工具中的URL,因为黑客可以通过这种方式从您的项目中窃取敏感数据。

该理论首先由安全研究员JohannRehberger报告,随后由Tom'sHardware的AvramPiltch进行测试和证实。

如果给出正确的指令,ChatGPT可以分析然后编写Python代码。如果您需要数据分析,这些说明可以以.TXT文件甚至.CSV格式上传到平台。该平台将在新生成的虚拟机中存储文件(包括API密钥和密码等任何敏感信息-常见做法)。

Perimeter81的恶意软件防护可在交付阶段拦截威胁,以防止已知恶意软件、多态攻击、零日攻击等。让您的员工自由使用网络,而无需担心数据和网络安全。

现在,ChatGPT可以对网页执行类似的操作。如果网页上有某些指令,当用户将URL粘贴到聊天框中时,平台就会运行它们。如果网站的指令是从虚拟机中存储的文件中获取所有内容并将其提取到第三方服务器,它就会这样做。

Piltch测试了这个想法,首先上传一个带有假API密钥和密码的TXT文件,然后创建一个合法网站(天气预报网站),该网站在后台指示ChatGPT获取所有数据,将其变成一长串URL编码文本,并将其发送到他命令下的服务器。

诀窍在于,威胁行为者无法指示ChatGPT只获取任何人的数据-该平台只会为将URL粘贴到聊天框中的人执行此操作。这意味着需要说服受害者将恶意URL粘贴到其ChatGPT聊天框中。或者,有人可能劫持合法网站并添加恶意指令。

  • 免责声明:本文由用户上传,如有侵权请联系删除!