ChatGPT 越狱论坛在暗网社区中激增

ChatGPT 越狱论坛在暗网社区中激增

ChatGPT 等生成式人工智能工具的武器化 大家都在等待 正在慢慢地, 慢慢地 开始形成。 在在线社区中,好奇的猫正在合作研究破解 ChatGPT 道德规则的新方法,通常称为“越狱”,而黑客正在开发一个新工具网络,以利用或创建大型语言模型 (LLM) 来达到恶意目的。

正如它在地面上一样,ChatGPT 似乎也激起了地下论坛的狂热。 自 XNUMX 月以来,黑客们一直在寻找新的、有创意的东西 提示操作 ChatGPT他们可以将开源法学硕士重新用于恶意目的

根据 SlashNext 的一篇新博客,其结果是一个仍处于萌芽状态但蓬勃发展的 LLM 黑客社区,拥有许多巧妙的提示,但 很少有人工智能恶意软件值得重新考虑.

黑客正在利用人工智能法学硕士做什么

即时工程 涉及巧妙地向 ChatGPT 等聊天机器人询问旨在操纵它们的问题,使它们违反编程规则,例如在模型不知情的情况下创建恶意软件。 SlashNext 首席执行官帕特里克·哈尔 (Patrick Harr) 解释说,这是一种暴力行为:“黑客只是想绕过护栏。 边缘是什么? 我只是不断地改变提示,用不同的方式要求它做我想做的事。”

因为这是一项繁琐的任务,而且每个人都在攻击同一个目标,所以围绕这种做法形成健康规模的在线社区来分享提示和技巧是很自然的。 这些越狱社区的成员互相帮助,让 ChatGPT 被破解,并完成开发者想要阻止它做的事情。

一个在线聊天组的屏幕截图,用于提示
来源:SlashNext

不过,如果所讨论的聊天机器人像 ChatGPT 一样具有弹性,提示工程师只能通过花哨的双关语实现这么多目标。 因此,更令人担忧的趋势是恶意软件开发人员开始为自己的邪恶目的编写法学硕士。

WormGPT 和恶意 LLM 迫在眉睫的威胁

一个名为 蠕虫GPT XNUMX月的出现拉开了恶意LLM现象的序幕。 它是 GPT 模型的黑帽替代品,专为 BEC、恶意软件和网络钓鱼攻击等恶意活动而设计,在地下论坛上销售,“如 ChatGPT,但没有道德界限或限制”。 WormGPT 的创建者声称已将其构建在自定义语言模型上,并在各种数据源上进行了训练,重点是与网络攻击相关的数据。

“这对黑客来说意味着什么,”Harr 解释道,“我现在可以采取商业电子邮件泄露 (BEC)、网络钓鱼攻击或恶意软件攻击等方式,并以极低的成本进行大规模攻击。 而且我可以比以前更有针对性。”

自 WormGPT 以来,许多类似的产品已经在阴暗的在线社区中传播, 包括 FraudGPT,该病毒被一名威胁行为者宣传为“没有限制、规则和边界的机器人”,该行为者自称是各种地下暗网市场(包括 Empire、WHM、Torrez、World、AlphaBay 和 Versus)上经过验证的供应商。 八月带来了 DarkBART 和 DarkBERT 网络犯罪聊天机器人,基于 Google Bard,研究人员当时表示,这代表了对抗性人工智能的重大飞跃,包括用于图像的 Google Lens 集成以及对整个网络地下知识库的即时访问。

据 SlashNext 称,这些现在正在激增,其中大多数都建立在 OpenAI 的 OpenGPT 等开源模型之上。 许多技术水平较低的黑客只是对其进行定制,将其伪装在包装中,然后在其上加上一个隐约不祥的“___GPT”名称(例如“BadGPT”、“DarkGPT”)。 不过,即使是这些仿冒产品在社区中也占有一席之地,为用户提供了很少的限制和完全的匿名性。

防御下一代人工智能网络武器

根据 SlashNext 的说法,WormGPT、它的后代以及即时工程师都还没有对企业构成如此重大的危险。 即便如此,地下越狱市场的兴起意味着网络犯罪分子可以使用更多工具,这反过来又预示着社会工程以及我们如何防御它的广泛转变。 

哈尔建议:“不要依赖训练,因为这些攻击非常非常具体,而且非常有针对性,比过去更有针对性。”

相反,他赞同普遍认同的观点,即人工智能威胁需要人工智能保护。 “如果你没有人工智能工具来检测、预测和阻止这些威胁,你就会处于局外人的地位,”他说。

时间戳记:

更多来自 暗读