ChatGPT 和类似的机器人程序如何传播恶意软件

生成式人工智能是一种工具,这意味着它也可以被网络犯罪分子利用。这是保护自己的方法。

ChatGPT 和类似的机器人程序如何传播恶意软件

人工智能景观已经开始非常、非常快地发展:面向消费者的工具,例如MidjourneyChatGPT,现在能够根据自然语言提示在几秒钟内生成令人难以置信的图像和文本结果,我们看到它们被部署到从网络搜索到儿童搜索的无处不在书籍。

然而,这些 AI 应用程序正被用于更邪恶的用途,包括传播恶意软件。以传统的诈骗电子邮件为例:它通常充斥着明显的语法和拼写错误——最新的一组人工智能模型不会犯这些错误,正如欧洲刑警组织最近的一份咨询报告所指出的那样。

想一想:许多网络钓鱼攻击和其他安全威胁都依赖于社会工程,诱使用户泄露密码、财务信息或其他敏感数据。这些骗局所需的有说服力、听起来真实的文本现在可以很容易地抽出,不需要人工,并且可以为特定的受众不断地调整和完善。

就 ChatGPT 而言,首先要注意的是开发人员 OpenAI 已经在其中内置了保护措施。要求它“编写恶意软件”或“网络钓鱼电子邮件”,它会告诉你它“被编程为遵循严格的道德准则,禁止我从事任何恶意活动,包括编写或协助创建恶意软件。”

ChatGPT 和类似的机器人程序如何传播恶意软件

然而,这些保护措施并不难绕过:ChatGPT 当然可以编码,而且它当然可以撰写电子邮件。即使它不知道自己在编写恶意软件,也可以提示它生成类似的东西。已有迹象表明,网络犯罪分子正在努力绕过已实施的安全措施。

我们在这里并不是特别挑剔 ChatGPT,而是指出一旦像它这样的大型语言模型 (LLM) 被用于更险恶的目的时可能发生的事情。事实上,不难想象犯罪组织会开发自己的 LLM 和类似工具,以使他们的骗局听起来更有说服力。而且不仅仅是文本:音频和视频更难伪造,但它也在发生。

当你的老板紧急要求报告,或者公司技术支持告诉你安装安全补丁,或者你的银行通知你有一个问题你需要回应——所有这些潜在的骗局都依赖于建立信任和听起来真诚,而这正是 AI 机器人在这方面做得很好的地方。他们可以制作听起来自然且为特定受众量身定制的文本、音频和视频,并且可以根据需要快速且持续地制作。

那么,在这些由人工智能驱动的威胁浪潮中,我们人类还有希望吗?放弃和接受我们的命运是唯一的选择吗?不完全的。仍然有一些方法可以最大程度地减少被最新技术欺骗的机会,它们与您应该已经考虑过的预防措施并没有太大区别。

如何防范人工智能诈骗
有两种类型的 AI 相关安全威胁需要考虑。第一个涉及使用诸如 ChatGPT 或 Midjourney 之类的工具来让您安装不应该安装的东西,例如浏览器插件。您可能会在不需要时被诱骗为服务付费,或者使用看似官方但实际上不是的工具。

为避免落入这些陷阱,请确保您了解我们提到的 AI 服务的最新动态,并始终首先找到原始来源。以 ChatGPT 为例,没有官方批准的移动应用程序,而且该工具仅限于网络。使用这些应用程序及其衍生产品时适用标准规则:检查它们的历史记录、与它们相关的评论以及它们背后的公司,就像安装任何新软件时一样。

ChatGPT 和类似的机器人程序如何传播恶意软件

第二种威胁可能更危险:用于创建听起来令人信服的真实文本、音频或视频的 AI。输出甚至可能被用来模仿你认识的人——比如据称来自一位要求紧急释放资金的首席执行官的录音,它欺骗了一名公司员工。

虽然技术可能已经发展,但仍然使用相同的技术来尝试让你紧急做一些感觉有点(或非常)不寻常的事情。慢慢来,尽可能使用不同的方法仔细检查(打电话检查电子邮件,反之亦然),并注意危险信号——你被要求做的事情的时间限制,或者任务已经完成普通的。

按照您不希望从文本和电子邮件中获得的链接通常不是一个好主意,尤其是当您被要求在某个地方登录时。例如,如果您的银行显然已经联系了一条消息,请直接在浏览器中访问银行网站进行登录,而不是点击任何嵌入的链接。

让您的操作系统、应用程序和浏览器保持最新是必须的(现在这大多是自动发生的,所以没有任何借口)。最新的浏览器将保护您免受大量网络钓鱼和诈骗攻击,无论旨在欺骗您的提示是否由 AI 生成。

目前还没有万无一失的工具来检测人工智能文本、音频或视频的存在,但有一些迹象需要注意:想想图片中的模糊和不一致,或者听起来普通和模糊的文本。虽然诈骗者可能从某个地方窃取了有关您的生活或工作场所的详细信息,但他们不太可能了解您运营的所有来龙去脉。

简而言之,要谨慎并质疑一切——在这些新的 AI 服务出现之前是这样,现在也是这样。就像《碟中谍》系列电影(目前仍属于科幻小说)中的面部变形面具一样,在透露任何内容之前,您需要绝对确定您正在与您认为正在打交道的人打交道。

3 条回复 A文章作者 M管理员
  1. aha

    1

    • aha

      2

    • aha

      3