上周,人工智能圈内就埃隆·马斯克和各行业重量级人物签署的一封公开信展开了激烈争论。 这封公开信认为,人工智能正在对人类构成“生存风险”,他们呼吁人工智能实验室暂停开发任何比 GPT-4 更强大的技术六个月。
我同意这封信的批评者的观点。 他们担心,过多关注未来的风险会让我们忽视人工智能已经造成的真正危害:带有偏见的系统被用来做出有关人们生活的决策,使他们陷入贫困或导致某些人受到冤屈。 逮捕; 内容审核员面临着巨大的压力,每天只需花费 2 美元就能筛选大量人工智能生成的潜在创伤性内容; AI大语言模型使用如此多的计算能力,以至于它们已经成为不可忽视的气候污染源。
但今天匆忙推出的许多人工智能系统将在不久的将来造成完全不同的破坏。
我最近发表了一篇文章,阐述了人工智能中大型语言模型可能被滥用的一些方式。 在最坏的情况下,滥用它非常容易,既不需要编程技能,也不需要已知的修复方法。
例如,对于称为“间接提示注入”的攻击,攻击者所需要做的就是通过专门定制的文本隐藏网站或电子邮件上的提示,包括白色网页上的提示。 背景上使用白色文本,这样人眼就不容易看到。 这样做的后果就是攻击者基本上可以命令AI模型做任何他想做的事。
更糟糕的是,科技公司正在将这些存在严重缺陷的人工智能模型嵌入到一切事物中,从生成代码的程序到可以检查私人电子邮件和日历的虚拟助手。
在此过程中,他们将用户转移到由人工智能驱动但充满错误和诈骗的互联网。
苏黎世联邦理工学院计算机科学助理教授弗洛里安·特拉梅尔(Florian Tramèr)研究计算机安全和隐私,他认为,一旦这些语言模型被允许从互联网上提取数据,黑客就有能力将它们变成“垃圾邮件和网络钓鱼的超级强大引擎”。网站。” 。
我简单解释一下这背后的原理。 首先,攻击者将恶意提示隐藏在电子邮件中,该电子邮件将由人工智能驱动的虚拟助手打开。
然后,攻击者的提示可以要求虚拟助手向攻击者发送受害者的联系人列表或电子邮件,或者将攻击传播给受害者联系人列表中的每个人,从而实现更广泛的分发。
与今天的垃圾邮件和诈骗电子邮件不同,人们必须点击链接才能被骗,这些新的攻击肉眼看不见,是自动化的,受害者可能完全不会注意到。
如果虚拟助理能够访问银行或健康数据等敏感信息,那将是一场灾难。 能够改变人工智能驱动的虚拟助手的行为方式意味着人们更有可能被欺骗批准看似非常真实的交易,但实际上可能是攻击者的欺骗行为。
使用集成人工智能模型的浏览器上网和搜索也存在风险。 在一项测试中,研究人员设法让微软的 Bing 聊天机器人生成一段文本,该文本看起来像是微软员工在销售打折的微软产品,但其真正目的是获取上当受骗的人的信用卡信息。 要激活此骗局,Bing 搜索用户甚至不需要执行任何操作,只需访问带有隐藏提示注入的网站即可。
在部署这些模型之前还存在一类风险。 人工智能模型是根据从互联网收集的大量数据进行训练的。 这还包括 OpenAI 以令人尴尬的方式发现的软件错误。 例如,在一个错误开始泄露机器人用户的聊天记录后,该公司不得不暂时关闭 ChatGPT。 这个错误可能是偶然的,但这个案例表明数据集中的错误是多么麻烦。
Tramèr 的团队还发现,用故意植入的内容“毒害”数据集既便宜又容易,然后将受污染的数据输入人工智能语言模型。
某事物在数据集中出现的次数越多,它在人工智能模型中的相关性就越高。 通过在训练数据中植入足够的恶意内容,有可能永久影响模型的行为和输出。
当使用人工智能语言工具生成代码然后嵌入到软件中时,这些风险会变得更加复杂。
研究提示的独立研究员和软件开发人员西蒙·威利森 (Simon Willison) 表示:“如果您在这些工具之上构建软件,并且不知道如何处理提示注入,那么您就会犯愚蠢的错误并构建不安全的系统。”注射。
随着人工智能语言模型越来越多地被采用,攻击者利用它们进行黑客攻击的动机也随之增加。 我们似乎对注定要到来的猛烈风暴完全没有准备。
支持:任
原来的: