为什么AI公司希望你害怕它们

4
分类业界资讯
来源跳转
发表时间

内容

Serenity Strull/ BBC/ Getty Images 几只手举着带有“X”和感叹号警告标志的电脑窗口,覆盖在一个标有“AI”的桌面屏幕上(图片来源:Serenity Strull/ BBC/ Getty Images)

他们创造了它。他们害怕它。但他们仍在出售它。

如果你听过类似的故事,请让我打住:一家科技公司声称开发出了一种强大到令人恐惧的新型人工智能。显然,将其发布到世界上过于危险——后果将是灾难性的。幸运的是,目前他们将其封存了起来。他们只是想让你知道这件事。

这正是AI公司Anthropic对其最新模型Claude Mythos的描述。该公司表示,Mythos发现网络安全漏洞的能力远超人类专家,如果类似技术落入坏人之手,可能会带来改变世界的后果。Anthropic在4月初的一篇博客文章中称:“其影响——对经济、公共安全和国家安全而言——可能非常严重。”一些情绪激动的观察者警告称,Mythos将很快迫使你更换生活中每一件科技产品,甚至包括支持WiFi的微波炉,以防范数字世界的疯狂。

一些安全专家对这些说法表示怀疑,但我们暂且搁置这一点。这并非新鲜事。领先的AI供应商的高管们经常发出警告,称他们所在行业的产品可能会毁灭人类。为什么AI公司希望我们害怕它们?

这对任何公司来说都是一种奇怪的谈论自身工作的方式。你不会听到麦当劳宣布它创造了一款美味到令人恐惧的汉堡,以至于为公众烹制它在道德上是不负责任的。

这里有一种解释。批评者认为,AI公司让你专注于末日场景对它们有利,因为这转移了人们对它们已经对世界造成的真实伤害的注意力。科技领袖们表示,他们只是在警告我们一个不可避免的未来,无论现在还是将来,安全都是首要任务。但也有人认为,我们实际看到的是危言耸听,这夸大了技术的潜力,旨在推高股价。它还助长了一种叙事,即监管机构必须袖手旁观,因为这些AI公司是唯一能够阻止坏人并负责任地开发这项技术的实体。

“如果你将这些技术描绘成在危险方面几乎超自然的存在,会让我们感到无能为力,仿佛我们无法与之抗衡,”英国爱丁堡大学数据与人工智能伦理学教授香农·瓦洛尔(Shannon Vallor)表示,“就好像我们唯一可以求助的人就是这些公司本身。”

谁来阻止我

Anthropic的一位发言人告诉我,该公司对这些问题的立场一直很明确。他们分享了来自其他组织支持Mythos网络能力的博客文章,但除了下面我将引用的一条评论外,没有对本文中的观点作出回应。

这不是Anthropic首席执行官达里奥·阿莫代(Dario Amodei)第一次开发被其所在公司宣布为对公众过于危险的工具。2019年,当阿莫代还是OpenAI的高管时,该公司发布了GPT-2。他和公司其他领导人表示,由于“对技术恶意应用的担忧”,他们无法发布GPT-2。这是一个远不如ChatGPT复杂的工具。但几个月后,他们还是发布了它。(OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)发表了一篇博客文章,称公司拥抱不确定性,承认对GPT-2的担忧是“ 多余的”。)

奥尔特曼在最近的一次播客采访中批评了Anthropic的“基于恐惧的营销”。但他自己的“我创造了一个怪物”剧本可以追溯到多年前。

“AI很可能最终会导致世界末日,但与此同时,将会出现伟大的公司,”奥尔特曼在2015年表示。多年后,奥尔特曼声称他彻夜难眠,担心自己“推出ChatGPT是否做了一件非常糟糕的事”。要是有人早点警告他就好了。

Serenity Strull/ BBC/ Getty Images AI公司表示,他们的技术可能终结世界。但他们也希望你购买它(图片来源:Serenity Strull/ BBC/ Getty Images)

包括奥尔特曼、阿莫代、比尔·盖茨和谷歌DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)在内的数百名科技领袖在2023年签署了一份简短声明,称:“减轻AI带来的灭绝风险应成为全球优先事项,与其他社会规模的风险(如流行病和核战争)并列。”同年,包括埃隆·马斯克在内的巨头们签署了一封信,呼吁对开发先进AI实施为期六个月的暂停。马斯克在不到六个月后宣布了他的新人工智能公司xAI。

“这只是这种未经证实的强大声明模式的一部分,”华盛顿大学计算语言学与自然语言处理教授、《AI骗局》(The AI Con)一书的合著者艾米丽·M·本德(Emily M Bender)表示。她说,这不仅限于OpenAI和Anthropic,而是整个AI行业的标准姿态。“他们说‘看这边’,却无视环境破坏劳动力剥削以及社会中所有这些我们正在摧毁的系统。我们只需要担心确保这东西不会变成毁灭人类的坏东西。”

我就此询问了OpenAI。一位发言人分享了奥尔特曼最近的一篇博客文章,他在其中写道,OpenAI将“抵制这项技术将权力集中在少数人手中的潜力”,并补充说“关于AI的关键决策应通过民主程序和平等原则做出,而不仅仅由AI实验室决定”。

Mythos真的那么糟糕吗?

Anthropic表示,其新模型已经在科技领域发现了数千个“高严重性”漏洞,其水平超过了人类专家。它还宣布与40多家公司和组织建立新的合作伙伴关系,以“紧急尝试”在黑客有机会之前修补漏洞。该公司一位发言人告诉我,Anthropic有意与组织合作,修补代表问题“绝大部分”的基础计算系统。

对这些说法存在重大质疑,AI Now研究所的首席AI科学家海迪·赫拉夫(Heidy Khlaaf)对此并不感兴趣。她的职业生涯一直致力于构建和审计Anthropic声称已经超越的代码分析工具。她还在核设施的数字安全方面工作过。

赫拉夫表示,最大的危险信号是缺乏误报率——这是衡量安全工具标记非真实问题的频率的行业标凈指标。“这不是一些未知的指标,”赫拉夫说,“这在某种程度上是衡量你的工具有用性的最大指标。”Anthropic没有提及这一点,当我要求置评时,他们回避了这个问题。Anthropic也没有将Mythos与现有工具进行对比,而这些工具是安全工程师几十年来所依赖的。

还有一些说法称,Anthropic可能推迟了Mythos的广泛发布,因为它无法承担必要的计算能力。当我问及此事时,Anthropic也没有回应。

这并不意味着威胁是虚构的。“Mythos可能是有能力的,”赫拉夫说。AI工具确实非常适合扫描庞大的代码库,而自动发现安全漏洞是一个真实且紧迫的危险。但赫拉夫对Anthropic的说法持怀疑态度,因为它们无法得到证实。“我认为,关于Mythos无所不能、我们无法发布它的叙事存在很多漏洞。”

何必如此严肃?

防止世界末日是OpenAI和Anthropic存在的根本原因。OpenAI最初作为一家非营利组织成立,承诺以安全的方式开发AI,据称是在谷歌和Meta等不太负责任的科技巨头之前。后来,一个分裂团体离开OpenAI成立了Anthropic,因为他们说老雇主对安全的投入不够。现在,这两个组织都在努力成为上市公司并在股票市场出售股份。

“如果你想了解一个组织,尤其是公司,将如何行事,就看看它的激励机制,”瓦洛尔说。

谷歌放弃了在开发AI武器方面的红线。OpenAI为摆脱其非营利地位进行了法律斗争。Anthropic放弃了其旗舰政策,即如果公司无法保证足够的安全措施,就绝不训练AI模型。

“我不会指望[这些公司中的任何一家]为了保持‘好人’形象而放弃主导市场的机会,”瓦洛尔说。

与此同时,尽管存在关于误诊的严重担忧,但仍有推动AI在医疗保健领域应用的趋势。燃气数据中心可能排放的温室气体超过整个国家。据报道,AI正在驱使大量弱势人群走向精神病甚至自杀。越来越多的研究表明,AI与认知衰退之间可能存在联系。深度伪造已经越过了不归路——我无法说服我自己的姑姑我不是一个机器人。

AI公司表示,他们认真对待这些问题。OpenAI向我发送了其在心理健康AI准确性📚欺诈📚诈骗方面的立场链接,奥尔特曼表示,公司致力于在AI开发的每个阶段解决这些问题。

但瓦洛尔说,这些公司只对末日场景发出警报是有原因的。如果AI可能摧毁社会,那么其他问题就显得不那么重要了。“这种策略奏效了,”她说。“将他们的产品描绘成可能终结世界的样子并没有损害这些公司。它没有限制它们的权力。相反,它让人们觉得唯一可以求助的保护者就是这些公司本身。”

恶魔还是救世主

几乎在同一时间,一些警告毁灭的人也在承诺救赎。在2024年的一篇文章中,奥尔特曼预测“惊人的胜利——修复气候、建立太空殖民地以及发现所有物理学——最终将变得司空见惯”。阿莫代承诺“数据中心里的天才之国”。

根据瓦洛尔的说法,乌托邦和末日只是同一枚硬币的两面。“无论哪种情况,规模都过于宏大,以至于监管、治理或法院法律都感觉无法触及,”她说。“这导致人们相信,他们唯一能做的就是坐等,看看这些技术最终是成为终结文明的恶魔,还是带来乌托邦的救世主。”甚至“Mythos”这个名字似乎也旨在激发宗教般的敬畏。

但瓦洛尔说,这些不是神,而是由公司为了利润而制造的产品。我们已经监管了比聊天机器人更具威胁性的东西。“除了这一种技术,即使是核技术,甚至是生物武器,在其他任何情况下,我们都没有让这些叙事让我们认为这些是超出人类控制的力量,”她说。“它们没有什么不可治理的。除非我们选择不去治理它们。”

让我们明确一点:理论上,AI接管世界是可能的。我不是预言家。但问问你自己,这个想法听起来是否与你过去从硅谷听到的其他故事相似?

我们现在不是都应该生活在马克·扎克伯格的元宇宙中吗?比特币不是应该取代世界上所有的货币吗?还记得2010年代,我们听说社交媒体将拯救民主吗?所有这些事情仍然可能发生。或者也许不会。

评论

(0)
未配置登录方式
暂无评论