告密者可能是保护我们免受ChatGPT等人工智能侵害的最佳方式

  • 发布时间:2024-06-06 10:00:28 来源:
标签:
导读 虽然我很喜欢使用ChatGPT,但该公司最近出现的一些令人不安的动向让我对OpenAI的信任产生了怀疑。IlyaSutskever的离职就是其中之一,而且可...

虽然我很喜欢使用ChatGPT,但该公司最近出现的一些令人不安的动向让我对OpenAI的信任产生了怀疑。IlyaSutskever的离职就是其中之一,而且可能是最重要的。

OpenAI联合创始人被视为OpenAI内部控制AI的主要人物。但离开超级对齐团队的不只是Sutskever,这让我们不禁想知道谁在监督公司的AI安全。许多顶级工程师离开了OpenAI。然后,首席执行官SamAltman将团队重组为一个向他汇报的安全委员会。

再加上斯嘉丽约翰逊(lettJohansson)因GPT-4o的声音而与她公开争吵,因为GPT-4o的声音听起来与这位女演员的一个AI相关角色极为相似,你就会意识到OpenAI可能为了自身利益而破坏了太多的鸡蛋。

快进到本周,我们收到了一封公开信,信的作者是一群人工智能工程师,其中包括现任和前任OpenAI员工。他们要求对人工智能公司进行更好的监督。这将包括一个鼓励举报人在感觉事情不对劲时站出来举报的制度,而不会冒着遭到所在公司反对的风险。

考虑到人工智能行业的快速发展,对于ChatGPT和其他人工智能产品来说,举报人可能是最好的事情,尤其是当像OpenAI这样的公司不完全了解他们的人工智能是如何工作的时。事实证明,这也是当前人工智能聊天机器人正在发生的事情。

这封公开信可以在RighttoWarn网站上找到,任何人都可以阅读。这封信的署名者包括OpenAI、GoogleDeepMind和Anthropic的前员工,他们无所畏惧地在Anthropic上署名。但也有OpenAI前员工和现任员工的匿名签名,他们担心遭到公司的报复。

事实上,几天前的报道称,OpenAI的保密协议可能会阻止前员工公开批评该公司。

告密者想要什么

签署者表示,他们“相信人工智能技术有潜力为人类带来前所未有的福祉。”但他们也“了解这些技术带来的严重风险。”

“这些风险包括进一步加剧现有的不平等、纵和误导信息,以及失去对自主人工智能系统的控制,可能导致人类灭绝。人工智能公司本身已经承认这些风险,世界各国政府和其他人工智能专家也承认了这一点。”

科学家们表示,社区、政策制定者和公众的指导可以减轻风险。但新兴的人工智能行业缺乏足够的监管。公司对自己对人工智能的了解(和不了解)拥有过多的控制权。目前还没有法律保护人工智能举报人。

“普通的举报人保护措施是不够的,因为它们关注的是非法活动,而我们所担心的许多风险尚未受到监管。鉴于整个行业都发生过此类,我们中的一些人有理由担心各种形式的报复。我们并不是第一个遇到或谈论这些问题的人,”信中写道。

人工智能工程师要求像OpenAI这样的人工智能公司遵守一系列允许安全举报的原则。

他们希望建立一种机制,让举报人可以安全、匿名地表达对人工智能的担忧,就像ChatGPT一样。公司会考虑公开批评,不会报复那些敢于直言潜在风险的人。所有这些都应该在一个框架内进行,这个框架还可以防止机密信息不必要地泄露。

这封信是在ChatGPT宕机数小时后发布的。这是几天内发生的第二起此类事件。奇怪的是,Gemini、Claude和Perplexity在周二也遇到了同样的问题。

ChatGPT究竟是如何工作的?

几天前,SamAltman在瑞士日内瓦的一次AI会议上表示,OpenAI并不完全了解ChatGPT的工作原理,这在业界并不罕见。其他公司也在寻求更好地了解他们的AI。

据《观察家报》报道,奥尔特曼证实,OpenAI尚未解决可解释性问题。当被问及OpenAI是否应该在弄清楚GPT的工作原理之前不要发布新的、更强大的模型时,奥尔特曼最终将风险降至最低,称“这些系统通常被认为是安全且强大的。”

“我们无法理解大脑中每个神经元层面发生的事情,但我们知道你可以遵循一些规则,并可以要求你解释为什么你会这样想,”奥尔特曼说。这种比较在一定程度上是有效的。没有一个大脑可以发展出超人的智慧,从而对整个物种构成威胁。

话又说回来,你也应该能想到,一个在重大政变中幸存下来,并最终用他负责的团队取代即将离任的安全团队的人会说出这样的话。这进一步证明了人工智能领域需要告密者,就像任何其他行业一样。考虑到与人工智能相关的巨大理论风险,也许比其他领域更需要告密者。

  • 免责声明:本文由用户上传,如有侵权请联系删除!