快看:GPT-4来袭,科学家们如何看待?
来源:生物世界    时间:2023-03-18 11:00:33

编译丨王聪

编辑丨王多鱼


(资料图片仅供参考)

排版丨水成文

就在本周,人工智能公司OpenAI发布了GPT-4,这是其爆火的聊天机器人ChatGPT所依赖的的大型语言模型的最新版本。OpenAI表示,相比之前的版本(ChatGPT基于GPT-3.5),GPT-4有了很大的改进,它能够根据几乎任何提示创建类似人类的所做的文本、生成图像和计算机代码,这让人们感到震惊。

研究人员表示,GPT-4的这些能力有可能改变科学,但另一些研究人员感到沮丧的是,目前还无法接触到这项技术、其底层代码或如何训练的信息。这也引起了科学家们对GPT-4技术安全性的担忧,并使其在科学研究中不那么有用。

最新版本的GPT-4的一个升级之处是它可以处理图像和文本,OpenAI表示,GPT-4以第90分的成绩通过了美国律师法律考试,而使用GPT-3.5版本的ChatGPT的成绩仅为10分。目前,GPT-4还没有被广泛使用,只有ChatGPT的付费用户可以使用最新版本。

荷兰阿姆斯特丹大学的心理学家Evi-Anne van Dis表示,自己看了GPT-4的演示,其展示的能力令人惊叹。比如,GPT-4可以仅仅根据一个手绘涂鸦的网站图像,快速生成构建该网站所需的计算机代码。

但科学界对于OpenAI对模型如何训练、训练哪些数据以及它实际如何工作的保密感到沮丧。开源人工智能社区HuggingFace的气候研究科学家Sasha Luccioni表示,所有这些闭源模型基本上都是科学的死胡同。OpenAI可以继续在自己的研究基础上发展,但对整个人工智能社区来说,这是一条死胡同。

罗切斯特大学的化学工程师Andrew White以“红队成员”(Red Team)的身份获得了访问GPT-4的特权。“红队成员”是OpenAI雇来测试GPT-4平台并试图让它做一些坏事的人。他表示,在过去的六个月里一直在使用GPT-4,与之前的版本相比,在测试过程的早期,GPT-4似乎并没有什么不同,他向GPT-4询问制造化合物时需要哪些化学反应步骤、预测反应收率,以及选择催化剂,一开始并没有什么特别之处。然而,当自己允许GPT-4访问学术论文后,情况发生了巨大变化。这让自己意识到,单独使用GPT-4的效果可能没有多么出色,但当你让它连接互联网后,它就像突然拥有了新的能力。

与GPT-4的这些能力相伴而来的则是担忧。例如,GPT-4会允许制造危险化学品吗?在听取Andrew White等人的意见后,OpenAI的工程师对GPT-4模型进行了调整,以阻止GPT-4创建危险、非法或破坏性的内容。

GPT-4还面临着一个问题,那就是输出虚假信息,像GPT-4这样的模型,是用来预测橘子中的下一个词,这就无法避免出现虚假或错误预测的情况,也就是所谓的“幻觉”。在最新版本中,GPT-4在这方面仍然令人担忧,尽管OpenAI表示已经提高了GPT-4的安全性。

由于无从得知GPT-4的训练数据,OpenAI对于安全性的保证也就无法满足科学界的要求。当你不知道数据室什么,也就无从改善,因此,使用这样的模型来做科学研究显然是不可能的。

让人对自己无法监督的事情负责是非常困难的,而GPT-4可能比人类具有的偏见的更严重,如果不能访问GPT-4背后的代码,就不能看到偏见从何而来,也就无法纠正产生的偏见。

科学家们还担心,这些人工智能技术越来越多的向科技巨头集中,因此,迫切需要制定一套指南来管理如何使用和开发人工智能以及GPT-4等工具。科学家们还担心,任何关于人工智能技术的立法都将难以跟上人工智能本身的发展步伐。

尽管存在这些担忧,GPT-4及其未来迭代的新版本还将继续动摇科学。这实际上给科学基础设施带来了巨大变化,几乎就像互联网带来的巨大变化一样。GPT-4们不会取代科学家,但它们可以帮助科学家完成一些任务。或许我们将开始意识到,可以将论文、数据程序、数据库与计算工作甚至机器人实验连接起来。

参考资料

https://www.nature.com/articles/d41586-023-00816-5

设置星标,不错过精彩推文

开放转载

欢迎转发到朋友圈和微信群

关键词:

X 关闭

X 关闭