当地时间5月30日,在2024年人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)通过视频连线的方式,与主持人深入讨论了人工智能的影响及未来前景等问题。在讨论人工智能全球化时,阿尔特曼特别指出,中国会诞生有自身特色的大模型,预计会有10到20个大模型“存活”下来。
图片来源:Youtube
核心内容
1、关于中国大模型的发展预测
目前中国正有大量模型在被训练,这种趋势会持续下去。我预计中国会有自己不同于世界其他地方的大语言模型。预计会有少数大模型,数量大概在10到20个,会得到大量用户使用,并能获得最多资源进行训练
2、关于对OpenAI前董事批评的回应
我尊重但非常不同意她对事件的回忆。当我们发布ChatGPT时,当时只是一个低调的研究预览版。我们没有预料到会发生什么。
3、关于AI的积极影响
我认为在生产力方面,人工智能已经产生了影响。人们可以更快、更有效地完成工作,更多地专注于他们想做的部分。
4、关于AI的潜在威胁
网络安全问题,我不知道它是否会是第一个,但这是我认为可能会成为潜在问题的一个方面。
5、关于AI是否会加剧收入不平等
人工智能在很多方面对最贫困的人们帮助更大,而不是最富有的人们。
图片来源:Youtube
当主持人询问人工智能将如何开始改变世界时,阿尔特曼回应道:“我认为在生产力方面,人工智能已经产生了影响。”他以软件开发人员为例,说明AI如何使他们能够更快、更有效地完成工作,并预计这种效率提升将扩展到更多领域,包括教学、学习和医疗保健,“我们会看到不同的行业变得比以前更高效,因为他们可以使用这些工具”。
然而,他也提到了人工智能可能带来的负面影响,尤其是网络安全问题。阿尔特曼坦言:“我会特别提到网络安全问题,我不知道它是否会是第一个,但这是我认为可能会成为大问题的一个方面。”
在探讨AI发展的速度时,阿尔特曼表达了对未来发展乐观的态度:“我们不认为我们接近某种渐近线。”他认为,尽管业内对此存在争论,但最好的方法是通过实际成果来证明进步,而不是仅仅依靠预测。
关于全球化问题,阿尔特曼对中国的AI发展做出了具体预测:“我预计中国会有自己不同于世界其他地方的大语言模型。”他进一步指出:“我猜他们会训练成百上千个大语言模型,我猜会有少数大模型,数量大概在10到20个,会得到大量用户使用,并能获得最多资源进行训练。”
当主持人问道,OpenAI前董事海伦·托纳(Helen Toner)此前对他的批评是否属实时,阿尔特曼回应称:“我尊重但非常不同意她对事件的回忆。”他进一步解释说:“当我们发布ChatGPT时,当时只是一个低调的研究预览版。我们没有预料到会发生什么,但我们当然与董事会讨论了很多关于我们正在推进的研究计划和发布计划。”他强调,OpenAI在发布GPT-4的训练版本时已经与董事会进行了充分的沟通,并在制定一个逐步发布的计划。
阿尔特曼还提到,尽管他不想在这里逐条反驳托纳的观点,但他确实认为托纳是真心希望通用人工智能有一个好的结果,对此他表示感激,并祝愿托纳一切顺利。他强调,OpenAI致力于负责任地推进AI研究,并确保其成果能够惠及整个社会。
最后,关于互联网的未来,他表达了乐观的看法:“我认为我们使用互联网的方式可能会有所改变,但我不担心它会变得无法理解。”他预期AI将使互联网更加个性化,为用户带来更有效的信息获取方式。
以下为阿尔特曼与主持人对话节选:
主持人:
现在,大家都认识到了到人工智能的力量和潜力,但它还没有真正改变世界,也没有真正改变任何可持续发展目标和我们讨论的事情。你认为当人工智能真正开始产生影响时,我们首先会看到的一个好的变化是什么?以及第一个不好的变化是什么?
阿尔特曼:
我认为在生产力方面,人工智能已经产生了影响。软件开发人员是最常被提到的例子,我认为这仍然是最好的例子,人们可以更快、更有效地完成工作,更多地专注于他们想做的部分。像其他技术工具一样,人工智能成为工作流程的一部分,然后很快就难以想象没有它们的工作。因此,我预计这种模式会在更多领域发生,我们会看到不同的行业变得比以前更高效,因为他们可以使用这些工具,这将对从编写代码到教学、学习和医疗保健的运作产生积极影响。我们会看到效率的提升,我认为这将是第一个真正可感受到的积极变化。
而我认为我们已经在经历第一个负面影响了。显然,已经有一些负面的事情在发生。我会特别提到网络安全问题,我不知道它是否会是第一个,但这是我认为可能会成为潜在问题的一个方面。
主持人:
当他们说“渐近”时,他们指的是,我们在训练人工智能时,是否正在接近某种速度的极限或瓶颈?你认为我们可能会看到怎样的改进?是线性改进,还是渐近改进?或者我们可能会看到某种指数级的、非常令人惊讶的改进?
阿尔特曼:
这是个好问题。我们不认为我们接近某种渐近线。你知道,这在业内是一个争论的话题。我认为我们最好的做法就是用实际成果来证明,而不是口头解释。很多人都在做各种预测,我认为我们要做的就是尽可能进行最好的研究,然后负责任地发布我们能创造的任何成果。我预计在某些领域会有巨大的改进,而在其他领域可能没有那么大的进步,这在之前的每个模型中都是如此。
但这感觉像是我们每次发布新模型时都会有的讨论,比如从3到3.5,再从3.5到4,总是有很多争论,是否真的会有那么大的改进?如果有,会在哪些方面?答案是,似乎仍有很多提升空间。我预计我们会在一些人们认为不可能的领域取得进展。顺便提一下,请原谅我插一句。我确实相信,Omni模型的全面发布,包括语音综合等功能,将是我们向构建时间匿名的AI代理迈出的重要一步。如果你对此感兴趣,可以考虑加入我的小组Natural 20,我们可能会在接下来的几周内讨论这个话题。
主持人:
你的两位前董事会成员,Tosha McColley和Helen Toner,刚刚在《经济学人》上发表了一篇评论文章,他们说在OpenAI的失望经历之后——这些是投票解雇你然后你又被重新任命为CEO的董事会成员——他们说不能信任AI公司的自我监管。然后本周早些时候,Toner在Ted AI播客中接受了一个相当严厉的采访,她说整个监督过程完全失效,事实上她和董事会是在Twitter上了解到ChatGPT的发布。这准确吗?
阿尔特曼:
我尊重但非常不同意她对事件的回忆。但我要说的是,我认为Toner是真心关心AGI(通用人工智能)有一个好的结果,我对此表示感谢。我祝她一切顺利。我可能不想在这里逐条反驳。当我们发布ChatGPT时,当时只是一个低调的研究预览版。我们没有预料到会发生什么,但我们当然与董事会讨论了很多关于我们正在推进的研究计划和发布计划。在那时,我们已经有了3.5版本,ChatGPT就是基于这个版本的,已经发布了大约8个月左右。我们早已完成了GPT-4的训练,并在制定一个逐步发布的计划。但我确实不同意她对事件的回忆。
主持人:
我想问你一些关于人工智能的更大问题。我刚刚参加了一个关于人工智能和人文主义的活动,其中一个参与者提出了一个非常有趣的观点,他说,人类创造出比人类更强大的东西可能不会让我们变得更自负,反而会让我们变得更谦卑。我们会像照镜子一样,看到自己赤裸的样子。我们会对机器产生敬畏之情,并对我们的生活产生一种谦卑感,这将教会我们一种新的生活方式。你认为这会发生吗?你有没有过这样的经历?
阿尔特曼:
就我个人而言,是的,我真的有这种感觉,我认为这种情况会更广泛地发生。我敢打赌,很多人都会产生敬畏感。我不会说每个人都会这样,但会有一些人对这件事有自负的反应。但总体上,我认为会有更多的人对世界和我们在宇宙中的位置产生敬畏感,并对人类视角产生一种谦卑感,我认为这将是非常积极的。
我最近在反思,某种意义上,科学史就是人类变得越来越不以自己为中心。你可以看到很多例子,比如我们曾经相信太阳围绕地球旋转,这是非常以人为中心的思维方式。然后我们意识到,实际上是地球围绕太阳旋转。实际上,那些小白点是许多恒星,还有许多星系。如果你愿意继续这个类比,你可以说,好吧,还有多重宇宙的概念,这真的很奇怪,我们几乎什么都不是。人工智能可能是另一个例子,让我们获得更多的视角,使我们更加谦卑,并对我们所处的更大事物产生敬畏感。我认为这是一个持续的、非常积极的过程。
主持人:
我们来谈谈人工智能的全球化问题:你认为未来世界会如何发展?你认为三年后会有很多基础大型语言模型,还是只有很少几个?更重要的是,你认为中国是否会有一个单独的大语言模型,或者一个专供尼日利亚使用的模型,一个专供印度使用的模型?这方面的发展方向是什么?