近日,OpenAI CTO米拉·穆拉蒂在达特茅斯工程学院发表了关于AI在各行业中的变革潜力及其对工作的影响的重要言论。
米拉表示,大约一年半年后,OpenAI将发布“博士生水平”的人工智能。相较之下,GPT-3相当于幼儿的智能水平,GPT-4更像高中生的智能水平。但她强调,博士等级的AI仅适用于某些特定任务,“这些系统在某些特定的任务中已经达到了人类水平,当然在许多其他任务中,它们还达不到。”
与此同时,Anthropic于6月20日官宣发布了全新大模型 Claude 3.5 Sonnet,号称是迄今为止最智能的模型。
X
Claude 3.5 Sonnet不仅将AGI的倒计时推至75%,更是成为了第一个测试分数高于最聪明的人类博士分数的模型。
Life Architect
据Life Architect数据显示,Claude 3.5 Sonnet在研究生级推理(GPQA)、本科级知识(MMLU)和编码能力(HumanEval)上都刷新了SOTA。其中,在MMLU上,它得分90.4;在GPQA上,得分为67.2。这也是首次,LLM突破了GPQA 65%的分数,达到了最聪明的人类博士的水平。普通博士在GPQA上的得分为34%,领域内专业博士的得分为65%,而Claude 3.5 Sonnet,显然已经超越了他们。
Life Architect
在达特茅斯学院的采访中,主持人提出了一个假设性的问题,他问:“假设在三年后GPT变得极其智能,它是否可能自行连接到互联网并开始行动?”
对此,米拉回答说:“确实,我们对此进行了很多思考。具备AI智能体能力的系统确实存在,它们会连接到互联网,进行相互之间的交流,共同完成任务,或者与人类无缝合作。因此,我们在未来与AI的合作可能会像我们现在彼此之间的合作一样。”
Metaculus
人工智能的进步速度令人惊叹。
在2022年,专家们预测,人类水平的人工智能有可能在本世纪的60年代兴起,可能性为50%。然而,Metaculus预测员社区的预测时间更早,他们预测的是40年代。随着GPT-4的发布,社区的预测时间开始提前,预计在2032年,甚至最早在2027年,我们就有可能实现AGI。
Metaculus
6月20日凌晨,前 OpenAI 联合创始人、首席科学家伊尔亚·苏茨克(Ilya Sutskever)在社交媒体上官宣成立新公司 SSI,专注于安全超级智能。
网友称:“好家伙!这是直接越过AGI,一步迈向Super Intelligence(超级智能)了。”
X
伊尔亚在SSI官方账号中官宣的“开场词”里表示:“超级智能已经触手可及。构建安全超级智能(SSI)是我们这个时代最重要的技术问题。”
他还补充道:“我们将以一个焦点、一个目标、一个产品,直接追求安全的超级智能。我们将通过一个小而高效的团队所创造的革命性突破来实现它。”
X
总而言之,伊尔亚团队要搞的事情,用网友一个经典的表情包式的总结来看就是:
X
然而,人工超级智能的发展也引发了一些担忧。
近日,一篇预印本论文提出观点:随着人工超级智能(ASI)的实现,人工智能无与伦比的能力可能会让人们尊其为神,从而产生一种认知偏差,不加质疑地接受它的决定。
arxiv.org
作者特飞科·欧亚尔(Tevfik Uyar)警告说,这种现象可能导致我们混淆技术进步与道德伦理的优越性。“我们不能因为ASI的能力强大,就认为它在道德和伦理上也同样表现优越。”
更令人担忧的是,这种动态可能导致一种“技术官僚神权统治”,在这种统治下,决策权被移交给ASI,从而破坏了人类的主动性和批判性思维。作者强调:“如果我们将决策权交给ASI,那么人类的主动性和批判性思维可能会受到破坏。”