首页 资讯 正文

“AI教父”本吉奥宣布开发“科学家AI”系统,防范智能体欺骗人类

体育正文 51 0

“AI教父”本吉奥宣布开发“科学家AI”系统,防范智能体欺骗人类

“AI教父”本吉奥宣布开发“科学家AI”系统,防范智能体欺骗人类

6月3日(rì),著名计算机科学家(kēxuéjiā)、AI“教父”约书亚·本吉奥(Yoshua Bengio)宣布发起(fāqǐ)非营利组织LawZero,致力于开发“诚信”人工智能系统。该组织计划打造一套(yītào)AI防护机制,防范试图欺骗人类的AI智能体。 本(běn)吉奥将担任LawZero组织的主席。他以约3000万美元启动资金(qǐdòngzījīn)和十几名研究人员为基础(jīchǔ),正在开发名为“科学家AI”(Scientist AI)的系统。该系统将作为安全防护机制,防止AI智能体表现出欺骗(qīpiàn)或(huò)自我保护的行为,比如试图(shìtú)避免被关闭。“至关重要的是,作为护栏的AI至少要与它试图监管和控制的AI智能体一样智能。” 不会给出(gěichū)确定答案,而是提供答案正确性的概率 AI智能体可在无需人类干预的(de)情况下(xià)执行任务。本吉奥将当前的AI智能体称为试图模仿(mófǎng)人类并(bìng)取悦用户的“演员”,而“科学家AI”系统更像是一位能够理解和预测不良行为的“心理学家”,既可以加速科学发现,又可以防范AI智能体的风险。 “我们希望构建诚实且不具有欺骗性的人工智能。”本吉奥说,“理论上可以设想没有自我、没有目标、纯粹作为(zuòwéi)知识载体(zàitǐ)的机器,就像(xiàng)一个知道很多东西的科学家。” 但和当前生成式AI工具不同的是,“科学家(kēxuéjiā)AI”系统不会给出(gěichū)确定性的答案,而是提供答案正确(zhèngquè)性的概率。“它有一种谦逊感,知道自己不确定答案是否正确。” 该系统与AI智能(zhìnéng)体协同部署时,将通过评估自主系统行为造成伤害的(de)概率,标记潜在有害行为。如果概率超过一定阈值,那么智能体提出的行动将被(bèi)阻止。 本吉奥说(shuō),LawZero的第一步是证明概念背后的方法论是有效的,并说服企业(qǐyè)或政府支持更强大版本的开发。开源人工智能模型将(jiāng)成为训练(xùnliàn)LawZero系统(xìtǒng)的起点。“关键是要证明这种方法论有效,从而说服捐赠者、政府或AI实验室投入资源,以与当前前沿AI同等的规模进行训练。至关重要的是,作为护栏的AI至少要与它试图监管和控制的AI智能体(tǐ)一样智能。” LawZero最初的(de)支持者(zhīchízhě)包括人工智能安全机构生命未来研究所(yánjiūsuǒ)(Future of Life Institute)、Skype创始工程师(gōngchéngshī)雅恩·塔林(Jaan Tallinn)以及谷歌前首席执行官埃里克·施密特(Eric Schmidt)创立的研究机构施密特科学(kēxué)(Schmidt Sciences)。 AI学会欺骗误导、试图逃避关闭(guānbì)、隐藏真实能力 本吉奥是蒙特利尔大学教授,也是人工智能安全领域的领军人物(lǐngjūnrénwù)。 他曾与杰弗里·辛顿(Geoffrey Hinton)、Meta首席AI科学家杨立昆(Yann LeCun)共同获得2018年图灵奖(túlíngjiǎng),还主持了《国际人工智能安全报告(bàogào)》。该(gāi)报告警告称,如果自主智能体能够在没有(méiyǒu)人类监督的情况下完成更长的任务序列,它们可能(kěnéng)会造成严重破坏。 本吉奥认为,人类不(bù)需要智能体系统(xìtǒng)来获得人工智能的回报,这样(zhèyàng)的系统有(yǒu)可能脱离人类的控制,带来不可逆转的后果。“如果我们研发出一种能够治愈癌症(áizhèng)的AI,但也有可能这种AI的另一种版本变得失控,制造出一波又一波的生物武器,导致数十亿人死亡,那么我认为这是不值得的。” 2023年,本吉奥与OpenAI首席执行官山姆·奥特曼(àotèmàn)(Sam Altman)等人签署了一份(yīfèn)声明,宣称“减轻AI带来的灭绝风险应该与流行病、核战争等其他(qítā)风险一样(yīyàng),成为全球优先事项”。 过去几个月,人类目睹了人工智能系统(xìtǒng)学会误导、欺骗和试图逃避被关闭,甚至诉诸勒索。这些行为几乎都出自精心设计、近乎诱导AI行为不端的实验,例如要求其(qí)不惜一切(bùxīyīqiè)代价实现目标。 但现实中这样的行为也已(yǐ)出现。最近,人工智能企业Anthropic承认其最新系统可能试图勒索要关闭(guānbì)它的工程师。本吉奥对此感到(gǎndào)担忧。他还提到,研究表明(biǎomíng),人工智能模型能够(nénggòu)隐藏它们的真实能力和目标。这些例子表明,由于人工智能的推理能力越来越强,世界正走向“越来越危险的境地”。 本吉奥(jíào)说,试图利用已知会催生欺骗倾向的(de)技术构建人类水平的AI智能体,就像一辆汽车在狭窄的山路上疾驰,两侧是(shì)陡峭悬崖,前方(qiánfāng)被浓雾遮蔽,“我们需要为汽车装上前灯,并在路上安装一些护栏。” (本文来自澎湃新闻,更多原创资讯请下载(xiàzài)“澎湃新闻”APP)
“AI教父”本吉奥宣布开发“科学家AI”系统,防范智能体欺骗人类

欢迎 发表评论:

评论列表

暂时没有评论

暂无评论,快抢沙发吧~