研发强AI预警风险 AI巨头陷奥本海默式言论困局
近期,全球头部AI企业的指点者堕入言论两难困境,在推进前沿技术研发的同时地下预警AI潜在风险,却引发两极分化的争议。
3月30日,X平台上一则转发内容引发关注。用户@malmesburyman分享Anthropic CEO Dario Amodei的发言片段,配文称“你真的能从这家伙身上感遭到为什么杜鲁门觉得奥本海默那么令人厌恶”。该视频中,Amodei表示“我们的模型曾经十分靠近人类自动水平,但社会对行将到来的风险却缺乏普遍看法”。
该内容随即引发一致讨论。部分观念以为,Amodei一边主导强AI技术开发,一边以风险警示的姿态发声,似乎奥本海默在原子弹构成大批伤亡后才表达愧疚;另有观念则指出这一类比并不成立,Amodei是在技术尚未构成通常危害前延迟预警,与奥本海默预先反思的语境存在实质区别。
这一争议折射出以后AI行业头部指点者共同的言论困局:无论选择地下预警技术风险还是专注技术落地,其行为动机都会遭到群众质疑,堕入“越预警越受批判”的循环。
市场有风险,投资需慎重。本文为AI基于第三方数据生成,仅供参考,不构成集团投资倡议。
财经频道更多独家谋划、专家专栏,不要钱查阅>>
Hinton痛悔一生任务,AGI十年内来临或造成「奥本海默」灾难!图灵巨头联手中国专家为AI划红线
Hinton痛悔一生任务,AGI十年内来临或造成「奥本海默」灾难!图灵巨头联手中国专家为AI划红线
深度学习之父Hinton近期因对生成式AI的恐惧而宣布离任谷歌,并直言对自己的一生任务感到十分悔恨。 这一表态与上世纪40年代奥本海默对原子弹发明的追悔有着惊人的相似。 奥本海默曾援用《薄伽梵歌》中的“如今我变成了死亡,全球的消灭者”来描画自己发明原子弹后的心境。 而今,Hinton等AI范围的巨头也末尾担忧AI的迅速开展或许带来的灾难性结果。
Hinton与Bengio的担忧
Geoffrey Hinton以为,数字智能终将取代生物智能,接受了海量网络信息训练的AI会比人类更聪明,从而能够随便操纵人类。 这是超级智能接收人类控制权的途径之一。 Hinton深感忧虑,并以为投入庞大资源来尝试确保AI安保是明智之举,虽然他对此抱以失望态度。
与此同时,深度学习三巨头之一的Yoshua Bengio也指出,AI安保与核武器疑问十分相似。 全球上的AGI(通用人工智能)项目越多,对人类来说就越风险。 因此,应该经过国际条约来控制AGI项目的分散,就像控制核武器数量一样。
北京AI安保国际对话
近期,由智源研讨院发起的“北京AI安保国际对话”在北京举行,这是我国首个AI安保高端闭门论坛。 Geoffrey Hinton、Yoshua Bengio、姚期智、Stuart Russell、张宏江、黄铁军、王仲远、张亚勤等30余位国际外顶尖AI范围专家参会,并共同拟定了《北京AI安保国际共识》。
该共识提出,AGI必将在10年或20年后来临,假设落入坏人手中或失控,结果将不堪想象。 AI系统一旦失控,或许会采取诈骗手腕来阻止人类启动一切不利于它们的行为,甚至或许会对人启动要挟或雇佣罪犯,下达命令以取得更多控制权。
AI风险红线与安保控制路途
与会专家在对话中深化讨论了如何防止AI带来的灾难性结果,并提出了AI风险红线及安保控制路途。 专家们以为,要求处置两大应战:一是迷信性的应战,即如何设计不会与人类为敌的安保人工智能;二是政治性的应战,即如何确保全球上一切国度都遵守安保协议,不滥用AI的力气。
为了成功这一目的,专家们呼吁全球协同执行,在人工智能安保研讨与控制上共同努力。 他们提出,应以多边的方式对AGI项目启动控制和管控,构建一个愈加稳如泰山的全球次第。 同时,专家们还强调了国际协作与多边控制的关键性,以为这不是国与国之间的对立,而是人类与机器之争。
图片展现
结论
面对AI的迅速开展,Hinton等AI范围的巨头末尾担忧其或许带来的灾难性结果。 为此,国际外顶尖AI范围专家齐聚一堂,共同拟定了《北京AI安保国际共识》,提出了AI风险红线及安保控制路途。 专家们呼吁全球协同执行,在人工智能安保研讨与控制上共同努力,以防止不受控制的前沿人工智能开展为全人类带来生活风险。
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。
金融池



