鱼羊 丰色 发自 凹非寺
量子位 | 公家号 QbitAI
活久见,AI巨佬们撸起袖子线上“对喷”,一“架”间接干上热搜了。
Big name一个接一个呈现不说:
吴恩达、Hinton、LeCun、哈萨比斯……以至吵到稳如Hinton,都开麦阴阳怪气起来:
是是是,好人力量大,我们应该把核兵器也给开源了。

搞得如斯面红耳赤,为的仍是“大模子会不会扑灭人类”那个热点话题。
反方一派,锋芒曲指科技巨头搞垄断。吴恩达就言辞犀利地指出:
某些人传布(AI灭绝人类的)恐惧,只是为了搞钱。

正方那边也不甘示弱,最新动静是,被指“搞钱派”代表人物的DeepMind CEO哈萨比斯正面回怼:
那不是恫吓。AGI的风险若是不从如今就起头讨论,后果可能会很严峻。我不认为我们会想在危险发作之前才起头做防备。
总之,排场很火爆,网友很兴奋。连马斯克都不由得第一时间前排围不雅。

还有很多网友冲动地搓手手:
那种排场仍是第一次见,撑持各人吵起来,实理越辩越明。

大佬们吵成如许,又事实吵出了些啥?板凳已经摆好,一路来看。
现场复原:三大回合battle那一场大战的间接“着火点”是吴恩达昨晚的公开发言:
你们晓得吗?我对AI的更大担忧其实是,AI风险被过度宣扬,招致开源和立异被严苛规定所压造。

说罢,吴恩达还附上一篇长文停止详细阐述。
他暗示,近几个月来,他都在存眷AI可能招致人类灭绝风险的概念。
然而认真评估其论点,都觉得它们“模糊且不详细”。
我无法证明AI不会招致人类灭绝。我也不思疑一部门持该概念的人是实心为人类担忧。
但,他认为,一部门人十分负责地传布如许的担忧其实只是为了“钱”,好比:
小我能够从中博取存眷,四处去演讲收取出场费或其他费用;非营利组织则能以匹敌那种风险为由筹集资金;弦外之音,那有点“科技阴谋”的意思。
在文中,吴恩达还呼吁,各人应该多多鼓吹对AI的积极观点,不要传布未经证明的担忧招致强监管的呈现,障碍手艺前进。
很快,那条帖子就引起了Hinton的留意。
做为坚决的“AI有风险派”,他第一个差别意吴恩达。间接开帖“回怼”:
你说那是科技阴谋?那我分开谷歌干什么??

一场巨佬们的对喷就此展开。
Round 1:Hinton vs 吴恩达看到Hinton的“量问”之后,吴恩达完全没有就此打住,在评论区“回敬”:
先是解释称“我没说那是一个阴谋”。
接着反问:你晓得那种过度担忧已经形成实正的危险了吗?
一是已经有一些年轻学生不肯进入该行业,因为他们说不想为灭绝人类做出奉献;二是宣传得越凶,全球范畴内的监管就越严酷,那是在毁坏开源并扼杀立异。
不外最初,吴恩达缓和了一把气氛:
我晓得你的担忧是热诚的,但总的来说,那种担忧仍是弊大于利。

是的,LeCun也敏捷参加了战局,而且面临老友完全没有口下留情:
恰是你和Yoshua的言论,才让那些想通过制止开源来庇护本身的AI研究和营业的人“得逞”。后果很严峻。

事实上,力挺吴恩达属于“事出有因”,早在此之前,LeCun就已看Yoshua等人“不爽”了:
你们啊,天天宣扬那些言论,就是在给那些游说制止开放人工智能研究手艺的人供给弹药。
若是你们实的胜利了,一场“少数公司控造人工智能”的灾难恐怕就要临头了。
他还间接点名了那些“少数公司”:
OPEnAI、DeepMind、Anthropic——那些公司的CEO被斧正在搞“大规模企业游说”,试图加强对AI行业的监管。

那个帖子获得了大量点赞撑持。

而更早一点,LeCun也转发了关于“各人应该做的,不是在那限造通用/根底大模子手艺的研究,而是该去标准其应用”的帖子。
并有些生气地暗示:
我都说几年了。

那还没完。在那俩回合之后,Hinton又以1打2挑起了新问题。我们姑且叫它Round 3。
你说AI不应被严酷监管,那你晓得它将来30年来招致人类灭绝的概率是几吗?
若是吴恩达你是实正的贝叶斯主义者,你应该可以给出一个数字。我目前的估量是0.1。我思疑LeCun也就不到0.01。

对此,LeCun间接亮出谜底:
零点几不晓得,归正比大大都其他会招致人类灭绝的风险峻低得多。
为什么?因为不像某种无法阻遏的天然现象,我们人类在那方面有代办署理权。
而且说不定,AI现实上还能拯救人类免于灭绝呢。

Hinton对此并未回复。
对了,开头提到的Hinton的反唇相讥,也是针对LeCun的发言。
LeCun跟吴恩达一样,也存眷到了开源力量的问题:
若是SkyNet是开源的,那么《末结者》的故事还会发作吗?

而关于Hinton拿出核兵器来和AI做类比,LeCun和fast.ai开创人Jeremy Howard都不克不及苟同:
我不大白那两者之间有什么相关性。

不外另一边,DeepMind CEO哈萨比斯隔空撑持了Hinton。
他在承受CNBC的最新采访中间接暗示十分差别意LeCun的大部门概念。
我们十分撑持开放AI平台,因为我们也相信“人多力量大”。但如今我们需要处置AI已经产生的有害操做,否则就会被不安好意的人滥用。
更持久的风险我们也考虑了,我们必需确保AI可控,不克不及等危险降临前才起头。
能够说,那场大战两边是各不相谋,谁也说服不了谁。
值得一提的是,在半途中,马斯克也来围不雅了一把,他没有明白站队,而是暗示:
实正的战斗是在灭绝论者和人文主义者之间。
一旦你留意到了那场战斗,就没法对此视而不见。
还很亢奋的LeCun再次在帖子下声明本身的立场,还问老马站哪边。

咳咳,有网友替答:马斯克是超人类主义者。(手动狗头)

那场“激战”在马斯克的X上能够说是吸引了全行业的围不雅。
不外现实上,争论集中发作之前,“AI风险”就已经成为了行业大佬们存眷的焦点话题之一。
就在前几天,深度进修三巨头之二Bengio和Hinton,已结合姚期智、张亚勤等人工智能大拿,颁发了一封公开信《在快速前进的时代办理人工智能风险(Managing AI RIsks in an Era of Rapid PRogress)》。

文中谈到:
2019年,GPT-2还没法儿数到10。仅仅4年后,深度进修系统已经能够本身编写软件、生成传神场景、供给智能建议,连系语言和图像处置来充任机器人的“大脑”了。
人工智能的前进十分敏捷,令人惊讶,而且可能会继续令人惊讶。
当前的深度进修系统仍然缺乏重要的才能,我们不晓得开发它们需要多长时间。然而,各家公司都在竞相缔造在大大都认知工做中媲美以至超越人类才能的通用人工智能系统。
签名做者们认为,人类必需认实看待AGI在那10年或下一个10年内在许多关键范畴超越人类才能的可能。
公开信建议,监管机构应该对AI开展全面洞察,尤其警觉那些在价值数十亿美圆的超等计算机上训练出来的大模子。
One More Thing不外,打骂归打骂,前不久,LeCun刚在推特上分享了他和Hinton、Bengio的合影,配文是:
即便在大事务上存在概念不合,人们仍然能够做好伴侣。

那么,你撑持哪方概念呢?
参考链接:[1]https://x.com/AlphaSignalAI/status/1719097022819578243?s=20[2]https://venturebeat.com/ai/ai-pioneers-hinton-ng-lecun-bengio-amp-up-x-risk-debate/[3]https://www.cnbc.com/2023/10/31/google-deepmind-boss-hits-back-at-meta-ai-chief-over-fearmongering-claim.html[4]https://x.com/AndrewYNg/status/1719378661475017211?s=20[5]https://x.com/ylecun/status/1719431189587742754?s=20[6]https://x.com/geoffreyhinton/status/1719406116503707668?s=20
— 完 —
量子位 QbitAI · 头条号签约
存眷我们,第一时间获知前沿科技动态
发表评论