
防偽查詢(xún)
產(chǎn)品分類(lèi)
聯(lián)系方式
深圳市豹點(diǎn)科技有限公司
地 址:深圳市南山區(qū)桃園路
田廈國(guó)際中心B座1235
郵 編:518052
聯(lián)系人:李先生
電 話(huà):189 4870 7815
手 機(jī):189 2467 2967
傳 真:0755-8670 3785
E-mail:felix411@cnbaod.com
網(wǎng) 址:www.cnbaod.com
在英國(guó)《獨(dú)立報(bào)》發(fā)表的專(zhuān)欄文章中,霍金和其他科學(xué)家們認(rèn)為,忽視人工智能的危險(xiǎn)可能是“人類(lèi)歷史上最嚴(yán)重的錯(cuò)誤”,而且沒(méi)有對(duì)可能包含的風(fēng)險(xiǎn)進(jìn)行充分的研究。
文章列舉了幾種人工智能領(lǐng)域的成就,包括無(wú)人駕駛汽車(chē),Siri和贏(yíng)得“Jeopardy”的計(jì)算機(jī)。然而,“類(lèi)似的成就在未來(lái)幾十年其將帶來(lái)的后果面前可能會(huì)顯得很蒼白。”
科學(xué)家們繼續(xù)表示,“潛在益處是巨大的,文明提供的一切都是人類(lèi)智慧的產(chǎn)物;我們不能預(yù)計(jì)當(dāng)這種智慧被AI放大之后,我們可以得到什么。但是消除戰(zhàn)爭(zhēng),疾病和貧困應(yīng)該是最重要的事情。成功發(fā)明AI將是人類(lèi)歷史上最大的事件。
不幸的是,這也可能是最后一件,如果我們不嘗試學(xué)習(xí)怎樣避免相關(guān)的風(fēng)險(xiǎn)的話(huà)。短期來(lái)看,世界各國(guó)的軍隊(duì)正考慮能夠選擇毀滅目標(biāo)的自動(dòng)化武器,聯(lián)合國(guó)和人。權(quán)組織已經(jīng)倡議禁止相關(guān)的武器。從中期來(lái)看,就像Erik Brynjolfsson和Andrew McAfee在第二機(jī)器時(shí)代(The Second Machine Age)中強(qiáng)調(diào)的那樣,AI可能會(huì)重塑我們的經(jīng)濟(jì),在給我們帶來(lái)大量財(cái)富的同時(shí),也帶來(lái)巨大的混亂。
科學(xué)家表示,我們可能無(wú)法阻止機(jī)器人自我完善獲得超級(jí)智能。“我們能夠想象,AI可以駕馭金融市場(chǎng)、人類(lèi)領(lǐng)袖,甚至發(fā)展出我們不能理解的軍事武器,人工智能的短期影響取決于由誰(shuí)來(lái)控制它,而長(zhǎng)期影響則取決于它是否能夠被控制。”
文章是由霍金與伯克利大學(xué)的計(jì)算機(jī)科學(xué)教授Stuart Russell,麻省理工學(xué)院的物理學(xué)教授Frank Wilczek和Max Tegmark合作的論文的一部分。
文章素材來(lái)自由約翰尼·德普(Johnny Depp)和摩根·弗里曼(Morgan Freeman)主演的新片《超驗(yàn)駭客》。電影描述了人類(lèi)兩種截然相反的未來(lái)。其中一條路,AI擁有非常強(qiáng)大的能力,是生活的重要組成部分,掌管著人類(lèi)生活的方方面面。另一條則是完全相反的道路。不過(guò)霍金警告,也只能在科幻電影如此輕易忽視類(lèi)似的人工智能。