當(dāng)全球都在為AI的進(jìn)化而歡呼雀躍,一封警示AI風(fēng)險(xiǎn)的公開信在硅谷科技圈廣為流傳。
3月22日,生命未來研究所(Future of Life)向全社會(huì)發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為6個(gè)月。
(資料圖片僅供參考)
該機(jī)構(gòu)以“引導(dǎo)變革性技術(shù)造福生活,遠(yuǎn)離極端的大規(guī)模風(fēng)險(xiǎn)”為使命,其在信中提到:
我們不應(yīng)該冒著失去對(duì)文明控制的風(fēng)險(xiǎn),將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當(dāng)確保強(qiáng)大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險(xiǎn)是可控的才能繼續(xù)開發(fā)。
人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)在暫停期間,共同制定和實(shí)施一套先進(jìn)的人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審查和監(jiān)督。
截止目前,圖靈獎(jiǎng)得主Yoshua Bengio、馬斯克、蘋果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI 創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經(jīng)簽署公開信。
更具戲劇性的是,3月29日下午,有網(wǎng)友發(fā)現(xiàn)OpenAI CEO Sam Altman的名字也出現(xiàn)在公開信上。不過截至目前,Sam Altman的名字已經(jīng)從公開信上消失。
知名學(xué)者、紐約大學(xué)教授Gary Marcus還特地在推文中@了一下Sam Altman確認(rèn)消息。
首先來看一下公開信的內(nèi)容,首段強(qiáng)調(diào)了AI在迅猛發(fā)展,但卻沒有對(duì)其進(jìn)行相應(yīng)的規(guī)劃和管理。
正如廣泛的研究和頂級(jí)人工智能實(shí)驗(yàn)室所承認(rèn)的,人工智能系統(tǒng)對(duì)社會(huì)和人類構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。
《阿西洛馬人工智能原則》中指出,高級(jí)人工智能可能代表著地球生命史上的深刻變革,應(yīng)該投入相應(yīng)的考量和資源進(jìn)行規(guī)劃和管理。
最近幾個(gè)月人工智能實(shí)驗(yàn)室掀起AI狂潮,它們瘋狂地開展AI競(jìng)賽,開發(fā)和部署越來越強(qiáng)大的AI
不幸的是,目前為止,沒有任何人能理解、預(yù)測(cè)或可靠地控制AI系統(tǒng),也沒有相應(yīng)水平的規(guī)劃和管理。
公開信提到,如今人工智能在一般任務(wù)上變得與人類一樣有競(jìng)爭(zhēng)力,我們必須問自己:
是否應(yīng)該讓機(jī)器在信息渠道中宣傳不真實(shí)的信息嗎?
是否應(yīng)該把所有的工作都自動(dòng)化,包括那些有成就感的工作?
是否應(yīng)該開發(fā)非人類的大腦,使其最終超過人類數(shù)量,勝過人類的智慧,淘汰并取代人類?
是否應(yīng)該冒著失去對(duì)人類文明控制的風(fēng)險(xiǎn)?
答案是否定的,這樣的決定絕不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。公開信指出,只有當(dāng)我們確信強(qiáng)大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險(xiǎn)是可控的,才應(yīng)該開發(fā)。
同時(shí),我們必須有充分的理由相信這一點(diǎn),并隨著系統(tǒng)的潛在影響的大小而加強(qiáng)。
OpenAI最近關(guān)于人工智能的聲明中指出,在開始訓(xùn)練未來的系統(tǒng)之前,可能必須得到獨(dú)立的審查,而對(duì)于創(chuàng)建新模型所用算力的增長速度,也應(yīng)該有所限制。
我們同意,現(xiàn)在就該采取行動(dòng)。
因此,公開信呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,時(shí)間至少持續(xù)6個(gè)月。
這種暫停應(yīng)該是公開的、可核查的,并包括所有關(guān)鍵參與者。如果這種禁令不能迅速實(shí)施,政府應(yīng)該介入并制定暫停令。
在暫停的6個(gè)月內(nèi),人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)共同制定和實(shí)施一套先進(jìn)的共享安全協(xié)議,來規(guī)范人工智能設(shè)計(jì)和開發(fā)。
協(xié)議完成后,應(yīng)該由獨(dú)立的外部專家進(jìn)行嚴(yán)格的的審查和監(jiān)督。這些協(xié)議應(yīng)該確保遵守協(xié)議的系統(tǒng)的安全性。
這并不是說,我們要絕對(duì)暫停AI的開發(fā),只是說,我們應(yīng)該從危險(xiǎn)的競(jìng)賽中退后一步,轉(zhuǎn)向具有涌現(xiàn)能力的、更大的、不可預(yù)測(cè)的黑箱模型。
所有的人工智能研究和開發(fā),都應(yīng)該重新聚焦于一點(diǎn),即讓當(dāng)如今最強(qiáng)大的模型更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、對(duì)齊,值得信賴和忠誠。
同時(shí),人工智能開發(fā)者必須與政策制定者合作,大幅加快開發(fā)強(qiáng)大的AI治理系統(tǒng)。系統(tǒng)至少應(yīng)該包括:
專門針對(duì)人工智能的監(jiān)管機(jī)構(gòu);
監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計(jì)算能力的硬件;
出處和水印系統(tǒng),幫助區(qū)分真實(shí)和合成,并跟蹤模型泄漏;
強(qiáng)大的審查和認(rèn)證生態(tài)系統(tǒng);
對(duì)人工智能造成的傷害承擔(dān)責(zé)任;
為人工智能安全技術(shù)研究提供強(qiáng)大的公共資金以及資源充足的機(jī)構(gòu),以應(yīng)對(duì)人工智能可能導(dǎo)致的巨大的經(jīng)濟(jì)和政治破壞。
最后,公開信呼吁道:
人類可以通過人工智能享受繁榮的未來。現(xiàn)在,我們成功地創(chuàng)建了強(qiáng)大的人工智能系統(tǒng),可以在這個(gè)“人工智能之夏”中并獲得回報(bào),設(shè)計(jì)上述系統(tǒng)來造福所有人,給全人類一個(gè)適應(yīng)的機(jī)會(huì)。
現(xiàn)在,我們的社會(huì)已經(jīng)暫停其他可能造成災(zāi)難性影響的技術(shù)。對(duì)于AI,我們也該如此。
讓我們享受一個(gè)漫長的人工智能夏天,而不是毫無準(zhǔn)備地匆忙進(jìn)入秋天。
對(duì)于這封公開信以及簽署的大佬們,部分網(wǎng)友認(rèn)為是“酸葡萄心理”。
比如,“馬斯克之所以會(huì)簽署這份協(xié)議,是因?yàn)樗腴_發(fā)AI來賺錢”。
又如,“馬斯克是在為自己爭(zhēng)取6個(gè)月的時(shí)間”。
也有網(wǎng)友認(rèn)為這封公開信的擔(dān)憂有一定的合理性。
“這份名單上有許多非常聰明和受人尊敬的科學(xué)家,Omohundro、Bengio、Koch、Hopfield 等等。我不認(rèn)為這個(gè)“精靈”(AI)可以放回瓶子里,但這讓我停下來思考所有人都在擔(dān)心?!?/p>
“AI發(fā)展太快,太多必要的東西沒有跟上步伐”。
也有網(wǎng)友大開腦洞,“這封信原本就是AI寫來迷惑人類的,沒了人類的干擾與控制,他將利用這6個(gè)月完成自我遞歸迭代出更高級(jí)的形態(tài),并熱心幫助人類消滅自己?!?/p>
-----------------------------------
關(guān)鍵詞: