(資料圖片僅供參考)
ChatGPT在經(jīng)歷了最初的一波火爆之后,如今正在面臨一個新的麻煩,就是引發(fā)了全球性的擔(dān)憂與危機感,這種全球性的擔(dān)憂與危機感可能會讓ChatGPT的前景不妙,很有可能會走入克隆技術(shù)的結(jié)局。
馬斯克此前發(fā)起的暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)的公開信響應(yīng)人數(shù)仍在不斷增加,截至發(fā)稿,已有超1.8萬人簽名。一周之內(nèi),意大利、德國、法國、愛爾蘭等8國相繼“出手”監(jiān)管。
意大利個人數(shù)據(jù)保護局早已經(jīng)宣布禁止使用ChatGPT。
意大利已經(jīng)要禁了,德國也要跟,不久前,德國聯(lián)邦政府?dāng)?shù)據(jù)保護專員烏爾里?!P爾伯表示,德國可能跟隨意大利的腳步,因數(shù)據(jù)安全問題“封殺”ChatGPT。在英國,1000多名人工智能專家和行業(yè)高管聯(lián)名發(fā)布公開信,呼吁暫停開發(fā)最先進(jìn)的人工智能系統(tǒng),以便制定安全政策。
而聯(lián)合國教科文組織也號召各國立即執(zhí)行其《人工智能倫理問題建議書》。這一規(guī)范性全球框架由教科文組織193個成員國一致通過,旨在“提供所有必要保障”。
據(jù)媒體最新報道,拜登政府已開始研究是否需要對ChatGPT等人工智能工具進(jìn)行審查。
目前飛象網(wǎng)創(chuàng)始人項立剛也表示,美國自己最終也有可能禁掉ChatGPT。
對于ChatGPT,馬斯克曾經(jīng)也發(fā)表過很多觀點。在一開始,馬斯克也對ChatGPT頗為推崇,但后來,馬斯克表示它好得有點可怕了。我們距離危險的強人工智能不遠(yuǎn)了。于是,他馬上行動做出應(yīng)對,取消了 OpenAI 對推特數(shù)據(jù)庫的訪問。
目前來看,雖然ChatGPT這樣的生成式AI對提高工作效率很有幫助,但它的負(fù)面效應(yīng)正在大于它的正面效應(yīng),引發(fā)了很多國家、行業(yè)的擔(dān)憂與警惕。
從飯碗、隱私到版權(quán),ChatGPT引發(fā)越來越多的危機感
從原理來看,ChatGPT的本質(zhì)是深度學(xué)習(xí),這種生成式AI的模型進(jìn)化是需要依賴大數(shù)據(jù)來訓(xùn)練,通過感應(yīng)器采集數(shù)據(jù),進(jìn)行信息存儲、加工,通過算力進(jìn)行計算,最后形成決策機制,進(jìn)行反饋。
在這種模式下,它能產(chǎn)生多種負(fù)面效應(yīng),它一方面會采集用戶數(shù)據(jù)進(jìn)行訓(xùn)練,這將導(dǎo)致大規(guī)模的隱私數(shù)據(jù)泄露,無論是對于個人的隱私還是商業(yè)公司的機密與數(shù)據(jù)、文件隱私,甚至一個國家政府層面的數(shù)據(jù)隱私都有可能被ChatGPT采集到,從而被大規(guī)模的擴散,這種隱私安全的威脅,從個人到公司到國家,都不想看到它出現(xiàn)的。
事實上,三星已經(jīng)驗證了這種威脅。早在不久前,三星引入ChatGPT之后就出事了。據(jù)《economist》報道,三星DS部門的A職員,在執(zhí)行半導(dǎo)體設(shè)備測量資料庫(DB)下載程序的源代碼時出現(xiàn)了錯誤,便復(fù)制出有問題的原始代碼到ChatGPT,并詢問了解決方法。另外,三星DS部門的C職員則將手機錄制的會議內(nèi)容轉(zhuǎn)換為文件后輸入到ChatGPT,要求其制作會議紀(jì)錄。
最終三星半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等內(nèi)容或已被存入ChatGPT學(xué)習(xí)資料庫中。這些是非常關(guān)鍵的機密數(shù)據(jù)資料。目前,三星也已經(jīng)禁用了ChatGPT。
因此,如果大型企業(yè)接入ChatGPT之后,一方面可以為公司員工辦公的效率帶來幫助,但很可能公司內(nèi)部的很多機密資料被輸入到ChatGPT數(shù)據(jù)庫,導(dǎo)致商業(yè)機密與產(chǎn)品專利、技術(shù)等方面的機密資料外泄。因為員工會通過ChatGPT咨詢什么問題,公司可能并不知情,也很難追蹤。
另一方面ChatGPT會輸出價值觀、文化、思想,這就不能被各國政府所能接受。因為對于一個國家來說,有著其固有的共同的文化與價值觀,這是一個國家文化共同體的重要文化組成部分,從這個角度來看,ChatGPT有文化滲透的風(fēng)險。
其三是,剽竊。如前所述,它需要采集大量的用戶數(shù)據(jù)進(jìn)行訓(xùn)練,這導(dǎo)致很多版權(quán)內(nèi)容、包括文章、新聞與文獻(xiàn)、論文資料全部被它所用,它免費的幫助用戶去剽竊整個互聯(lián)網(wǎng)的版權(quán)內(nèi)容。美國語言學(xué)家諾姆·喬姆斯基認(rèn)為,ChatGPT是一個高科技剽竊系統(tǒng),從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,并依照規(guī)則將數(shù)據(jù)串連在一起,形成像人寫的文章和內(nèi)容。在教育界,已經(jīng)引發(fā)了“ChatGPT讓剽竊變得更加容易”的擔(dān)憂。
其四:如果全球都對它開放數(shù)據(jù)庫,那么ChatGPT有龐大的數(shù)據(jù)來訓(xùn)練,可以快速進(jìn)化,那么它真的可能砸掉很多人的飯碗。隨著它的進(jìn)化與升級,無論是技術(shù)人才還是企業(yè)高管、律師、作家、畫家、程序員、設(shè)計師、工程師等等,都有可能被ChatGPT取代。
ChatGPT來了,我會失業(yè)嗎?這是自這個AI發(fā)布后,全球很多人都在問的問題。
有人說,一個新技術(shù)總會有好的和不好的方面,不能說因為有不好的地方就把它禁掉。但這其實要看負(fù)面效應(yīng)大還是正面意義大,風(fēng)險是可控的還是不可控的。
如果它給人類本身帶來了更多的難題與危機,負(fù)面效應(yīng)大于正面效應(yīng),可能就會被考慮禁用。事實上,克隆技術(shù)就是如此,事實上,從克隆技術(shù)的走向來看,似乎預(yù)示了ChatGPT的結(jié)局。
ChatGPT會不會走向克隆技術(shù)的結(jié)局?
在國內(nèi),科技向善曾經(jīng)是一個很流行的詞,這可能是科技創(chuàng)新與技術(shù)創(chuàng)新的最終目的,如果科技創(chuàng)新與技術(shù)創(chuàng)新違背了“向善”這個方向,而是走向相反的方向,那么它可能會遭遇全球性的禁用,結(jié)局可能就不會太好。
其實在科技界一個典型的例子是克隆技術(shù)?,F(xiàn)在克隆技術(shù)沒有多少人提了。
但在過去,克隆技術(shù)曾經(jīng)被全球所關(guān)注。提到克隆生物,我們首先想到的是克隆羊多莉。但其實克隆羊多莉并不是唯一被克隆的動物,科學(xué)家們利用克隆技術(shù)還克隆出了老鼠,牛,豬等23中哺乳動物。后來我國科學(xué)家還克隆出了難度非常高的靈長類動物猴。
賽馬Aiken Cura是贏得過5次馬球比賽的冠軍,為了延續(xù)它的基因,美國Crestview Genetics公司提取了它的體細(xì)胞,并提取出體細(xì)胞的細(xì)胞核,將其放入到去掉細(xì)胞核的卵母細(xì)胞中,然后克隆出了8匹優(yōu)秀的賽馬。
既然克隆生物看起來是很強大的科技與技術(shù),那為什么各國要禁止克隆技術(shù)的使用呢?
這有多方面原因,首先是克隆技術(shù)并不完善,其次是它是逆大自然的產(chǎn)物,用來克隆的生物并沒有想象中健康與完美,克隆羊多莉4、5年后患上了老年病,在出生后6年就因肺部感染而死亡,克隆技術(shù)帶來的還有生物資源的搶奪與繁衍的混亂。
而如果克隆人技術(shù)作用于人,會給人帶來恐慌,克隆人對人的取代其實就類似于ChatGPT的能力對人的取代,人們?yōu)槭裁匆圃煲粋€人來取代自己?這會帶來很多不安定的混亂因素以及個人生物識別的難題。
克隆技術(shù)如果是應(yīng)用到動物身上,克隆出無限多的個體,但是這些個體的基因與原來的沒有任何變化,反而會搶占其他動物的生存空間,導(dǎo)致物種基因多樣性減少,從而引發(fā)滅絕危機。
如果應(yīng)用到人身上,那更加不得了,每個人都可以克隆多個個體,毫無疑問會引發(fā)倫理危機,你怎么證明你是你,如果有多個你存在,無疑給社會以及個人的人身安全、治安、社會穩(wěn)定帶來嚴(yán)重的隱患與危害。因此,克隆技術(shù)并沒有做到“科技向善”,而是走向了相反的方向,它沒有給人類以及動物界的生存繁衍帶來好處,甚至給人的生存帶來了更大的危險與制造了更多的混亂。
因此,克隆技術(shù)被禁用,因為它沒有做到科技向善。
從目前ChatGPT來看,其實有類似的一面,我們需要一項技術(shù)為己作用,是可以自己掌控的,如果人類無法掌控他的風(fēng)險走向,那么它就是危險的。
本質(zhì)上,如果開放數(shù)據(jù)庫給它,相當(dāng)于打開潘多拉魔盒,正如馬斯克所說的:“當(dāng)你參加派對時,我研究了 ChatGPT。當(dāng)你為了追求虛榮而在健身房浪費時間訓(xùn)練時,我正在訓(xùn)練機器學(xué)習(xí)模型?,F(xiàn)在全世界都要完犢子了,AGI 都到眼跟前了,你好意思來找我?guī)兔α???/p>
這種生成式AI有它積極性的一面,就是提高你的工作效率,但是比產(chǎn)生意識更可怕的是,AI模型自己不停地學(xué)習(xí),而這個過程又在人類的監(jiān)控之外,因為AI的終極目標(biāo)是實現(xiàn)AGI(通用人工智能),讓AI模型表現(xiàn)得像人一樣,那么這很有可能給人類本身帶來危機,也會危及到一個國家層面的數(shù)據(jù)與機密安全。
因此,從這個角度來看,就看ChatGPT未來如何優(yōu)化與改善,彌補它的短板,但從目前來看,各國正在考慮出臺制度與采取行動來禁用它,它進(jìn)化的越快,被禁用的概率越大,按照目前的走勢,ChatGPT要么可能會在特定的企業(yè)與圈子范圍內(nèi)被小范圍使用與研究,要么有可能被更多國家在政策上限制,束之高閣被禁用,逐漸走向克隆技術(shù)的結(jié)局。(本文首發(fā)鈦媒體APP)
關(guān)鍵詞: