半個月前,美國人工智能研究實驗室OpenAI再次發(fā)布新作——ChatGPT-4。
與之前相比,GPT-4不僅展現(xiàn)了更加強大的語言理解能力,還能夠處理圖像內(nèi)容,在考試中的得分甚至能超越90%的人類。升級后的GPT-4再一次顛覆了人類對AI的認知。
(相關(guān)資料圖)
卓越的新性能、飛快的更新速度,讓ChatGPT-4在全球范圍內(nèi)掀起波瀾,也再一次將AI與人類關(guān)系的倫理討論話題推向高潮。
人類和AI的關(guān)系,會迎來歷史拐點嗎?
ChatGPT于2022年11月30日首發(fā),之后迅速在社交媒體上走紅,短短5天注冊用戶數(shù)就超過100萬,兩個月用戶突破1億,成為史上增長最快的消費者應(yīng)用。
在發(fā)布之初,它就能完成撰寫郵件、視頻腳本、文案、翻譯等任務(wù)。僅僅3個多月后,ChatGPT再次進化。之前的熱度甚至還來不及冷卻,就已經(jīng)被AI迭代升級的速度追上了。
GPT-4擁有更強大的識圖能力,文字輸入的上限提升到了2.5萬字,它能更加流暢準確地回答用戶的問題,能寫歌詞,寫創(chuàng)意文本,且風(fēng)格多變。譜曲、報稅、寫詩,甚至美國律師資格考試等,ChatGPT-3.5做不到的,GPT-4輕松拿下。
發(fā)給聊天機器人一張圖表,它不但能看懂,還能給你如此這般做一番運算,發(fā)來一段對圖表的解讀。你不服氣,又扔過去一張無厘頭的梗圖,它不但能看懂這張圖里有車有人,還能告訴你之所以好笑是因為“這個男人在出租車上面熨衣服”。
這不是暢想,而是GPT-4已經(jīng)具備的能力。在官方演示視頻中,OpenAI總裁兼聯(lián)合創(chuàng)始人格雷格·布羅克曼(Greg Brockman)用筆和紙畫了個網(wǎng)站展示給GPT-4,后者僅用1到2秒的時間,就生成了網(wǎng)頁代碼、制作出了幾乎與圖中一模一樣的網(wǎng)站。
實驗表明,GPT-4在部分專業(yè)測試和學(xué)術(shù)基準上,表現(xiàn)出了與人類相當?shù)乃健?/strong>
從司法考試排名倒數(shù)10%、SAT數(shù)學(xué)考試590分,生物奧林匹克競賽排名前69%,發(fā)展到了司法考試排名前10%、SAT數(shù)學(xué)考試700分、生物奧林匹克競賽排名前1%。它的英文準確度提升到85.5%,中文準確性提升到80.1%,事實準確性大幅提升,就像一個成績突飛猛進的“學(xué)霸”。
它變得更“聰明”了。甚至可以預(yù)見,它還會越來越“聰明”。
ChatGPT飛快的進化速度令人咋舌,也引發(fā)了更多的擔憂。
一直以來,對于人工智能,專家們所持的觀點大相徑庭。在ChatGPT-4橫空出世后,這個問題的爭論變得更激烈了。
一群AI技術(shù)研究學(xué)者、投資者,正在把AI的迅猛發(fā)展視為一場“失控的競賽”。在GPT-4 誕生兩周之際,一封公開信開始在社交媒體發(fā)酵。
在這封由非營利性的“未來生活研究所”發(fā)布的公開信中,指出了最近幾個月,人工智能實驗室陷入了一場失控的競賽,他們沒有辦法理解、預(yù)測或可靠地控制自己創(chuàng)造的大模型。而大量研究也表明,得到頂級AI實驗室的認可、具有人類競爭智能的AI系統(tǒng),可能對社會和人類構(gòu)成深遠的風(fēng)險。
因此,公開信呼吁,所有AI實驗室應(yīng)立即暫停訓(xùn)練比GPT-4更強大的AI模型,為期至少6個月,直到制定并實施一套共享的安全協(xié)議。信中還說:“只有當我們確信強大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險是可控的,才應(yīng)該開發(fā)?!?/p>
截至目前,這封信已經(jīng)得到了包括圖靈獎得主Yoshua Bengio、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、特斯拉CEO埃隆?馬斯克、紐約大學(xué)名譽教授Gary Marcus、UC伯克利教授Stuart Russell以及《人類簡史》作者Yuval Noah Harari等1000多名人工智能專家和行業(yè)高管的公開簽名支持。
因為簽名名單中大佬含量過高,這封公開信在社交網(wǎng)絡(luò)持續(xù)發(fā)酵,已在國外AI社區(qū)引起了極大的關(guān)注與討論。
支持的人認為對于AI的恐慌是合理的,因其訓(xùn)練效率太高,智能的水平每天都在膨脹。反對的人甚至貼出了愛迪生指示人畫的交流電害死人的宣傳海報,認為這不過莫名的指控,在別有用心的勢力在誤導(dǎo)不明真相的群眾。
值得關(guān)注的是,發(fā)布公開信的“未來生活研究所”是由MIT物理學(xué)終身教授泰格馬克創(chuàng)立的一家非盈利研究機構(gòu),創(chuàng)立于2014年,一直關(guān)注“開發(fā)與人類相當?shù)娜斯ぶ悄芗夹g(shù)過程中出現(xiàn)的風(fēng)險”,霍金、馬斯克都是這家機構(gòu)的科學(xué)顧問。
也是在這一年,霍金開始通過公開媒體發(fā)表對于人工智能技術(shù)最終將取代人類的一系列“預(yù)言”?;艚鹪贐BC采訪中表示:“人工智能技術(shù)的研發(fā)將敲響人類滅絕的警鐘。這項技術(shù)能夠按照自己的意愿行事并且以越來越快的速度自行進行重新設(shè)計。人類受限于緩慢的生物學(xué)進化速度,無法與之競爭和對抗,最終將被人工智能取代?!?/p>
同年10月,馬斯克在麻省理工學(xué)院AeroAstro百年學(xué)術(shù)研討會上發(fā)表講話將人工智能稱之為“我們面臨的最大威脅”。他說:“隨著人工智能的發(fā)展,我們將召喚出惡魔?!彼捕啻卧谕铺厣蠌娏倚麄鳎骸叭祟悜?yīng)該像監(jiān)管食物、藥品、飛機和汽車一樣來監(jiān)管人工智能。”
去年12月,面對橫空出世的ChatGPT,馬斯克在推特上曾公開表示:“ChatGPT好得嚇人。我們離強大且危險的AI不遠了?!?/p>
馬斯克等人的擔憂似乎正在得到驗證。在近期的公開訪談中,“ChatGPT之父”薩姆·阿爾特曼說,GPT系列為何會出現(xiàn)推理能力,OpenAI的研究者自己搞不明白。他們只知道,在不斷測試中,人們忽然發(fā)現(xiàn):從ChatGPT開始,GPT系列開始出現(xiàn)了推理能力。
阿爾特曼還在訪談?wù)f了這樣驚人的一句:“AI確實可能殺死人類?!?/p>結(jié)語
事實上,自從人工智能話題起風(fēng)以來,關(guān)于“AI會不會消滅人類”、“人類被AI取代”的討論就不絕如耳。有人調(diào)侃稱,“每當有AI進步一次,相關(guān)的倫理討論和科技恐慌就要卷土重來一次?!?/p>
這一次,由ChatGPT所帶來的爭議,顯然比以往任何時候都要來得更為猛烈。
如果一個月前,社交媒體上許多人對于AI和人類未來的擔憂,更多還是一種調(diào)侃和玩笑,那么短短一個月之后,實驗數(shù)據(jù)證明了這種可能性并不只是玩笑。歸根結(jié)底,AI變革速度之快已經(jīng)突破了大家的認知想象,而人類社會似乎還沒有做好相應(yīng)的準備。
在AI不具備自我意識的階段,人工智能對人類的毀滅性風(fēng)險幾乎為0。但從AI發(fā)展的大趨勢來看,從1997年的“深藍”到2016年的“阿爾法狗”,從2022年的ChatGPT再到4個月后的GPT-4,AI的發(fā)展速度呈指數(shù)級上升,出現(xiàn)黑天鵝事件的幾率也變得越來越大。
橫空出世的ChatGPT,讓全世界相關(guān)機構(gòu)都在瘋狂沖刺,卷到無所遁形。各家爭奪的除了當前市場,還有關(guān)未來AI時代的定義標準與話語權(quán)。而這個話語權(quán),已經(jīng)事關(guān)整個人類科技的未來發(fā)展。
而今,AI的發(fā)令槍已經(jīng)叩響,而如何預(yù)防AI時代可能帶來的潛在風(fēng)險,確保技術(shù)不被濫用,也確有必要盡快提上日程。
關(guān)鍵詞: