來源:環球網
2023-04-08 13:45:04
原標題:一封聯名公開信引爆科技圈!AI競賽,踩剎車還是踩油門?
來源:環球時報
【環球時報報道 記者 曹思琦】大型語言模型GPT-4及其相關的人工智能(AI)技術應用最近在火爆全球的同時,也引起廣泛擔憂。意大利個人數據保護局4月6日稱,聊天機器人ChatGPT的開發公司OpenAI向意大利當局提交補救措施,以解決監管機構的擔憂。上月末,意大利成為全球首個禁用ChatGPT的國家后,美國、德國、法國和愛爾蘭等多國也相繼表達了當前AI技術“存在風險”的觀點。更讓科技界震動的是,一封包括上萬名科技界人士聯名簽署的公開信呼吁,所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月時間。
一封聯名公開信引爆科技圈
人類社會技術風險研究機構“生命未來研究所”于3月29日發布了公開信,呼吁由于“最近AI實驗室陷入了一場失控的競賽,只有當我們確信AI大模型的影響是積極的并且風險是可控時,才能開發更強大的AI系統”。這封公開信吸引了包括圖靈獎得主約書亞·本吉奧、特斯拉創始人埃隆·馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克以及《人類簡史》的作者尤瓦爾·赫拉利等上千名科技大佬、人工智能專家和學者的聯合簽名。截至目前,該研究所官網顯示已有超過1.3萬人簽署該公開信。
這封公開信所擔憂的就是以GPT-4大型語言模型為代表的最新AI技術。GPT-4是由OpenAI公司開發的人工智能程序,它可以快速生成流暢、準確和有邏輯的文本,還可以理解和回答各種類型的問題,甚至可以為用戶進行創造性和技術性的寫作。它最著名的衍生應用產品就是ChatGPT聊天機器人,網友使用后普遍感嘆“難以分辨到底是在與AI還是與真人聊天”。
公開信明確提出:“具有人類智能水平的AI系統可能對社會和人類帶來極大的風險,這一點已經得到頂級AI實驗室的認同?!痹撔藕粲跛腥斯ぶ悄軐嶒炇覒⒓磿和S柧毐菺PT-4更強大的 AI模型,為期至少6個月。在此期間,公開信建議實驗室和獨立專家合作,針對AI的設計和開發建立共享的安全協議,并由獨立的外部專家監督,確保AI系統“安全、無可置疑”。
目前國內也有知名學者、業界人士參與公開信簽名,表達支持性觀點。中國社科院研究員段偉文認為:“我們有必要通過暫停這種慢科學策略,使科技的力量在我們可以掌控的節奏下有序綻放”。清華大學教授梁正認為:“在這個時候提出這樣的警示是必要的……人類可以借鑒核武器發明后簽署核不擴散條約的經驗,共同探討提出針對通用人工智能的治理規則與防范手段,確保人工智能真正服務于人類福祉與未來?!?
反對者的聲音也有不少。例如Meta首席技術官安德魯·博斯沃思認為,這封公開信“不僅不現實,而且也不會有效”?!巴ǔG闆r下,你必須先了解技術是如何發展的,然后才能知道如何保護和確保它的安全?!绷νI發展的比爾·蓋茨也表示,公開信的呼吁不會有效,“我不認為暫停發展AI就能解決問題。很顯然AI的進步有著巨大的益處,我們需要做的是找出那些棘手的領域”。
信任危機源自“算法黑箱”
面對AI競賽的一路狂飆,人類究竟應該“踩剎車”還是“踩油門”?安遠AI創始人、牛津大學人工智能治理中心政策研究員謝旻希接受《環球時報》記者采訪時表示,不論是公開信的支持者、反對者還是旁觀者,對當前AI系統的能力、風險、問題的可解決性等,都存在較大認知差異。必須承認的是,包括OpenAI在內的各國專家也沒法解釋GPT-4等大模型的行為,對其局限和風險的理解則更為欠缺?!拔覀冋J同GPT-4等級的大模型能創造巨大社會價值,風險防控需要把握分寸,不因噎廢食。但AI創新與現實風險的平衡并非總是正確,有其前提。當科技風險非常嚴峻時,就只能風險防控優先,需要強化底線思維防范化解重大風險。”
從原理上看,ChatGPT是基于大量的文本數據進行訓練,通過深度學習技術學習文本的語義和語法規律,從而實現自然語言處理的各種任務。這也意味著供它學習的數據庫至關重要。但讓國內外專家普遍質疑的是,OpenAI一直沒有披露ChatGPT和GPT-4使用的訓練數據、如何訓練以及運作方式。這意味著在AI深度學習輸入的數據和其輸出的答案之間,存在著人們無法洞悉的“黑箱”,由此產生對這類AI技術的信任危機。
基于現有的深度學習原理,這類AI技術備受詬病的一點就是算法歧視與算法偏見。據報道,美國網民對ChatGPT的測試發現它有明顯的政治立場,例如它拒絕寫詩稱贊美國前總統特朗普,卻可以毫無障礙地稱贊現任總統拜登。這就與ChatGPT使用的數據庫有關,“大多數的訓練數據本身就是有偏見和不安全的”。但在OpenAI沒有公開相關算法的情況下,很難對偏見進行修正。由于“算法黑箱”的存在,甚至就連OpenAI團隊也沒有搞明白ChatGPT的推理能力到底是如何實現的。
北京通用人工智能研究院院長朱松純教授在今年2月與加州大學伯克利分校教授斯圖爾特·羅素的談話中表示,雖然GPT-4這類大型語言模型已取得一些驚人進展,但在處理任務方面的能力有限,它們只能處理文本領域的任務,無法與物理和社會環境進行互動。這意味著像ChatGPT并不能真正“理解”語言的含義。此外,大型語言模型也不是自主的,它們需要人類來具體定義好每一個任務,就像“鸚鵡”只能模仿被訓練過的話語。雖然ChatGPT已在不同的文本數據語料庫上進行了大規模訓練,但它并不具備理解人類價值或與人類價值保持一致的能力,即缺乏所謂的“道德指南針”。
因此ChatGPT和GPT-4都出現過“一本正經胡說”的情況,OpenAI稱之為“幻覺事實”。當前ChatGPT開始大量被科學界用于輔助研究工作,包括整理會議記錄、撰寫文獻綜述和論文手稿等,“編造答案”問題已產生相當惡劣的影響。一名德國生物學家在接受《自然》雜志采訪時說,ChatGPT曾給他列出一個完全虛構的參考文獻列表,里面沒有一篇真實存在的論文。
ChatGPT還存在泄密風險。不久前韓國三星集團內部發生三起ChatGPT誤用與濫用案例,如三星內部人員在ChatGPT上提問、驗證答案,卻讓這些答案成為ChatGPT的學習數據庫,若有其他使用者在ChatGPT上提出相關疑問,恐讓三星企業機密外流。為了規避數據泄露風險,軟銀、日立、富士通、摩根大通等不少企業明確禁止員工使用ChatGPT。
另外,最近風靡社交平臺的AI圖象生成軟件Midjourney繪制的“特朗普被捕”等難辨真偽的照片在網上瘋傳。不少業內人士都擔心未來這類AI技術可能被別有用心的人利用,產生虛假或誤導性的信息,進而影響政治輿論、煽動暴力等。
“用AI識別AI”沒解決辨真偽難題
在是否需要對AI發展設限的問題上,南京信息工程大學人工智能產業學院執行院長鄒榮金在接受《環球時報》記者采訪時表示,AI技術能提高生產力,帶來社會價值,“這就像有了汽車之后,卻要求大家不許用汽車,繼續用馬車,這條路是行不通的”。
朱松純此前也表示,回顧漫長的智能進化史可以預測,通用人工智能的誕生幾乎是不可避免的。為預防未來的通用人工智能給人類帶來威脅,我們可以逐步放開通用智能體的能力空間和價值空間。我們可以先將AI系統的適用場合和行動空間限制在特定區域內,隨著我們對AI的信任增加,確認AI系統安全可控后,再逐步給予它們更大的空間。另外,我們應該促進算法決策過程的透明度?!叭绻芡怙@地表示通用人工智能的認知架構,知道它是如何工作的,就能更好地控制它。”
由于ChatGPT和GPT-4產生了大量真假難辨的數據,目前各國都在推進針對現有AI技術結果的智能識別,這也被戲稱為“用AI識別AI”。但業內專家承認,目前相關進展并不太順利。例如針對學校作業和論文是否是ChatGPT的結果,出現了不少專業的文件檢測工具,就連OpenAI也推出了名為AI Text Classifier的文件檢測器,但它們的識別正確率都不高。為此,英美等大批學校不得不明確禁止在論文和課程作業中使用ChatGPT,否則將被視為學術不端行為。
相對于識別AI文本,Midjourney等AI軟件生成圖片的識別難度更大。此前由于AI繪圖對于人物手部的處理結果有所欠缺,因此可通過手部細節辨別是否是AI繪圖的成果。但Midjourney V5版本的更新就基本解決了手部細節的問題,目前更多需要從照片上的地面陰影朝向、人物眼神方向等細節進行分辨。鄒榮金表示,隨著AI技術的下一步迭代,未來很可能出現人類很難識別的情況。專家們擔心,生成虛假圖片的AI技術一直在進步,特朗普的名氣使“特朗普被捕”這類照片的真偽很容易被識別,但要識別出普通人相關的圖片可能困難重重。
鄒榮金表示,針對這個問題,OpenAI除了開發AI技術之外,還在開發虹膜認證技術?!凹词箤磉M入人工智能時代,要識別一篇文章是你寫的還是機器寫的,有了生物特征的唯一對應后,每一個信息出來都是可追溯來源的。”
美國高盛公司近日發布的報告稱,生成式AI會導致勞動力市場出現“重大混亂”。鄒榮金認為,“AI技術的推進,必然會有一些崗位將被替換,而且替代的速度會很快。這種焦慮一定是存在的,但會不會帶來社會的動蕩呢?我想暫時不會那么快。它過渡也是漸變的。ChatGPT最厲害的地方在于能編寫程序,未來將應用在各個領域,我們表面上看到是聊天文字,但其實它將來會在各個領域應用。”
想爆料?請登錄《陽光連線》( https://minsheng.iqilu.com/)、撥打新聞熱線0531-66661234或96678,或登錄齊魯網官方微博(@齊魯網)提供新聞線索。齊魯網廣告熱線0531-81695052,誠邀合作伙伴。