Chat GPT開發(fā)商 Open AI和 Google DeepMind 的現(xiàn)任和前任員工警告稱,不受監(jiān)管的人工智能 ( AI ) 是危險的,可能導致“人類滅絕”。自己創(chuàng)建人工智能的公司辯稱,他們無法獨自解決問題,應該對舉報人采取保護措施,以便分擔風險擔憂。
據(jù)華爾街日報( WSJ)和路透社4日(當?shù)貢r間)報道,Open AI和谷歌旗下DeepMind的約10名現(xiàn)任和前任員工今天發(fā)表聯(lián)合聲明,引發(fā)人們對一種名為AI的新技術(shù)可能帶來的風險的擔憂。
“最了解尖端人工智能系統(tǒng)如何工作以及部署這些系統(tǒng)的相關(guān)風險的人無法暢所欲言,”Open AI前員工威廉·桑德斯 (William Saunders) 在聲明中透露了自己的真實姓名。除了 Saunders 之外,還有 6 名前 Open AI 員工和 4 名現(xiàn)任 Open AI員工,以及 1 名前 DeepMind 員工和現(xiàn)任 DeepMind 員工,其中 6 名簽署者要求匿名。他們在一份聲明中指出, “與人工智能相關(guān)的風險包括加深現(xiàn)有的不平等、操縱和錯誤信息,以及失去對自主人工智能系統(tǒng)的控制,可能導致人類滅絕。”
據(jù)報道,在某些情況下,包括 Open AI在內(nèi)的多家公司的人工智能程序創(chuàng)建的照片中包含與投票相關(guān)的錯誤信息。據(jù)透露,由于定制化的公司治理結(jié)構(gòu),與人工智能相關(guān)的風險管理很難帶來改變,例如公司內(nèi)部的報告。他們表示,“人工智能公司由于其追求利潤的目標而缺乏適當?shù)谋O(jiān)管,僅靠內(nèi)部監(jiān)管體系無法解決問題。人工智能公司擁有有關(guān)各類風險水平的大量非公開信息,但其中一些信息是”。
與政府和民間社會分享這些信息的義務很弱,我不相信這些信息會自愿分享,”他辯稱。他們還批評人工智能公司通過過多的保密協(xié)議來阻止提出相關(guān)擔憂或批評。 “由于與公司簽訂了廣泛的保密協(xié)議,我們無法表達我們的擔憂,”他們表示,“一般舉報人保護的重點是不當行為,考慮到整個行業(yè)類似案件的歷史,我們中的一些人可能對此感到擔憂。 “我們擔心各種形式的報復,”他強調(diào)。因此, 禁止簽訂禁止誹謗或批評公司風險相關(guān)問題的協(xié)議建立向獨立組織提出風險相關(guān)問題的匿名程序禁止對公開分享風險相關(guān)問題的現(xiàn)任或前任員工進行報復信息等敦促。
此外,《華爾街日報》報道稱,知名人工智能專家也支持這封信。主要人物包括人工智能科學家斯圖爾特·拉塞爾 (Stuart Russell) 、因其早期開創(chuàng)性研究而被稱為“人工智能教父”的約書亞·本吉奧 (Joshua Bengio)和杰弗里·辛頓 (Jeffrey Hinton)。 Hinton去年離開谷歌,更自由地談論人工智能技術(shù)的風險。據(jù)《華爾街日報》報道,一些人工智能研究人員認為,人工智能技術(shù)可能會失控,變得像流行病或核戰(zhàn)爭一樣危險,盡管這些擔憂的強度較低,但許多專家認為應該加強對人工智能的監(jiān)管。
引領生成式人工智能市場的Open AI在回應這一聲明時表示,它同意政府監(jiān)管是必要的。 Open AI發(fā)言人表示:“我們對提供最強大、最安全的人工智能系統(tǒng)的記錄感到自豪,我們相信應對風險的科學方法。” “鑒于這項技術(shù)的重要性,我們認為嚴格的辯論很重要。 “我們同意并將繼續(xù)與世界各地的政府、民間社會和其他社區(qū)合作。”
