AI教父Hinton與OpenAI CEO Sam Altman領頭預警:AI可能滅絕人類!
經過不到一年的時間,AI 的發展超乎所有人的想象,也大有失控的風險。
就在今天,全球部分頂尖的 AI 研究員、工程師和 CEO 就他們認為 AI 對人類構成的生存威脅發出了新的警告,并共同簽署了一份只有短短 22 個字的聲明:
減輕 AI 帶來的滅絕風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。
這份聲明是由總部位于舊金山的非營利組織 AI 安全中心(Center for AI Safety,簡稱 CAIS)發布的。
值得注意的是,這份聲明一經發布,便迅速得到了多倫多大學計算機科學榮譽教授、“AI 教父” Geoffrey Hinton,蒙特利爾大學計算機科學教授、圖靈獎得主 Yoshua Bengio,Google Deepmind CEO Demis Hassabis,OpenAI CEO Sam Altman,以及中國科學院自動化研究所類腦認知智能實驗室主任、教授曾毅等近 400 位學術界、產業界、高校專家的支持。
越來越像人的 AI
其實一直以來,隨著生成式人工智能工具如 OpenAI 的 ChatGPT、微軟的新 Bing、Google 的 Bard 等面向更多的群體開放訪問,業界關于 AI 炒作的聲音愈演愈烈。
在此之下,很多學者、高管表示過擔憂,如:
本月初,多倫多大學計算機科學榮譽教授、“AI 教父” Geoffrey Hinton 在選擇從 Google 離職時,對外界分享道,「人工智能正在變得比人類更聰明,我想要‘吹哨’提醒人們應該認真考慮如何防止人工智能控制人類」。
OpenAI CEO Sam Altman 在兩周前首次亮相美國參議院就各自公司與機構制造的人工智能技術存在的潛在危險的聽證會時,反其道而行之,強烈要求政府部門對其以及行業內的 AI 技術應用政策進行落地與監管,旨在減少此類系統可能帶來的“潛在風險”。
不僅如此,個人用戶也感受到了 AI 的“可怕”之處。
在 Reddit 上,一名網友發帖稱自己在使用微軟新 Bing 時,由于 Bing Chat 提供了沒有來源的內容,自己便對這個回答進行了質疑。
萬萬沒想到的是,人類慘遭 AI “懟了一頓”。甚至 AI 表示,“我不欣賞你的語氣和態度,所以我就在這里結束這個對話。”
最后,AI 還對網友進行了警告,“以后請多一些尊重和禮貌”。
這也引得 10.2k 個用戶關注,并紛紛留言道,“這個 AI 已成精,越來越像人了。”也有人指出,“用人類知識訓練人工智能,就會讓它像人類一樣回應、思考,這是驚人的,自然也會讓人擔憂”。
聲明一出,達成共識
事實證明,這一次 CAIS 聲明的發出,正所謂字少事大,而它之所以能夠吸引如此多專家學者的關注,一方面,主要這是很多人認為應該迫切解決的問題;另一方面,在這份聲明中,沒有直接道清存在哪些風險,設立“圍墻”,也是為了避免重蹈覆轍。
還記得兩個月前,非營利性的 "生命的未來研究所 "(Future of Life Institute)發出一封公開信,同樣的圖靈獎得主 Yoshua Bengio、伯克利計算機科學教授 Stuart Russell、特斯拉 CEO 埃隆·馬斯克、蘋果聯合創始人 Steve Wozniak 等人進行了簽署。
這份公開信強烈呼吁:暫停訓練比 GPT-4 更強大的系統,期限為六個月。理由是這些模型對社會和人類存在潛在風險,“只有當我們確信強大的人工智能系統帶來積極的效果,其風險是可控的,才應該開發。這種信心必須有充分的理由支持,并隨著系統潛在影響的大小而增加。”
不過,彼時這封信一經發布便在多個層面遭到了批評,一些專家認為這份公開信過于夸大了人工智能帶來的風險,一些人雖然同意公開信提到的風險,但是對信中建議的補救措施不敢茍同。
而這一次,發布如此簡短的說明,CAIS 組織在網站上指出,“人工智能專家、記者、政策制定者和公眾越來越多地討論人工智能帶來的廣泛的重要和緊迫風險。即便如此,要清楚地表達對一些先進的 AI 最嚴重風險的擔憂可能是困難的。這份簡潔的聲明旨在克服這一障礙并展開討論。這也是為了讓越來越多的專家和公眾人物對待先進人工智能的一些最嚴重的風險有共同的認識,這樣他們也會認真對待。”
據《紐約時報》報道,人工智能安全中心執行主任 Dan Hendrycks 表示,今天的聲明很簡潔——沒有提出任何減輕人工智能威脅的潛在方法——旨在避免這種分歧。“我們不想推動包含 30 種潛在干預措施的龐大列表”,Hendrycks 說道,“當這種情況發生時,它會淹沒掉更重要的信息。”
與此同時,Hendrycks 也指出,“系統性偏見、錯誤信息、惡意使用、網絡攻擊和武器化,都是人工智能帶來的重要和緊迫的風險。”
也有專家認為,一旦人工智能系統達到一定的復雜程度,就可能無法控制它們的行為。
簡單來看,有了這樣一份聲明,參與其中的人都有了一定共識,可以共同為“減輕 AI 帶來的滅絕風險”而出謀劃策,群策群力。
OpenAI 的競爭之舉?
除此之外,也有媒體將這封得到 OpenAI 大力支持的聲明,視為 OpenAI 正在搶奪先機,畢竟此前馬斯克之前試圖拿人工智能風險說事,呼吁停止 AI 開發,毫無疑問,那樣做會阻礙 OpenAI 在生成式 AI 領域的地位與進度。
如今 CAIS 這封最新的聲明中,重點是在如何降低 AI 風險上,也在鼓勵外界為 AI 監管政策的制定出謀劃策,自然無形之中降低了業界呼吁直接暫停開發比 GPT-4 更強大模型的聲音了。
至此,你怎么看待 AI 會存在滅絕人類的風險?在現實應用中,你是否感受過 AI 超乎你想象的強大之處?歡迎留言分享。
參考:
公開信地址:https://www.safe.ai/statement-on-ai-risk#open-letter
https://techcrunch.com/2023/05/30/ai-extiction-risk-statement
https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai
https://old.reddit.com/r/ChatGPT/comments/13vfrwm/i_feel_so_mad_it_did_one_search_from_a_random/
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。







