久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

博客專欄

EEPW首頁 > 博客 > 何為“AI倫理”?又何為“AI治理”?科技向善,何為“善”,如何“向”?

何為“AI倫理”?又何為“AI治理”?科技向善,何為“善”,如何“向”?

發布人:MSRAsia 時間:2021-06-16 來源:工程師 發布文章

編者按:人工智能(AI)技術的發展正在重塑當今社會生產方式與產業結構。AI 在提升生產效率、賦能產業的同時,也為社會帶來了全新的挑戰。自動駕駛汽車交通事故的防范與歸責、新冠疫情下個人隱私的保護、人工智能技術的應用對就業的影響、技術是否會引起貧富差距擴大等,均成為公共討論的議題。

如何應對 AI 可能對社會產生的負面影響?AI 倫理與治理的討論應此而生?!叭绾伪苊獯髷祿r代下個人隱私形同虛設?”“代碼是否具有道德?”“人工智能時代的道德代碼如何編寫?”

微軟全球資深副總裁,微軟亞太研發集團主席,微軟亞洲研究院院長洪小文受邀參加未來論壇 AI 倫理與治理系列活動,在“AI 向善的理論與實踐”主題論壇中發表了看法。

洪小文認為“技術都是死的,我們才是制造者與使用者。所謂的 AI 道德,最后反映的是我們的道德,是我們的價值觀?!?/p>

以下是論壇全文,轉載自未來科學論壇公眾號。

議題一:人工智能將會對人類社會帶來哪些挑戰?近些年 AI 的發展,已經產生了哪些問題?社會應該如何應對?

1.技術導致的不良后果其實源于人類自身;

2.微軟人工智能設計原則:合法與主權、負責、透明、公平、可靠與安全、隱私與保障、包容。

洪小文:怎么樣讓技術促進經濟發展?怎么樣讓技術促進社會進步?在大多數情況下,技術都是好的,而在技術被廣泛應用后,也產生一些大家所擔心的負面隱憂,英文叫“Techlash”。

這里舉一些例子。首先,每個國家的經濟發展程度不同,如果有些人可以使用到最新的技術,而有些人不能,這就可能帶來發展的不均衡和落差,帶寬、網絡的就是這樣的例子;另外,關于安全、隱私的問題大家也談的很多。比如社交媒體中出現假新聞,如果不小心誤傳誤信,就會影響決定;還有數據和技術偏見的問題。有數據就一定會有偏見,因為體量再大的數據也不可能涵蓋所有方面;再有就是關于 AI 在武器上的使用以及技術取代人類工作的問題等等。我認為水能載舟,亦能覆舟,不能說技術無辜,但是真正的問題還是在于技術背后的創造者,在于怎么使用技術,因此技術導致的不良后果其實源于人類自身。制造者、用戶、政府、受影響者都是重要的相關方。

微軟1998年提出了人工智能的相關原則(“Responsible AI”),要求以負責任的方式設計人工智能。其中,最基本的原則就是合法與主權。對數據及人工智能治理而言,今天很多規則性的內容都會變成將來的法律規范。微軟作為一家跨國公司,在任何國家或地區經營都要保證合法性、尊重其主權。第二是負責,任何技術和產品都有其設計制造者,要對技術和產品的部署和運營承擔責任,包括法律以及社會等各方面的責任。第三是透明,設計制造者要能夠解釋程序如何設計,尤其是數據的收集,更需要透明化。比如當攝像頭被安置在公共場所搜集數據的時候,需要提前告知數據被收集對象,進入數據收集區域其頭像信息可能會被采集。第四是包容,做任何東西都需要考慮到所有的人,也要求我們創造的技術能夠服務每個人,包括少數族群,殘障人士,所以開發這些人工智能技術的時候需要考慮如何保證它的包容性。第五是隱私與保障,有些人利用互聯網或者 AI 在網絡上做一些不道德的事,比如說“黑客”、“釣魚”,對于系統或平臺而言,很重要的時要保障用戶不受網絡騷擾、身份信息不被竊取,以及避免產生一些實質性的災難;第六是可靠和安全,任何 AI 系統都不可能萬無一失。例如一個 GPS 系統,即使只要有萬分之一的機會把司機引到懸崖,那也是不安全的。所以怎樣做到安全可靠在 AI 領域中非常重要。機器學習都會存在一定誤差。問題在于,存在誤差的時候如何預防風險,如何提供更進一層的安全保障。第七是公平,坦言之很難做到,因為沒有絕對的公平。在現實條件下存在很多偏差或偏見,這些偏見或偏差可能來自數據,可能來自我們的固有認知,可能屬于一種社會偏見,毫無疑問,每個人都存在偏見,問題在于怎樣不把偏見帶到我們所制造的東西里、怎么樣避免這些偏見。

最后,技術都是死的,我們才是制造者與使用者。所謂的 AI 道德,最后反映的是我們的道德,是我們的價值觀。對于科技工作者而言,需要把正確的價值觀與道德納入技術語言中進行表達,但即使這樣還不夠,還需要跨領域的合作,需要法學家、社會學家、人類學家等都參與進來,才有可能把這個做得盡量完善。

郭銳:謝謝洪老師。我有兩點思考,一是這個規制框架是否可以拓展,我認為它現在可以用于專用人工智能領域,在未來向通用人工智能行進的過程中,這樣的框架是否可以繼續適用,還是我們需要一些新的道德準則?道德準則是否可以內化在算法之中?洪老師講到的公平性問題,與此密切相關。二是洪老師提到一個關鍵詞——信任,社會對技術的信任至關重要,中國在過去20年特別是近10年來在人工智能領域的發展,很大程度上借力于社會對于技術的擁抱和信任。我記得薛瀾老師講到過信任的重要性,下面有請薛瀾老師,對這個問題給出點評。

1.AI 改變了人類與技術的關系;

2.信任問題。

薛瀾:關于剛才談到信任的問題,第一,從某種意義上講,很多傳統技術是相對被動的,所以人類的應用行為顯得比較主動。但是我覺得人工智能技術的不同之處在于,好像它不完全聽從我們,因為人工智能還具有智能性,因此我們與技術的關系好像發生了改變。如此一來,我們有時候的確擔心它會不會錯誤決策導致不利的后果。我們對傳統技術占據主動權,清楚知道這些技術能做什么、不能做什么,但是使用人工智能技術進行人機交互時,有時候感覺不一定敢那么自信。

第二,我覺得對技術開發的公司而言,信任問題需要被重視,特別是隱私問題。正如剛才大家所說,鑒于人工智能技術在應用過程中搜集了大量數據,如果我們百分之百地信任這些公司,比如說用戶知道技術公司只是把數據作為一個機器學習的原料,那對于它們收集數據的行為,我不會太擔心。但是,現實中有些技術公司或其中的部分員工存在不道德地利用信息的可能,比如把個人或非個人數據匯集在一起得到更多的信息,或者把這些數據打包在網上拍賣,這些行為我們都看到過。所以從用戶角度來講,我們就希望非常清楚地知道智能公司的開發系統如何運行,對我們數據的處置是否合理。

郭銳:謝謝薛老師的點評。人工智能技術和其他技術相比,能夠更加直接地作用于普通用戶。比方說,如果能源的相關技術改進了,我們就會看到日用品的價格下降,或者用電的價格下降,但人工智能技術好像可以直接對我們產生影響。在數據領域中,如果我們意欲使用某個技術,可能需要技術的部署應用企業收集我們的信息,但同時我們又擔心所收集的信息是否會被誤用。剛才華夏老師也提到了一個很重要的問題——隱私問題,從您的角度來看,我們怎么應對人工智能技術對社會的影響?

1.隱私問題:數據歸屬于誰,如何保護用戶隱私?從兩個層面加以分析:一是提高透明度,二是企業自律。

2.安全問題:需要多方共同參與法律法規的制定與完善。

夏華夏:我覺得洪老師的架構圖總結得非常好,尤其是把法律法規放在底下兜底,上面包括隱私、公平這幾個問題,內容全面、層次分明。說到數據隱私的問題,現在很多企業都掌握著大量數據,我們也在思考如何合理保護用戶隱私,這個問題蠻難的,有時候數據的歸屬問題并不是那么清楚。

前幾天跟龔克老師溝通的時候,他提到當我們去醫院拍一個醫學影像片時,醫學影像的數據到底屬于誰,是屬于用戶嗎?醫院的確是拍的是用戶的片子,但同時如果沒有醫院、沒有工作人員通過儀器加以采集,沒有醫生為他做各種醫學診斷或判斷,這就不是一個完整的數據。因此至少有三方跟這個數據有關系,數據的所有權歸屬問題比較復雜,在此基礎上,怎么保護最終端用戶的隱私,也是一個蠻有挑戰的問題。一方面,剛才洪老師在框圖第二層中寫的是是透明度,透明化對于隱私來說是一個非常好的解決之道。當科技企業收集用戶數據的時候,企業會告訴他該數據在未來可能會有哪些用途,這種告知就是解決隱私問題非常重要的手段。如果技術足夠成熟,每次調用用戶數據的時候,系統都能自動通知每個用戶,這就使用戶更加安心和放心。再一個方面,保護數據隱私,可能還要從企業的自律方面做很多工作,企業到底怎么使用、內部數據誰能看到,是一個非常重要的問題。比如在美團為此專門成立人工智能治理委員會,內部制定了很多數據使用的規則和規范,劃分了諸多數據的保密級別,高密級的數據只有在極少數的情況下通過專門的程序才可以調用,這樣就能夠比較好地保護用戶的隱私。

此外,整個數據的安全性也是一個很重要的技術要求,AI 系統或者用戶數據的數據庫不能輕易被黑客攻擊進來。當然,兜底還是要靠法律法規。洪老師把法律法規列在底下非常合理,就人工智能治理而言,不管是安全、隱私、公平還是就業,法律法規最終是一個兜底方。最近國家也在非常積極討論數據保護的相關法律法規,這些法律如果得以應用,對于企業是約束,對用戶是更放心的事情。未來隱私會是一個需要大家共同參與才能解決的系統化問題,法律法規也是如此。

郭銳:謝謝華夏老師。大家都對法律寄予很高的期待,各國立法者好像都在進行技術追趕,很多法律學者都開始關注這個領域,都想知道怎么樣應對人工智能帶來的問題。但是,作為一個法律人,我想說我們必須看到法律本身的特性。立法是一個緩慢的過程,可能需要集中民意,通過諸多論證之后才能完成立法。反倒是在技術和行業層面上,能夠更快地對問題做出回應。

我注意到前面幾位老師都是從現存的 AI 技術出發來思考 AI 系統及其給社會帶來的問題。我最早思考這個問題的緣起,相信和今天參與直播的很多觀眾一樣,是關注 AI 技術的潛力。我想請教一下漆遠老師:很多人真正思考 AI 倫理問題,是因為看了一些科幻電影??苹秒娪袄锩娼洺3霈F的一個場景,是 AI 的智能大大超過人類,甚至對我們的生存造成了威脅。在技術領域里面,大家對于通用人工智能甚至超級智能是否可能實現有不同的看法,我想請教漆遠,您認為通用人工智能可不可能實現,有沒有可能給我們帶來生存上的危機?再請您對這個問題的整體進行回應,一會兒有機會也想聽聽大家如何看待這個看起來有點遙遠的未來問題,下面先請漆遠老師。

1.未來能否實現通用人工智能?并非絕無可能。

2.AI 治理需要推進與法學、經濟學等結合的跨學科研究

漆遠:在一個機器學習學術的頂會里有過一個調查:你覺得什么時候通用人工智能何時會實現?即使在一個非常專業的技術會議里面,答案也是百花齊放的——有人認為五年,有人認為五十年,有人認為永遠不可能。這個反映了什么?說明對科學的預測本身是非常難的?,F在學界業界比較關注的是深度學習?,F在有個說法是“大模型即正義”。自然語言處理等模型參數從以前的百億級到現在的千億萬億級。海量的數據和計算使得大模型能力越來越強。比如使用大規模自然語言模型可以自動寫出真假難辨的新聞,——當然,這是另外一個話題,即數字生活安全與可信問題。但是面對如此強大的自然語言模型,如果我們問2+3是幾?它能回答出來,但是如果問“1525091+8747721”是多少?它就無法回答了,能力還不如一個簡單的計算器。這背后說明一個問題:從人工智能圍棋程序“Alphago”到現在一系列數據驅動的深度學習技術出來以后,很多人都對人工智能的發展比較樂觀,但其實現階段的人工智能所具備的推理能力還非常低的。

人工智能可以有很多條發展思路,現在大家看到的深度學習只是思路之一。未來把知識、人的推理能力和數據驅動的深度學習結合在一起,可能成為未來非常重要的發展方向。在這個目標沒有實現之前,也就是說在 AI 在不具備常識推理的能力時,實現真正的通用人工智能是不可能的事情。換句話說,AI 目前像一個走火入魔的練武之人,它在某一個領域特別厲害,但是稍微改一下領域,它可能會出大問題。AI 的推理能力、可解釋性都是非常關鍵的問題,如果沒有解決這些問題,我們談的通用人工智能是不太可能的。

但是從另一方面看,也不能說絕對不可能。今天我們在這一個有意思的時間點上,未來有各種可能性。如果把幾種技術思路和因素結合在一起,或許能夠在通用人工智能的路上大踏步走出一步,這誰也不知道。就像在2010年深度學習興起之前,深度學習背后的很多思路早就已經有了,但并沒有落地推廣。隨著海量數據和強大計算能力的到來,深度學習在十年間突飛猛進,被業界大量使用。我們誰都不知道會不會有新的種子點燃新的劇變。但是我們必須努力的是在人工智能技術被廣泛使用的今天,如何治理 AI 技術,保證 AI 技術的可靠和可信。打一個比方,假如我們不知道如何管理高速公路,最簡單的方法是關閉高速公路。但如此一來會降低大家通行效率。這顯而易見不是我們想要的治理方法。我們會通過建立紅綠燈等交通管理系統進行管控。類似的,我們要在發展 AI 的同時,做好 AI 治理系統和相關技術研究。而要做好這個,需要對 AI 技術與法學、經濟學等結合進行跨學科的研究和思考。跨學科的研究將有助于 AI 走向可靠的、可持續發展之路。

實通用人工智能的技術發展邊界問題

薛瀾:通用人工智能是個非常有意思的話題,我想趁這個機會問一下三位專家,假設人類實現通用人工智能以后,AI 有可能做出更多更能干、更強大的事情。但是,通用人工智能發展到某個階段,可能會對人類產生一定的威脅,在這樣的情況下,我們到底應不應該開發這項技術?一般性地討論時,大家都會說科學技術研究應該無止境、無前沿,走到哪算哪,但當我們預料到某些問題的時候是否應該按下暫停鍵?在通用人工智能技術開發方面,它的界限要不要設、應該設在哪兒?想請三位專家來幫我們解答一下。

實現通用人工智能”的說法并無現實依據;AI 技術的控制關鍵在于規制其背后的制造者

洪小文:第一,對于“實現通用人工智能”的說法我們還沒有看到任何現實依據。第二,通用人工智能至少有兩種,所謂“通用人工智能”,就比如我們人類自身,就是一種通用人工智能。我常常講,“強人工智能很弱,弱人工智能很強”,什么意思呢?弱人工智能就是專家系統(Expert System),它只能做一件事,做得比誰都好,比如做一個特定物體的辨認系統,它就只能辨認狗和貓或者犯罪嫌疑人,這叫“Narrow AI”,它很強大;但是我們呢?恰恰相反——每樣都懂一點,比如我可以談治理,可以談 AI,也可以談量子,什么都可以談,但是我除了計算機是專家,其他都不是專家,因此事實上通用人工智能是很弱的。我們的孩子也是通用人工智能,你今天會教他做所有事情嗎?當然不會,只會教他做某一件事情。所以,我覺得大家對通用人工智能不要抱以太多厚望。我們擔心的其實是“超級人工智能”(Super intelligence),比方說這個人什么都懂,什么都是世界最強,有沒有這樣的客觀存在?就目前所有對通用人工智能的研究來看一點影子都還沒有,因為今天的人工智能根本沒有具備系統化解問題的功能。試想,我們今天怎么造一個機器,讓它解一個從來沒有遇到過的新問題,讓算法自己去解問題根本不可能。我們今天很多問題無解,就拿計算機里面,NP 是不是等于 P,沒有人知道。對于某些問題,我們也根本不知道怎么解決,所以我覺得通用人工智能離我們很遠。

講到治理,談一個沒有的東西:時間機器(Time machine),怎么治理?這可能是哲學界可以討論的問題,但今天我們對它的討論不是哲學意義上的討論。對于你剛剛的問題——如果有人說他可以做出超級人工智能來,我們該不該禁止?討論這個問題前,我覺得考慮近期問題可能更為迫切,比如轉基因或者基因編輯,就是“人造人”,基因工程可以造福人類,也可以為害一方,所以哪些科技應該得到發展,這也是哲學意義上的問題。還有一點我比較有信心的,人做任何事情都希望它可控,很多人擔心我們創造的事物不可控,因此,任何一個科學家進行發明創造,沒有人希望不可控,沒有人希望最后把這個世界給毀了。除了瘋子以外沒有人會干這種事,但是怎么限制瘋子呢?這又要回歸到哲學性的探討。如果人類真的實現了通用人工智能,我們能否控制它,在于我們需要控制其制造者。

1.AI 未來發展不好預測,但是實現通用人工智的概率不是零;

2.可靠性與信任:AI 制造者負有責任,也需要將人和機器作為大系統整體來思考和分析;

3.隱私問題:協同行業共同發展“可用不可見”的隱私保護的機器學習技術,促進隱私保護與數據價值實現的平衡

漆遠:幾年前在麻省理工學院(MIT)頂尖科學家之間有一個非常好的辯論,關于通用人工智能。他們辯論的主題是——將來機器人是否能夠像牛頓和愛因斯坦等科學家一樣發現科學定律。幾年前在一個電視節目上我和伯克利的楊培東教授、清華的魯白教授和西湖大學的許田教授等人,討論過一個關于未來的技術問題。當時,我也提出了這個問題。我沒有答案,但是我感覺這是可能的。在 MIT,這是一場非常激烈的辯論,在場的研究者分為兩派,一派認為不可能、這個技術的“種子”不存在;另一派認為,為了實現這個目標,這個技術路線未來如何發展我們不得而知,但有可能實現。我們并不知道未來會具體發生什么,實現這個目標的挑戰會非常巨大,但其實概率是零的事其概率才是零。就好比在金融風險領域不存在任何情況下絕對不會發生的風險。系統可控性同樣如此,人人都想做出可控的系統,但是系統經常就在我們以為可控的時候出現不可控的情形。所以系統設計里面要留有所謂的“冗余”(Redundance),即理論上沒有問題,但工程實現的時候,要留有冗余和余地。

這里就講到信任和可靠性的問題。確實,人是第一重要的,現在的機器也是由人制造。在著名的科幻作家阿西莫夫提出的“機器人三定律”中強調,機器人必須聽從人的指令,不可以傷害人。但是,假如我們未經認真思考,對機器人下達了一些不計長期后果的指令,就完全可能發生我們沒有預料到的大規模風險。從無人駕駛到醫療服務、金融服務,機器正在參與越來越多的決策。認為只要控制住人,智能系統就沒有風險,這其實遠遠不夠的。一個原因是智能系統越來越復雜有很多無法理解的地方,所以前面我提到“可解釋性”非常重要。技術人員往往希望系統是開放透明的,能夠持續發展的。但是在技術發展成復雜系統后,就技術本身而言,普通人很難明白背后發生了什么、很難解釋技術背后的原理是什么,系統里的因果關系是什么。現實中會很難認定事故背后的真實原因,是人造成的,還是系統的哪個因素造成的。不能簡單的說,人是負責的(accountable),系統就是負責可靠的(accountable)。比如司機很稱職,但如果剎車出現故障,同樣可以導致車禍。所以需要將人和智能機器看一個大系統從整體來思考和構建可信可靠性。

數據隱私保護,是用戶保護的問題,也是一個數字經濟的發展問題。一方面涉及數據生產資料,但另一方面又事關每個用戶的權益,如何在保護用戶隱私的同時,讓 AI 發揮數據價值推動經濟持續發展,這也是一個非常關鍵的問題。隱私的反義詞可以是“透明”,透明能夠幫助信任,但就保護隱私而言,有些地方是不能透明和對外開放的。對于隱私保護來說,去標識匿名化是我們可以使用的技術方案之一。但如果將數據簡單地完全匿名化,數據所含的有用信息量也會大大減損,數據價值降低。其實數據作為一種生產資料,就像大樓的磚頭一樣,磚頭放在一起才能蓋起大樓,單個的數據點很難產生巨大價值,只有互補的數據源合在一起才能讓 AI 發揮最好的價值。

這里就引出了一個非常關鍵的問題:智能時代下的數字經濟能不能既保護隱私,又發揮數據核變的經濟推動能力?螞蟻集團在2016年開始布局隱私計算、開發相關技術,在世界范圍內我們擁有數量最多的隱私保護專利,包括“差分隱私”、“多方計算”、“可信環境計算”等技術。這些技術可以幫助數據可用不可見,但是他們有不同的安全等級。我們可以基于場景,把數據和隱私保護技術進行分析分類,把他們劃分成不同安全等級,在某些安全等級下可以用對應的某類數據和技術。每一個安全等級都有對應的代價,就像越重的汽車往往越安全,但是也消耗更高的能量。我們要基于場景需求來選擇適當的技術。最后,隱私是一個社會問題,需要更多的人來一起討論,需要來自各行業的研究者和從業者共同討論。世上沒有一個絕對的答案,就像中國文化講求的平衡發展,我們要在中間點上找到一條共同前進的路。

郭銳:我以前聽過一個笑話:有一個修車的人,他問醫生:“憑什么修車的一個月就賺這么一點錢,醫生就賺的比我們多得多?而我們做的工作是一樣的,我就是把車上面壞的部分修好,你就是把人身上壞的部分修好。”醫生說:“你是怎么修的?你把車停到修車庫,抬起車,把損壞的零件取下來,訂一個新的零件,把它裝上就好了。我怎么干我的工作?我有一個病人正在呼吸,但是我要給他肺部動一個手術,要保證他在這個過程中不能死,還要讓他減少痛苦,把這個手術做完,還要保證病人復建后很好地完成所需的一切活動,醫生的工作要比你難得多?!蔽覀冊谌斯ぶ悄芗夹g已經投入應用、而且實實在在地對社會產生影響。同時,我們還在進行技術方面的改進、實施各種治理方案,這需要我們像醫生一樣謹慎。存在各種各樣和 AI 相關的技術和治理問題——隱私的問題、公平性的問題,還涉及到透明度的問題——如何在治理的同時,還能從整體上贏得社會的信任?以下我們轉入第二個議題的討論:如何應對人工智能治理問題?先請華夏老師。

議題二:如何應對人工智能治理問題?

保障 AI 公平性——美團“助老、助殘項目”

夏華夏:很多技術我們沒法禁止,技術的發展總在往前走,只要大家知道這個地方有一個技術金礦,總有很多對未知的事情充滿好奇的學者,包括企業界的人,不斷進行探索。今天討論 AI 的治理,目的就是在技術不斷往前發展的時候能找到一些規則辦法,讓越來越先進的技術繼續走在向善的、幫助我們的用戶及社會、甚至幫助整個人類的方向上。美團把人工智能應用于生活服務的很多場景,大概包括200多種不同的生活服務功能,包括吃喝玩樂、出行游玩,每個功能里面都會涉及人工智能。我們有很多例子與公平性有關,有時候不同的人使用人工智能技術的應用效果是不一樣的,比如老人或其他殘障人士往往不會使用人工智能的工具,我們在設計人工智能應用的時候,會特別注意幫助老年人、幫助弱勢群體設計一些應用。我們有一個助老項目,專門開發一款打車程序,該 APP 字體特別大,且在 APP 的頁面里不需要輸入目的地,可以上車之后告訴司機你去哪,讓司機幫助輸入。此外,在這個程序頁面里,老年人會有一個緊急聯系人,APP 可以實時跟親屬匯報老年人的位置,這樣在年輕人來看很正常的一個 APP,老年人也能夠便利地使用。

再比如說我們有一些盲人用戶,由于看不見,他們很難使用手機上的 APP,但是為了讓一些盲人用戶能夠在美團 APP 上點餐、打車,我們為他們開發了一個語音交互頁面,這些用戶就可以完全通過語音在 APP 上點餐、打車,后來發現這樣的 APP 對很多老人、小孩也非常有用。這是在公平性方面美團所做的一點小的示例。就像洪老師說的,AI 技術本來無所謂好壞,真正決定 AI 是向善還是向惡,則是使用 AI 的工程師、企業,美團希望在內部制定這樣的規范,讓人工智能技術能夠幫助每一個用戶。

郭銳:我有一個對技術前景好奇的問題,在法律和治理領域有學者提出:可以把一些道德倫理的價值內化到代碼中,在研究或者應用中是否存在這種道德算法?

1.要慎重選擇 AI 公平性的考量標準,要全面、多層次考慮;

2.就社會角度而言,螞蟻集團開發支持弱勢群體接入數字生活的技術、實施扶貧項目以促進就業;

3.就人與自然角度而言,螞蟻集團通過 AI 實施環保項目。

漆遠:就 AI 公平性而言,從技術的角度,到社會的角度,再到人和自然的角度我來講幾個例子。首先要有向善的心,但是好心不一定辦好事。在技術上,要慎重選擇和設計 AI 公平性的考量標準。一個經典的例子:辛普森悖論——在不同層面看問題會得出完全不同的結論。比如伯克利大學在統計男生女生的入學率時發現,1973年男生錄取率40%多、女生30%多(在美國專門討論各個種族、性別的大學錄取率最能反映公平性,因為教育是最大的公平),似乎是女生被歧視了。如果再仔細看,將各個系的男女錄取比例進行比較,就會發現每個系女生錄取率不一定低男生,甚至比男生錄取率還高,這是怎么回事?聽說現在不少國外高校的錄取系統都使用了計算機輔助決策系統,如果要把道德指標寫入這算法決策系統里,怎么選定這個指標呢?是全校的男女錄取率的平衡還是每個系的男女錄取率的平衡?這是需要仔細考慮的。回到那年伯克利大學錄取的問題,背后原因是什么?分析發現大量男生申請了錄取率比較高的系,而女生普遍申請了錄取率比較低的系,從而拉低了學校范圍的女生錄取率,盡管從每個系的角度看,男女錄取比例基本一致的。如果我們錄取更多女生,讓學校范圍的男女錄取率更一致就可能導致在每個系里男生都比女生更難被錄取,會是對男生的歧視。

還有一個非常經典的例子,在美國某個州關于黑人死刑判決里面是否存在歧視有過法律分析。當時的問題是否黑人殺人更容易被判死刑?整體看好像沒什么區別,但如果按照“受害者是白人或黑人”或者“行兇人是白人或黑人”進行分類,并分開分析,就會看到一個完全不同的結論。所以要從不用層次細致分析設計算法公平性的指標,分析是否存在“辛普森悖論”, 否則也許會導致好心辦壞事。更深入而言,公平性背后一個很重要的基礎是因果分析——究竟是什么東西導致了當前情況的不一樣,是自身不努力不負責導致的問題?還是先天條件導致其受到限制?針對不同的原因,治理方案是不一樣的,背后涉及哲學和法律的思考。所以我們在設計這些系統指標時,需要哲學家,社會學家,法律學者和 AI 技術專家一起討論,把哲學法律等人文的思考和技術結合在一起,才能實現持續良性的發展。

再講個具體的例子。螞蟻集團技術上關心弱勢群體,支付寶開發了幫助弱勢用戶的功能。例如把 APP 菜單自動用語音讀出來幫助視力有障礙的人使用支付寶。另外,為了防止黑產使用機器攻擊,支付寶在用戶身份驗證時可能需要校驗碼來證明使用者是人不是機器。而對于盲人來講,由于看不見就無法完成拖拉通過校驗,就無法使用電子支付。螞蟻技術人員開發了空中手勢識別技術,可以幫助盲人通過身份校驗。螞蟻會把這個技術開源給行業,協同行業伙伴幫助更多人。

從社會的角度,我們用 AI 技術來幫助邊遠貧困地區就業。兩年前我的團隊通過“AI 豆計劃“開發一系列的 AI 工具幫助在陜西清澗當地人作數據打標。借助智能數據打標工具,沒有經驗的普通人也迅速上手。目前“AI 豆計劃”已在全國培訓了2000多名從業人員,其中困難群眾占比50%以上。讓困難群眾,尤其是貧困地區的女性,實現在家門口獲得更多就業機會。

更大的角度是從人機器和自然的關系切入,保護環境。我們的 AI 技術團隊在2019年開發了“AI 垃圾分類”小程序和智能垃圾桶,使用 AI 技術來區分干垃圾、濕垃圾等幾千種垃圾,提高垃圾回收和處理努力。我們也因此獲得聯合國綠色可持續發展“綠眼睛獎”。

郭銳:謝謝漆遠老師,漆遠老師已經把我們帶到了討論的第三個主題。由于技術的進步前沿的研究和應用都在行業里面,所以企業也許需要承擔更多的社會責任,這也是 AI 不同于傳統技術的地方。薛瀾老師在公共治理方面是真正的專家,從社會治理的角度看,我們想請薛老師就企業的社會責任給一些點評。

議題三:從 AI 倫理和治理的角度看,科技企業有什么樣的社會責任?

在 AI 治理領域,“敏捷治理”是處理政企關系的最佳方式

薛瀾:現在我們在人工智能領域討論治理問題,企業要承擔很大的責任。通常講行業治理,政府作為治理者,企業作為被治理者中間,與政府往往有種博弈關系,政府出臺一些規則以后,企業總想在遵守規則的情況下,使得企業利益最大化,甚至規避一些監管,這很常見。而人工智能領域的實際情況是,由于技術發展很快,政府作為治理者遠遠落后于企業。治理者在制定規則的過程中,技術已經往前走得很遠,永遠是一追再追(Catch up forever)。

對此,比較好的治理模式是“敏捷治理”,政府和企業都要改變觀念。如果企業發展過快,導致以公眾利益和安全為目標的政府管制無法企及。倘若此時企業出現一些問題、帶來一些危害,政府就會把管制口袋扎得很緊,甚至一下就會把企業卡死,這樣對技術的發展非常不利。怎樣使得治理者和技術發展者之間形成良性互動,這就要改變原來政企互相博弈的關系,從貓抓老鼠的關系轉變成搭檔的關系。技術發展迅速可能會帶來一些危害,如果政府沒有及時采取措施,公眾也會問責,所以政府對技術不及時下手監管,對技術發展本身也是不利的?!懊艚葜卫怼币笳c企業互相溝通,共同討論潛在風險,談判如何有意識地加以規避。鑒于不同類型的企業在不同發展階段可能考慮問題不同,所以這時尤其需要成熟企業與政府合作,建立合理的治理框架,我覺得這是最合理的治理方式。另外,如果企業出了一點小問題,政府就一下采取非常嚴厲的規制手段,對技術發展也是不利的。政企要形成互動關系,企業要比原來承擔更大的社會責任。

由于人工智能技術的復雜性,從某種程度上講更加需要強化企業的自律。較之其他行業,社會對 AI 企業自律的要求更高,只有這樣,才能夠讓人工智能技術更健康的發展。

與其擔心 AI 導致的失業問題,不如關注教育。未來在孩子的教學課程中,至少應該安排不少于6年的 AI 通識教育。

洪小文:我認為企業應當負擔更多的社會責任。第一,法律只是最低標準,企業最先接觸技術,法律在后制定管制標準,所以企業走在管制前面。微軟這幾年的轉型很成功,很大的原因在于我們在同類公司里比較值得信賴,微軟在191個國家有商務往來,尤其是2B的業務,守法是最基本的,沒有信任根本行不通。尤其是高科技方面,因為涉及多方的利益相關者,我們應該要聽取各方的想法。

第二,今天很多人把超級人工智能想像得像神一樣,但沒有影子不代表機率是零,做 AI 跟做時間機器,很難說哪一個比較難。但是,以假設實現超級人工智能的思路進行 AI 治理,完全是緣木求魚,所以治理的關鍵是契合今天的 AI 技術。我可以保證人工智能再往前發展,不管進展怎樣、能夠做到什么程度,它背后的原理永遠是“AI+HI”(人工智能加人類智慧)。我們希望這個制造群體可以做出最好的判斷。

第三,至于人工智能會不會取代一部分人類的工作,很明顯當然是會。從歷史來看,一兩百年前,90%的人從事農業工作,今天最多只有10%的人從事農業,而其他的90%并沒有失業。汽車的發明導致馬夫失業,這是技術發展的必然結果。技術更迭對職場的變化是必然的,更不要說新冠疫情更加速了這一變化,遠程會議、線上教育,數字化讓將來的工作場所可以無所不在。不管從政府角度、個人角度還是公司角度,與其擔心就業問題,更應該關注教育,數字教育不只屬于計算機專業的課程,實際對非計算機專業也一樣重要。我個人覺得,未來每個人不論文科理科,都至少接受了12年的數學教育,那么對于計算機、大數據、AI 等一些通用的數字技能而言,至少應該安排6年的通識教育,這不是自由班教育,而是大家所必備的基本的數字技能。此外,還要鼓勵每個人終身學習。因為對于 AI 而言,10年前學習的東西和現在完全不一樣。當然,還需要很好地職業技能匹配及認證系統,幫助大家進修以后找到更好的工作。

第四,牛津大學經濟學家講過,“The purpose of business is to produce profitable solutions to the problems of people and planet”(商業的目的不僅是利潤,而是要能夠創造解決人類和地球的問題的解決方案)。怎么樣讓 AI 解決人類的大問題,還可以實現盈利,這是每個企業都要考慮的。比如為節能減碳,微軟去年提出“負碳”的承諾,到2030年實現碳的負排放,到2050年消除公司從1975年成立以來的碳排放總合。要做到負排放,首先要做到零,不是通過買碳稅,而是要讓包括云計算在內的所有的產品,都做到百分之百的零碳排放;在硬件軟件的制造上,不僅要用再生能源,而且要更省能源;同時幫助我們的伙伴以及客戶,減少他們的碳排放。當然,面對地球環境和氣候的挑戰,僅僅減少碳排放還不夠,碳排放即使達到零,在大氣層中怎樣回收、怎么樣捕捉碳排放,這也需要企業拿出資源資來,一起治理我們的環境,不僅為我們自己,也為我們的子子孫孫。

郭銳:今天的科技企業和傳統大企業相比,還有一個不同的地方,就是每一個“頭部大企業”,包括美團、微軟、螞蟻等,最初都是建立在滿足社會需求的愿景之上。比如在金融服務領域,因為有了支付寶,大大減少了人們去****的頻率。再比如在“新冠”疫情期間,如果沒有美團外賣或者買菜等智能服務,整個城市都會停止運轉,正是因為有了這樣的新科技,讓我們這個城市在經歷這么一場巨大挑戰的時候,我們能夠挺過來。剛才漆遠老師講到驗證碼的問題,我也特別有感觸。我在人民大學教授殘障法,我們會邀請很多盲人朋友到課上分享經驗或者給我們提供一些具體案例,曾經有一位盲人朋友分享在買火車****的時候,某款 APP 的驗證碼操作非常復雜,讓沒有視力殘障的朋友使用起來都很麻煩,這導致他幾乎沒有辦法從手機上買****。去趟火車站,困難又非常大。因此,支付寶的驗證碼真的是解決了非常實際的問題,這些都是科技企業承擔社會責任的表現。正如薛老師剛才所講,企業在“敏捷治理”里回應社會的呼聲,的確是單純的政府管理所無法取代的。

*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



關鍵詞: AI

相關推薦

技術專區

關閉