CES期間,IEEE圓桌討論闡釋AI如何贏得我們的信任
總結(jié)
● 隨著人工智能生成內(nèi)容的真?zhèn)斡l(fā)難以甄別,出席2026年國際消費(fèi)電子展(CES)的IEEE(電氣電子工程師學(xué)會)專家指出,當(dāng)下信息的可信度,已不再取決于內(nèi)容本身,而是更多取決于“信息供應(yīng)鏈”以及信息來源的聲譽(yù),而非內(nèi)容本身。
● 由于用戶不得不將對信息的信任寄托于各類“真相代理媒介”,品牌方與人工智能設(shè)計(jì)者因此被要求承擔(dān)更高標(biāo)準(zhǔn)的倫理責(zé)任,以保護(hù)人的自主性與判斷力。
試想一下,如果你不喜歡的某個人分享給你一首歌曲或一篇新聞,你或許會直接不屑一顧。但倘若同樣的內(nèi)容,之后是由你信任的導(dǎo)師分享而來,你的反應(yīng)很可能就會發(fā)生轉(zhuǎn)變 —— 這并非因?yàn)閮?nèi)容本身有任何不同,而是因?yàn)樾畔碓醋兞恕D敲矗?dāng)人工智能成為內(nèi)容的分享者乃至創(chuàng)作者時,這又意味著什么呢?
隨著人工智能生成內(nèi)容的技術(shù)愈發(fā)成熟,內(nèi)容真?zhèn)蔚暮蓑?yàn)難度也隨之加大。專家們認(rèn)為,公眾對信息的信任度,如今不再單純建立在事實(shí)本身的基礎(chǔ)上,而是取決于圍繞內(nèi)容形成的社會與機(jī)構(gòu)關(guān)聯(lián)。
內(nèi)容本身,與賦予其可信度的各類關(guān)聯(lián)之間存在的矛盾張力,正是本月初IEEE在拉斯維加斯舉辦的2026年國際消費(fèi)電子展(CES)上,一場題為《智能內(nèi)容時代下的信任、透明度與協(xié)同共創(chuàng)》專題研討會的核心議題。
這場研討會由IEEE Fellow Karen Panetta擔(dān)任主持人,與會嘉賓包括:人工智能研究機(jī)構(gòu)AI:OK創(chuàng)始人、作家、愛爾蘭都柏林城市大學(xué)高級人工智能研究員兼IEEE全球人工智能倫理藝術(shù)委員會創(chuàng)始主席Martin Clancy,IEEE學(xué)生會員Max Lu,以及Cox Communications公司人工智能部門負(fù)責(zé)人Eric Pace。

用戶對人工智能的認(rèn)知現(xiàn)狀
在探討人工智能的信任、透明度或倫理問題之前,存在一個更為基礎(chǔ)的議題:大多數(shù)用戶對人工智能系統(tǒng)生成答案的過程,僅有片面的認(rèn)知。
人們知道人工智能需要通過數(shù)據(jù)進(jìn)行訓(xùn)練,也知道它能產(chǎn)出令人驚嘆的結(jié)果。但大家往往不太了解的是,早在模型部署應(yīng)用之前,這些結(jié)果就已經(jīng)依賴于人類的判斷。開發(fā)者必須先定義清楚,什么樣的結(jié)果才算得上是“正確”的。在人工智能的開發(fā)流程中,這種作為參照標(biāo)準(zhǔn)的答案或標(biāo)簽被稱為基準(zhǔn)真值(ground truth) —— 也就是系統(tǒng)在訓(xùn)練過程中需要學(xué)習(xí)和遵循的、經(jīng)過共識確認(rèn)的答案或標(biāo)注。
而要達(dá)成這種共識,往往并非易事。
Karen Panetta結(jié)合自己教授人工智能系統(tǒng)識別醫(yī)學(xué)影像的工作,給出了一個具體案例。在一個項(xiàng)目中,醫(yī)生們在研判影像是否顯示存在癌癥這一問題上,達(dá)成了廣泛共識。這種統(tǒng)一的判斷,為訓(xùn)練人工智能模型奠定了可靠的基礎(chǔ)。但當(dāng)要求這些醫(yī)生評估癌癥的嚴(yán)重程度時,他們的觀點(diǎn)往往會出現(xiàn)巨大分歧。缺乏共識的情況下,本應(yīng)作為系統(tǒng)學(xué)習(xí)依據(jù)的基準(zhǔn)真值,也就變得模糊不清了。
Panetta表示:“作為一名人工智能、數(shù)據(jù)庫及基準(zhǔn)真值的構(gòu)建者,我當(dāng)時根本不知道該如何為這個問題設(shè)定基準(zhǔn)真值。”
真相的代理媒介
研究員Lu曾協(xié)助多家主流新聞機(jī)構(gòu)部署人工智能系統(tǒng),他解釋道,由于我們無法憑借自身能力區(qū)分人工智能生成圖像與真實(shí)圖像,便不得不將判斷真相的權(quán)力,寄托于各類“代理媒介”,而非依賴自己的感官。
Lu表示:“若想驗(yàn)證一張圖像的真?zhèn)危憔捅仨殞⑦@份信任托付給比你更具專業(yè)判斷能力的對象 —— 無論是聊天機(jī)器人、專業(yè)新聞機(jī)構(gòu),還是親友。”
信任與品牌
消費(fèi)者處于人工智能驅(qū)動的信息供應(yīng)鏈末端。一段內(nèi)容或許由某個人工智能生成,但還會有其他人工智能對其進(jìn)行編輯、翻譯,并決定內(nèi)容的受眾群體。Pace指出,消費(fèi)者無從知曉這些決策是如何制定的,因此他們會默認(rèn)信任信息的最終傳播方。這就意味著,品牌方有責(zé)任在整個媒體生態(tài)中,踐行符合倫理規(guī)范的人工智能應(yīng)用準(zhǔn)則。
Pace表示:“我的看法是,人們會信任自己獲取信息的最終渠道,對吧?在此之前的整條信息供應(yīng)鏈對你而言其實(shí)無關(guān)緊要,因?yàn)槟阃耆珱]有能力去審查這條供應(yīng)鏈。”
以倫理設(shè)計(jì)為核心
Clancy是The Voice of the Artist in the Age of the Algorithm這份報(bào)告的合著者之一,該報(bào)告是IEEE標(biāo)準(zhǔn)協(xié)會“Ethically Aligned Design”倡議的成果之一。他表示,人工智能設(shè)計(jì)者需要恪守更高的責(zé)任標(biāo)準(zhǔn),因?yàn)橛脩粼谑褂萌斯ぶ悄芟到y(tǒng)的過程中,會讓渡一定程度的自主權(quán)(https://sagroups.ieee.org/global-initiative/wp-content/uploads/sites/542/2022/07/ead-artists.pdf)。
Clancy說:“當(dāng)我使用人工智能時,我是在有意識地把自己的自主決策權(quán)交給這個‘黑箱’,因?yàn)槲倚枰@得幫助。所以我很想知道,平臺該如何應(yīng)對人類與技術(shù)共同催生的新行為。”
研討會最終得出結(jié)論:盡管人們正愈發(fā)頻繁地將信任寄托于各類社會代理媒介,但個體依然擁有塑造自身信息環(huán)境的主動權(quán)。正如Lu所言,我們?nèi)缃裾幱谝粋€“前所未有的有利位置” —— 能夠推動這些系統(tǒng)為人類服務(wù),借助人工智能去探索世界的復(fù)雜性,而非滿足于非黑即白的簡單敘事。









評論