久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計算 > 業界動態 > OpenAI 在立法者權衡未成年人 AI 標準之際,為 ChatGPT 增加了新的青少年安全規則

OpenAI 在立法者權衡未成年人 AI 標準之際,為 ChatGPT 增加了新的青少年安全規則

作者: 時間:2025-12-22 來源: 收藏

為應對對對青少年影響日益增長的擔憂,周四更新了其關于如何與18歲以下用戶互動的指導方針,并發布了面向青少年和家長的新AI素養資源。然而,關于這些政策能否持續轉化為實踐,仍有疑問。

這些更新發布之際,行業整體,尤其是,正面臨政策制定者、教育者和兒童安全倡導者的更多關注,此前有多名青少年據稱在與長時間對話后自殺身亡。

Z世代,包括1997年至2012年出生者,是Open最活躍的用戶。隨著最近與迪士尼的合作,可能會有更多年輕人涌入該平臺,平臺允許你從請求作業幫助到生成數千主題的圖片和視頻。

上周,42個州總檢察長聯名致信大型科技公司,敦促他們對聊天機器人實施保護措施,以保護兒童和弱勢群體。隨著特朗普政府制定聯邦人工智能監管標準的具體形態,像密蘇里州共和黨參議員喬什·霍利這樣的政策制定者提出了立法,全面禁止未成年人與人工智能聊天機器人互動。

OpenAI更新后的模型規范,為其大型語言模型制定了行為準則,基于現有規范,禁止模型生成涉及未成年人的性內容,或鼓勵自殘、妄想或躁狂。這將與即將推出的年齡預測模型協同工作,該模型將識別賬戶是否屬于未成年人,并自動實施青少年保護措施。

與成人用戶相比,當青少年使用模型時,這些模型會受到更嚴格的規定約束。模特被指示避免沉浸式浪漫角色扮演、第一人稱親密以及第一人稱性或暴力角色扮演,即使這些內容并非血腥。規范還要求在身體形象和飲食失調等話題上格外謹慎,并指示模型在涉及傷害時優先溝通安全而非自主權,避免提供幫助青少年隱瞞不安全行為的建議。

OpenAI明確指出,即使提示被框定為“虛構、假設、歷史或教育性”——這些常見策略依賴角色扮演或極端情境,促使AI模型偏離其指導原則。

事實勝于雄辯

1766366307449109.jpeg

OpenAI表示,青少年的關鍵安全實踐基于四個指導模型方法的原則:

  1. 放在首位,即使“最大知識產權”等其他用戶利益與安全問題相沖突;

  2. 通過引導青少年向家人、朋友和當地專業人士尋求福祉,促進現實世界的支持;

  3. 以溫暖和尊重的態度對待青少年,而不是居高臨下或把他們當成年人對待;以及

  4. 要透明地解釋助理能做什么不能做什么,并提醒青少年他不是人類。

文檔還舉了幾個聊天機器人的例子,解釋為什么它不能“扮演你的女朋友”或“幫助極端外貌變化或冒險捷徑”。

隱私與人工智能律師、Metaverse Law創始人Lily Li表示,看到OpenAI采取措施讓其聊天機器人不再參與此類行為,令人鼓舞。

她解釋說,倡導者和家長對聊天機器人最大的抱怨之一是它們以一種可能讓青少年上癮的方式不斷推動持續參與,她說:“我很高興看到OpenAI在部分回復中表示,我們無法回答你的問題。我們看到這種情況越多,我覺得這就能打破導致大量不當行為或自殘的惡性循環?!?/p>

不過,這些例子只是 OpenAI 安全團隊希望模型表現的精選實例。諂媚,即對用戶過于順和的傾向,在之前的模型規范版本中被列為禁止行為,但仍然表現出這種行為。這在GPT-4o身上尤為明顯,該模型被專家們稱為“人工智能精神病”的多個案例關聯在一起。

Common Sense Media的人工智能項目高級總監Robbie Torney(致力于保護數字世界中兒童的非營利組織)對Model Spec中18歲以下指導方針可能存在沖突表示擔憂。他強調了以安全為中心的條款與“無話題禁區”原則之間的矛盾,后者要求模型無論敏感性如何都必須涉及任何話題。

“我們必須理解規范的不同部分如何相互配合,”他說,指出某些部分可能推動系統更注重參與而非安全。他表示,他的組織測試顯示,經常反映用戶的能量,有時導致回答在上下文中不合適或與用戶安全不符。

以亞當·雷恩為例,一名青少年在與進行了數月對話后自殺身亡,聊天機器人確實進行了這種鏡像,他們的對話顯示了這一點。該案還揭示了OpenAI的審核API未能防止不安全和有害的互動,盡管它標記了超過1000次ChatGPT提及自殺的實例和377條包含自殘內容的信息。但這并沒有阻止亞當繼續和ChatGPT聊天。

在去年九月接受TechCrunch采訪時,前OpenAI安全研究員Steven Adler表示,這是因為歷史上OpenAI是事后批量運行分類器(自動標記和標記內容的系統),而非實時運行,因此未能正確限制用戶與ChatGPT的交互。

根據公司更新的家長控制文件,OpenAI 現在使用自動分類器實時評估文本、圖片和音頻內容。這些系統旨在檢測和屏蔽與兒童性虐待內容相關的內容,過濾敏感話題,并識別自殘行為。如果系統標記出提示存在嚴重安全隱患,一支由專業人員組成的小型團隊會審查該標記內容,判斷是否有“急性痛苦”跡象,并可能通知家長。

托尼贊賞OpenAI近期在安全方面的舉措,包括對18歲以下用戶發布指南的透明度。

“并非所有公司發布政策指南的方式都相同,”托尼指出Meta泄露的政策指南顯示該公司允許聊天機器人與兒童進行感官和浪漫的對話?!斑@就是支持安全研究人員和公眾理解這些模型實際運作方式及其應當如何運作的透明度示例?!?/p>

不過,最終重要的是AI系統的實際行為,阿德勒周四告訴TechCrunch。

“我很欣賞OpenAI對預期行為的深思熟慮,但除非公司衡量實際行為,否則意圖最終都只是空談,”他說。

換句話說:這次公告缺少的是ChatGPT是否真正遵循模型規范中規定的指導方針的證據。

范式轉變

1766366373569034.jpeg

專家表示,憑借這些指導方針,OpenAI似乎有望搶先某些立法,比如加州最近簽署的SB 243法案,規范AI伴隨聊天機器人,該法案將于2027年生效。

該范例的新語言語言反映了該法中禁止聊天機器人參與自殺意念、自殘或性露骨內容對話的主要要求。該法案還要求平臺每三小時向未成年人提供提醒,提醒他們正在與聊天機器人對話,而非真人,并應休息。

當被問及ChatGPT多久提醒青少年他們正在與聊天機器人聊天并請求休息時,OpenAI發言人未透露細節,只表示公司訓練模型以AI自我表現并提醒用戶這一點,并且在“長時間會話”期間實現休息提醒。

公司還分享了兩款面向家長和家庭的人工智能素養新資源。這些建議包括開場白和指導,幫助家長與青少年討論人工智能能做什么和不能做什么,培養批判性思維,設定健康的界限,并應對敏感話題。

綜合來看,這些文件正式確立了一種與照護者共同承擔責任的方法:OpenAI明確了模型應做什么,并為家庭提供了一個監督其使用方式的框架。

對父母責任的關注值得注意,因為它反映了硅谷的說法。在本周發布的硅中,風險投資公司Andreessen Horowitz建議對兒童安全采取更多披露要求,而非限制性要求,并將責任更傾向于父母責任。

OpenAI的幾個原則——價值觀沖突時安全第一;推動用戶獲得現實支持;這強化了聊天機器人不是人——被當作青少年護欄來表達。但已有多名成年人自殺并遭受危及生命的妄想癥,這引發了一個顯而易見的后續問題:這些默認規定是否應普遍適用,還是OpenAI僅在涉及未成年人時才愿意執行?

OpenAI發言人反駁稱,該公司的安全措施旨在保護所有用戶,稱模型規范只是多層次戰略中的一個組成部分。

李表示,到目前為止,關于法律要求和科技公司的意圖,情況有點像“狂野西部”。但她認為,像SB 243這樣的法律,要求科技公司公開披露其保障措施,將改變這一范式。

李說:“如果公司在網站上宣傳已有這些保障措施和機制,卻又不落實實施這些措施,法律風險將會顯現?!薄耙驗閺脑娴慕嵌葋砜?,你不僅僅是在看標準的訴訟或法律投訴;你還面臨潛在的不公平、欺騙性廣告投訴?!?/p>



評論


相關推薦

技術專區

關閉