美國人工智慧(AI)公司 OpenAI 正尋找一位新的「應變準備主管」(Head of Preparedness),年薪超過 50 萬美元,專責降低 AI 可能帶來的負面影響,包括工作流失、錯誤資訊、惡意使用、環境破壞及人類自主性受侵等風險。
根據《Business Insider》報導,該職位隸屬於 OpenAI 的安全系統團隊,負責為公司 AI 模型開發防護措施、框架與評估。職位年薪上看 55.5 萬美元,外加公司股權。
OpenAI 職位描述指出,「應變準備主管」將主導 OpenAI 應對準備框架的技術策略與執行。該框架用以說明 OpenAI 如何追蹤並準備應對尖端 AI 技術能力所帶來的新型嚴重風險。
「應變準備主管」將直接負責建立與協調能力評估、威脅模型及緩解措施,形成完整、嚴謹且可操作擴展的安全流程。
根據 OpenAI,這個職位需要具備深厚的技術判斷力、清晰的溝通能力,以及在多個風險領域中指導複雜工作的能力。
「應變準備主管」將領導一支小型但高影響力的團隊,推動核心應對準備研究,同時與 OpenAI 的安全系統及其他部門廣泛合作,確保框架的端到端採用與執行。
OpenAI 的前應變準備主管 Aleksander Madry 於 2024 年 7 月轉任新職位。
OpenAI 執行長 Sam Altman 在社群平台 X 表示,這份工作「壓力極大」,入職後將立即面臨挑戰。
他指出:「模型正在快速進步,現在已能完成許多了不起的任務,但同時也開始帶來一些實際挑戰。」
Altman 指出:「我們在 2025 年就已經看到模型對心理健康可能造成的影響的預覽;而如今,我們才看到模型在電腦安全領域的能力已經如此強大,以至於開始能發現關鍵漏洞。」
OpenAI 的 ChatGPT 推動 AI 聊天機器人在消費者中的普及,許多人使用這項技術來查詢資訊、撰寫電子郵件、規劃行程或完成其他簡單任務。
然而,部分用戶也將聊天機器人當作心理諮商的替代工具,在某些情況下反而加劇心理健康問題,甚至助長妄想或其他令人擔憂的行為。
OpenAI 表示,早在 10 月就已開始與心理健康專業人士合作,改進 ChatGPT 與出現異常行為(包括精神病或自傷傾向)用戶的互動方式。
OpenAI 的安全文化與前員工辭職帶來的隱憂
OpenAI 核心使命是發展造福全人類的 AI,但隨著產品推出與獲利壓力增大,部分前員工指出,公司曾一度將安全放在次要位置。
OpenAI 前安全團隊負責人 Jan Leiki 在 2024 年 5 月於 X 發文宣布辭職時指出,公司已經偏離了確保技術安全部署的使命。
他表示:「打造超越人類智慧的機器本質上是一項極具風險的工程。OpenAI 代表全人類承擔巨大的責任,但過去幾年,安全文化與流程已退居次位,讓位給那些光鮮亮麗的產品。」
另一位前員工 Daniel Kokotajlo 也在部落格中提到,他在 2024 年辭職的原因是「對公司在通用人工智慧(AGI)方面的負責態度失去信心」。
Kokotajlo 指出,OpenAI 原先約有 30 名員工專注於 AGI 的安全研究,但陸續有人離職後,相關人力幾乎減半。
新聞來源 (不包括新聞圖片): 鉅亨網