OpenAI陷入安全危機:攻擊者成功入侵內部消息系統
位于舊金山的人工智能巨頭OpenAI,近日陷入了一場安全危機。據外媒報道, 2023年年初OpenAI發生安全事件,攻擊者成功入侵OpenAI的內部消息系統,竊取了有關該公司人工智能技術和研究材料的敏感討論,但黑客并未進入托管人工智能源代碼的服務器。
本文引用地址:http://www.j9360.com/article/202407/460755.htm由于沒有泄露客戶數據,OpenAI并沒有披露本次安全事件,也沒有向任何執法部門報告,只是在去年4月的全體員工大會上通報了這一漏洞。這一事件不僅暴露了OpenAI在網絡安全方面的潛在漏洞,更引發了外界對人工智能技術安全性的廣泛擔憂。
本次安全事件導致員工質疑OpenAI對安全的重視程度,且成為新的導火索,導致了內部員工出現分裂。OpenAI原技術項目經理Leopold Aschenbrenner曾向董事會發送備忘錄,提出了安全擔憂,認為OpenAI在防止其技術機密被盜方面做得不夠。然而,他隨后被解雇,這一舉動進一步加劇了外界對OpenAI內部管理和安全策略的質疑。
值得注意的是,OpenAI發言人Liz Bourgeois回應稱Leopold的離職并非源于此,并表示“雖然我們和他一樣致力于打造安全的通用人工智能,但我們不同意他后來對我們的工作提出的許多說法,包括他對我們安全措施的描述,尤其是這次入侵事件。在他加入公司之前,我們已經解決了這個問題,并向董事會報告?!?/span>
簡單事實是,AI公司已經成為非常有價值數據的看門人,包含三種數據:高質量的訓練數據、大量用戶交互以及客戶數據。就像其他任何SaaS產品一樣,AI提供者具有特權訪問權限,可能是一些枯燥的舊預算表或人員記錄,也可能是一些尚未發布的軟件代碼。AI公司突然成為這些機密的核心,這一行業的新穎性帶來了一個特殊風險,因為AI流程尚未被標準化或完全理解。
但也許更有價值的是OpenAI龐大的用戶數據庫 —— 可能包含數十億與ChatGPT進行的數百萬話題的對話。今年5月,OpenAI表示已經阻止了五次試圖濫用其AI模型進行網絡欺騙活動的行為,暴露了即便是行業巨頭也可能面臨嚴重的安全威脅。AI公司成為黑客攻擊目標的新趨勢,安全防護措施重要性凸顯,即使沒有嚴重數據泄露,也應引起關注。
這一事實表明,人工智能技術不僅面臨被竊取的風險,還可能被惡意利用,對社會造成更廣泛的負面影響。如何在推動技術創新的同時,確保AI系統的安全性和可控性,成為了全球科技界和政策制定者需要共同面對的挑戰。
評論