曠視發布《人工智能應用準則》 涉及數據安全等六項
據報道,曠視科技發布基于企業自身管理標準的《人工智能應用準則》(以下簡稱《準則》)。
本文引用地址:http://www.j9360.com/article/201907/402905.htm《準則》提到6項人工智能應用準則:正當性、人的監督、技術可靠性和安全性、公平和多樣性、問責和及時修正、數據安全與隱私保。曠視表示,希望對人工智能正確有序發展作出明確規范,同時給出相應干預措施或指導意見,確保人工智能能夠在可控范圍內持續發展。
《準則》全文如下:
《人工智能應用準則》
1、正當性:技術應該是一種正面的力量。我們致力于成為一個負責任的企業公民,遵守適用的法律和普遍接受的道德原則,增進社會福祉。
2、人的監督:人工智能不應該超越人的自主性。人類應該能夠監督人工智能技術的發展以及人工智能系統的決策,并在必要時進行干預。
3、技術可靠性和安全性:人工智能解決方案應該能夠做出準確有效的決策,同時對外部攻擊具有足夠的安全性和防御力。人工智能解決方案應該進行廣泛的測試,謹慎使用并嚴格監控。
4、公平和多樣性:人工智能技術的開發人員應盡量減少人工智能解決方案的系統性偏差,這種系統性偏差可能來自于用于開發解決方案的數據和算法中固有的偏差。無論年齡,性別,種族或其他特征如何,所有人都應該可以使用人工智能解決方案。
5、問責和及時修正:人工智能解決方案應該是可審核、可追責的。人工智能解決方案的錯誤、缺陷、偏見或其他負面影響,一經發現,應立即予以承認并積極地加以處理。
6、數據安全與隱私保護:人工智能解決方案的開發及使用過程中,需嚴格保護用戶的個人隱私、保障數據安全。
評論