人性:下一個AI的里程碑
3月18日,斯坦福以人為本 AI 研究院(Stanford HAI)成立了。斯坦福利用 HAI 評估智能機器對人類生活所造成的影響,包括機器自動化取代了部分人力工作,算法引起的性別和種族偏見,醫療、教育和司法系統中存在的 AI 問題。在研究院的發布會上,聯合主任李飛飛強調了 HAI 需要秉持“以人為本”的初衷,提出了三點:
本文引用地址:http://www.j9360.com/article/201903/398743.htm1)發展 AI 的過程中必須考慮 AI 對人類社會的影響;
2)AI 的應用是為了賦能人類,而非取代人類;
3)人工智能應該更多融入人類智慧的多樣性、差異性和深度。
技術飛速發展,人工智能對教育、科技、衛生和可持續發展等方面都起了關鍵性助力作用。但同時,人工智能也給人類提出了一系列復雜的挑戰。關于上述三個原則,李飛飛希望:智能機器更加以人為本,懷有善意。
什么是“以人為本”?
根據李飛飛提到的三點原則進行解讀。第一點,作為技術的發明者,人類應該正確的引導AI的發展,更好地服務人類。比如在數據安全、隱私保護、社會倫理、知識產權等各個問題上,由世界性的權威組織制定嚴格的標準和法規,減少AI帶來的潛在的威脅,這已經基本達成共識。
關于第二點,自人工智能誕生以來,“人類會不會被AI取代”、“AI會不會毀滅世界”等聳人聽聞的問題時常被提起。作為一項技術,AI應當是中性的,技術是用來服務人類的。從大的方向來看,AI不斷進化它的判斷和感知技能,在比較簡單、重復性、危險性的工作上幫助人類,而人類的能力可以更加專注于更高層次的人物,偏向創造性和感性的部分,最終更有意義。
最后,近年來,AI發展出了計算機視覺、語音識別等能力,但在實際生活中,AI遠遠落后于神經元、人類智能的豐富和靈活性。例如,阿爾法狗擊敗了世界冠軍,但它無法從勝利中感受到喜悅,也不會在勝利后產生擁抱心所愛之人的渴望。例如,AI可以在一張照片中得知圖片中的內容是什么,但是不能輕易識別圖片背后的故事的因果關系。人工智能需要變得更有情感意識,加強對情感和情緒的認知,不僅能夠捕捉對人的情感,更需要讓機器跟人進行情感的表達。
人性化AI無處不在

我國的人工智能正處在快速發展的時期,技術攻關和產業應用近幾年來發展勢頭迅猛,目前已經被廣泛應用于語音識別、計算機視覺、機器人、語言處理等領域,代表性產品包括曠視科技的“FaceID在線人臉身份驗證”、極鏈科技的“VideoAI視頻應用系統”、優必選的“個人智能機器人悟空”等。隨著AI更加深度、多樣性,具有情感的細膩,將在產業應用中帶來更多維度的發展。
例如,使用情感AI幫助人們利用強大的技術建立與其他人的聯系在醫療行業已經逐步應用。在自閉癥這一醫學難癥中,AI技術能夠實現與自閉癥兒童進行反饋,集成反饋的數據,為定制治療方案提供支撐。利用AI機器可以促進自閉癥兒童和日常接觸人之間的溝通,教會自閉癥的人讀懂他人細微的情緒;另外,還能夠幫助身邊的人更好的識別自閉癥兒童情緒。
AI在聽說讀寫、推理等方面的能力、效率和準確度持續提升,也可以為視覺、聽覺、感知、學習、行動能力有所不便的人群,打造出人工智能應用和產品。例如,利用微軟的人工智能技術和認知服務中的Microsoft Translator 服務,實現自動語音識別解決方案,可以幫助聽力受損人群無障礙溝通。AI技術有希望幫助世界各地超過10億殘障人士,打造一個完整、平等、便利的世界。
類似的應用在教育場景下,AI也能發揮無限量的作用。AI可以通過學生的面部表情和姿勢對情緒作出有根據的判斷,衡量每個學生的理解程序,可以幫助老師因材施教。
人類準備好了嗎?

隨著人類越來越依賴于機器智能,我們的責任觀念將會變成什么樣?人工智能的生成物是否為作品,是否有著作權的問題?自動駕駛的安全性、責任認定等法律問題不斷涌現,人工智能干預的事故應當如何定責?甚至是否賦予機器人以虛擬的“法律主體資格”?還有很多重要的應用領域,如安防,如果系統出現原則性決策失誤,如何判定?如何讓人工智能可解釋、可說明?
智能機器觸發的人們對隱私、安全的擔憂,該如何規避?AI的大幅度應用對就業的影響該如何權衡?在人工智能不斷走進生活的過程中,人類真的準備好了嗎?
這需要政策制定者、法律學者、倫理學家、科學家,大家一起尋找答案。但現狀很顯然,人工智能安全健康發展法規和倫理道德研究尚且不足,相應的法律法規以及道德規范要求還不健全,我們還不能有效防范控制潛在的安全風險。科學向善,AI以人為本,我們需要考慮的事情還很多。
小結:
與所有顛覆性技術一樣,新一代人工智能具有高度的不確定性,可能有很長的一段時間是不完美的,需要政府、社會、企業共同努力,規范人工智能的發展。但有一點是很肯定的,技術的產生,是為了讓人類生活的更好,我們要幫助AI更加人性化,擁有更好的未來。
評論