a一级爱做片免费观看欧美,久久国产一区二区,日本一二三区免费,久草视频手机在线观看

新聞中心

EEPW首頁 > 智能計算 > 業界動態 > 算法當道!為什么人類和人工智能越來越像?

算法當道!為什么人類和人工智能越來越像?

作者: 時間:2019-01-24 來源:網易智能 收藏
編者按:算法告訴我們該如何思考,而這正在改變我們。隨著計算機學會如何模仿,我們是否正開始變得越來越像它們呢? 

  算法告訴我們該如何思考,而這正在改變我們。隨著計算機學會如何模仿,我們是否正開始變得越來越像它們呢?

本文引用地址:http://www.j9360.com/article/201901/397078.htm

  硅谷正越來越多地預測人們會如何回復電子郵件,會對某人的Instagram照片做出什么樣的反應,越來越多地決定人們有資格享受哪些政府服務,不久以后,即將到來的谷歌語音助理Google Assistant將能夠為人們實時打電話預約理發師。

  從醫院到學校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統所環繞。幾行代碼即可告訴我們應該看什么媒體內容,與誰約會,甚至告訴司法系統應該把誰送進監獄。

  我們把如此之多的決策權和控制權交給這些程序,是對的嗎?

  我們之所以癡迷于數學程序,是因為它們能對一系列錯綜復雜的問題給出快速而準確的答案。機器學習系統已經被應用于我們的現代社會的幾乎每一個領域。

  算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機器正在快速而出色地學習人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現在生活在由預測性技術主宰的空間里。

  通過分析整理海量的數據,給我們提供即時且相關的結果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數據,讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。

  谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數據,并指導利用收集到的信息來適應我們的需求,變得更像我們。然而,隨著我們習慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機呢?

  “算法本身并不公平,因為構建模型的人定義了成功。”——數據科學家凱茜·奧尼爾(Cathy O’Neil)

  按照當前這樣的技術發展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導或支配。事實上,這已經在發生了。

  去年10月,谷歌為旗下郵箱服務Gmail推出了名為“Smart Reply”的智能回復功能,意在幫助你編寫回信或者快速回復。此后,該助理功能在互聯網上掀起了一場風暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機器,甚至有人認為,它的回復最終可能會影響我們的交流方式,甚至可能改變電子郵件的規范。

  算法的主要問題在于,隨著它們變得如此巨大而復雜,它們會開始給我們當前的社會帶來負面影響,會危及民主。隨著機器學習系統在社會的許多領域變得越來越普遍,算法會統治世界,接管我們的思想嗎?

  現在,讓我們來看看Facebook的做法。早在2015年,他們的新版News Feed信息流的設計初衷就是篩選用戶的訂閱內容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點贊、分享和評論的內容相關的東西。

  “個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現實生活中,大多數人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨特的世界,它們本身就是一個獨特的現實。

  過濾氣泡使得公開論證變得越來越困難,因為從系統的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進傳播和用戶的互動。”

  過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習慣。我們已經知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進一步惡化,最終損害了民主。有證據表明,算法可能影響了英國公投或2016年美國總統大選的結果。

  “Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上。”——硅谷投資人羅杰·麥克納米(Roger McNamee)

  在無時無刻都充斥著大量信息的當今世界,篩選信息對一些人來說是一個巨大的挑戰。如果使用得當,可能會增強人們的在線體驗,或幫助人們迅速處理不斷增長的內容資訊負荷。然而,要能夠正當運作,算法需要關于真實世界中發生的事情的準確數據。

  公司和政府需要確保算法的數據不存在偏見,且是準確的。由于沒有什么是完美無瑕的,存在自然偏差的數據估計已經存在于許多的算法中,這不僅給我們的網絡世界帶來了危險,也給現實世界帶來了危險。

  倡導實施更強有力的監管框架是必要的,這樣我們就不會陷入技術上的蠻荒。

  我們也應該非常謹慎于我們賦予算法的能力。人們正變得越來越擔心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用可能會增加偏見,造成對少數族裔的歧視,因為它會考慮到“風險”因素,比如人們所在的社區以及與犯罪的關聯性。這些算法可能會犯下災難性的系統性錯誤,把現實中無辜的人類送進監獄。

  “我們有失去人性的危險嗎?”

  安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點擊這里殺死所有人》(Click Here to Kill Everybody)中寫道,“如果我們讓計算機為我們思考,而底層的輸入數據是糟糕的,那么它們會進行糟糕的思考,而我們可能永遠都不會察覺。”

  英國倫敦大學學院的數學家漢娜·弗萊(Hannah Fry)帶領我們進入了一個計算機可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In the Age of Algorithms)中,她認為,作為公民,我們應該更多地關注鍵盤后面的人,即那些編寫算法的人。

  “我們不必創造一個由機器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進入這樣一個世界。”她說道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”

  現在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內都不會。人類和機器可以結合各自的優勢和劣勢一起運作。機器有缺陷,會犯和我們一樣的錯誤。我們應該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現在是人類固有的一部分,它們不會在短時間內消失。



關鍵詞: 人工智能

評論


相關推薦

技術專區

關閉