a一级爱做片免费观看欧美,久久国产一区二区,日本一二三区免费,久草视频手机在线观看

新聞中心

EEPW首頁 > 智能計算 > 業界動態 > 科技公司史上第一次:Meta開源GPT3參數大小的AI模型

科技公司史上第一次:Meta開源GPT3參數大小的AI模型

作者: 時間:2022-05-07 來源:網易科技 收藏

  在生成文本段落、模擬人類對話及解決數學問題表現驚人的大型語言模型,顯然是這幾年發展最熱門的領域之一。但這樣的大型語言模型不僅能夠自行生成有害內容,還可以將這樣的內容通過在其上構建的下游應用程序傳播開來。

本文引用地址:http://www.j9360.com/article/202205/433816.htm

  理論上,更多人的參與對問題的解決應該會有所幫助。然而,由于語言模型的訓練需要大量的數據和計算能力,迄今為止,它們仍然只是大型科技公司的特有項目。而在更廣泛的群體如學界,以及擔心人工智能濫用的倫理學家和社會科學家中,只有旁觀的選項。

  “我相信建立信任的唯一方法是極度透明。” 的常務董事喬爾·皮諾(Joelle Pineau)說。當地時間5月3日, 開放了擁有1750億參數的大語言模型OPT-175B(Open Pretrained Transformer,OPT)。

對于大型科技公司來說,這是一個前所未有的舉動。即使是在大語言模型歷史上,這也是第一次毫無保留,把預訓練模型、訓練代碼以及使用代碼全部公開。

  “我們中的很多人都是大學的研究人員,”皮諾說,“我們知道大學和行業在建立這些模式的能力方面存在明顯的差距。讓研究人員共同討論這一技術的好處是顯而易見的。”她希望其他人能仔細研究他們的工作,對其進行拆解分析,或者在此基礎上構建。她認為,當更多的人參與進來時,突破就會更快實現。

  OPT語言模型中約有1750億個參數(這些參數是神經網絡在訓練過程中可以被調整的參數),與OpenAI開創性的神經網絡GPT-3規模基本相同,同時具有付費服務GPT-3的非凡能力和不可避免的缺陷。

  皮諾不諱言,“這是經過精心設計的”,該團隊在建立OPT時就考慮在語言任務的準確性和有害性方面與GPT-3相匹配。OPT是為了給研究人員提供一個類似的語言模型來進行研究。

  OpenAI拒絕了對的聲明發表評論。

  OpenAI的母公司谷歌正在探索在其搜索產品中使用大型語言模型,但也因為缺乏透明度而受到批評。谷歌在這方面受到諸多爭議,其曾在人工智能倫理研究員Timnit Gebru想要發表一篇有關谷歌在當時的語言系統可能會從網站上學習包含偏見和仇恨言論的論文后辭退他,最近又解雇一位對已發表研究提出異議的員工。

  那么,Meta為什么要這樣做呢?畢竟Meta也是一家很少提及臉書和Instagram背后算法工作原理的科技公司,還曾以讓其內部研究團隊隱瞞對其不利的問題而聞名。

  《麻省理工科技評論》認為,Meta采取不同方法的一個重要原因是皮諾本人,她多年來一直在推動人工智能研發過程中的透明度。

  在核心學術會議發表研究的方式上,皮諾要求研究人員必須將包括代碼和有關如何進行實驗的詳細信息與結果一起提交。她自2017年加入Meta(當時的Facebook)以來,一直在其人工智能實驗室倡導這種文化。

  “Meta對開放科學的承諾是我在這里的原因,”皮諾說,“我不會因為其他條件來到這里工作。”

  除了代碼外,Meta也公布了開發日志。日志包含團隊成員對于數據訓練的每日更新:如何將其添加到模型中,以及何時、哪些有效、哪些無效。在100多頁的筆記中,研究人員記錄了從2021年10月到2022年1月不間斷運行的三個月訓練過程中的每個錯誤、崩潰和重啟。

  斯坦福大學基礎模型研究中心主任Percy Liang將大模型的開放程度總結成4個層次:

  第一層論文開放,證明一些設想的可行性,并提供構建思路;第二層API開放,允許研究人員探索和評估現有模型的能力(如推理能力)和限制(如偏見);第三層模型權重開放和訓練數據開放,允許研究人員逐步改進現有模型,開發更深入的可解釋性技術和更有效的微調方法,讓研究人員更好地理解訓練數據在模型行為中的作用;第四層計算能力開放,允許研究人員嘗試新的體系結構、訓練目標和過程、進行數據融合,并在不同的領域開發全新的模型。

  “更高層次的開放能讓研究者專注于更深的問題,也同時會帶來更多風險。”Percy Liang明確指出這一點。

  Meta此次以這樣的程度開源其大型語言模型是一個非常大膽的舉措,可能會產生當下想象不到的風險。這也是OpenAI對于不發布GPT-3的前身GPT-2給出的原因。

  “我不能告訴你,這種模型不會產生其他可怕的風險。”皮諾駁斥了“僅僅是因為它太危險”,所以不應該發布模型的想法。她說道,“我理解這些模型的弱點,但這不是一種研究心態。”

  據《麻省理工科技評論》,曾在被谷歌因“違反了其行為準則”辭退的人工智能倫理研究員瑪格麗特·米切爾(Margaret Mitchell)認為,OPT的發布是一個積極的舉措。但她認為透明度是有限度的。她提問道,“語言模型是否經過了足夠嚴格的測試?可預見的好處是否超過了其可預見的危害?在這個過程中如何避免錯誤信息的產生,或種族主義和厭惡女性的語言?“

  華盛頓大學的計算語言學家艾米麗·M·本德(Emily M.Bender)曾在谷歌中心與米切爾共同合作過相關研究,她也擔心著如何處理潛在的危害。“降低任何機器學習技術風險的真正關鍵是要在特定用例中進行評估和探索,例如這個系統是用來做什么的?誰將使用它?系統輸出將如何呈現給他們?”

  對于皮諾來說,這些擔憂應該通過更多的公開討論來解決,而不是減少溝通。“世界各地的人們對于什么樣的對話是合適的有不同的看法,而人工智能是對話的一部分,”皮諾并不是希望語言模型能說出令每個人都同意的話,“但我們該如何應對呢?那就是在討論過程中多去聽卻他人的聲音”。



關鍵詞: Meta AI

評論


相關推薦

技術專區

關閉