a一级爱做片免费观看欧美,久久国产一区二区,日本一二三区免费,久草视频手机在线观看

新聞中心

EEPW首頁 > 智能計算 > 市場分析 > 到底什么是AI PC、AI手機?

到底什么是AI PC、AI手機?

作者:inside 時間:2024-02-02 來源:半導體產業縱橫 收藏

相信大家現在每天經常可以在報章媒體上看到「」、「AI 手機」這兩個詞吧?特別是財經新聞,這幾個月時不時就可以看見哪一只股票又因是 概念股上揚之類。有的報道中甚至表示 2024 年是「 元年」。

本文引用地址:http://www.j9360.com/article/202402/455318.htm

你會不會好奇,這些大廠或者是報章雜志整天在喊的 AI PC、AI 手機,到底是什么?他們跟一般的 PC、手機,又差在哪邊?這篇文章就是要用最通俗的方式告訴你,AI PC、AI 手機,他們為什么會出現的來龍去脈,以及未來可能的發展方向。

顧名思義 AI PC、AI 手機就是可以運行人工智能的 PC 跟手機。但沒有這么簡單,不然現在就算是一臺配備普通中低端手機,不都可以通過 app 或瀏覽器,用上 ChatGPT、Bard 或是 DALL-E、Midjourney 等 AI 了嗎?

現在大家在喊的 AI PC、AI 手機,最簡單的定義就是「不用連網,就可以在本機端運算 AI 模型的 PC/手機」。

相信就有的讀者會問了:「跑 AI 模型?那不是有 GPU/顯卡就可以跑了嗎?」理論上沒錯,其實有一張不錯的消費級顯卡,就很夠拿來跑許多一般中小型 AI 模型了。

不過,這是不考慮一臺電腦效能功耗比的狀況下所得出的結論。現在大廠們喊的 AI PC、AI 手機,其實就是裝了 NPU(神經網絡處理器)的 PC/手機。

這里跟不太熟的讀者們稍微科普一下:我們現在所熟悉的 AI 模型,像是前面提到 ChatGPT 或是 DALL-E,背后通通都是「神經網絡模型」所寫出來的,這是一種模仿人腦的系統,人腦中我們是使用神經元接收、發送訊息,而在神經網絡中,是使用數學上的模型來模仿這種行為。

NPU 就是專門拿來算神經網絡模型的芯片,單一「塊」NPU 跟一塊 GPU 的算力,當然是 GPU 強,但單一「塊」NPU 的成本、能耗又小又便宜,拿來跑 AI 模型的話可以好好分擔 GPU 的工作量。

簡言之,就是 Intel、AMD、高通以及聯發科這些大廠看準了未來 AI 模型會走進每個人的電腦與手機里,紛紛推出了「CPU+GPU+NPU」的架構,反正多多益善,何樂不為?但為什么會是「現在」2023-2024 之際,這些大廠才推出這種三層運算架構的產品呢?

一言以蔽之:大型語言模型(LLM)。更精確的說,是 Meta(Facebook)在消費市場上開了這扇大門。在 ChatGPT 掀起生成式 AI 的狂潮之后,眾多科技大廠(特別是網絡跟軟件這端)開始猛起直追,紛紛加大投入大型語言模型研究。在這些大廠之中,Meta 比較特別,走了一條開源的路,把它的 LLM「LLaMA」讓各機構提出申請,以非商業授權使用。

不過說來也很崎嶇,LLaMA 沒幾天就意外外流,讓有意的使用者都能下載到使用,再過幾天事情快速發酵,陸續有人把容量比較小的 LLaMA 裝在 Mac、Google 手機 Pixel,甚至還裝在 Raspberry Pi 4 上,大家瞬間了解到就算技術上還有很多待突破的地方,但要把 LLM 裝在終端裝置上,是可行的。也是從這一刻起,Meta 主動意識到大有可為,在隨后 7 月發布新版 Llama 2 第一時間就宣布已跟高通攜手,要把 Llama 2 積極帶進智能手機、 PC 等終端裝置。

再說通俗一點:這波 AI PC、AI 手機風潮,是被 Meta、高通有意帶動起來的。高通去年也憑借這股底氣,用 Snapdragon X Elite 正式向蘋果、AMD、Intel 下戰帖,不然像 AMD,也是早早就有 Ryzen AI 擺在那邊。

不然 NPU 說白了也不是全新玩意,像是蘋果很早就開始在用了,早在什么時候呢?早在 2017 A11 Bionic,那還是 iPhone 8 就有非圖形專用的神經處理單位。然后蘋果不管是在手機、電腦,只要是自己研發的芯片,每年都越塞越多顆 NPU,理論上來說他們才是 AI PC、AI 手機的鼻祖。至于非消費者端的部分,Google 就更早了,早在 2015 年 Google 就開始偷偷把自己設計的 TPU 用在數據中心。

那到底 AI PC、AI 手機會是真主流,還是只是又一場泡沫?這是一個很難現在就用 yes 或 no 二分法回答的問題,其一是因為這個問題,其實已經在 2018 年「計算攝影」(也就是 AI 優化手機照相)時被問過一次了,事后證明 NPU 確實被越來越多開發者重視,但消費端反而還沒那么(在表面)重視 NPU 的表現。

但筆者認為,不妨從幾條軸線來觀察 AI PC、AI 手機的發展:一是觀察 LLM 的壓縮率跟硬體什么時候到達「甜蜜點」,像是手機存儲器的部分,普遍都需要 24GB 以上才夠運行 LLM(但現在的主流規格只有 8~16GB);軟件這邊去年已經有非常多研究單位,在壓縮 LLM 上有豐碩的成果(最著名的就是 SpQR 法),就看雙方什么時候可以耦合。

二則是觀察開發框架的發展速度,像是蘋果最近就推出專為 Apple Silicon 芯片進行優化的深度學習框架「MLX」,經開發者證實,MLX 在跑模型時已經優于自家的 MPS,且跟用 CUDA 的 V100 PCIe 相比也不遜色。蘋果自家開發框架的表現相當快速、優異,至于一般 PC 這里,就要看有沒有同樣出色的開發框架出現了。



關鍵詞: AI PC AI手機

評論


相關推薦

技術專區

關閉