蘋果也發布了自己的大模型,這是一件影響深遠的大事

1 評論 2398 瀏覽 2 收藏 10 分鐘

過去一年,各個大公司都發布了自己的大模型,馬斯克的大模型甚至都已經開源了,但蘋果還是沒什么消息。上周末,蘋果發表了新的論文,終于公布了自己研發的MM1大語言模型。

剛剛過去的周末,蘋果發表了一篇論文,公布了自己研發的MM1多態大語言模型(Multimodal LLM)。這注定是人工智能發展史上的又一個標志性事件!

很遺憾,我不是技術研發人員,對這篇論文只能粗略看懂一些基本信息。

我的一些從事大模型研發的朋友,昨天已經徹夜不眠地進行深度研究了。

蘋果這次公布的MM1大模型分為三個參數規模,其中最大的擁有300億參數,與市面上的主流競品相比,好像不是很大——要知道,谷歌PaLM大模型擁有5400億參數,OpenAI的GPT-4更是擁有1.7萬億參數(注:OpenAI官方并未披露參數數量,僅有外界猜測)??萍疾┛虳aily Dev的評測顯示,MM1在GLUE-Score等多項評測指標上要略優于GPT-4V和Gemini Pro;不過眾所周知,這種評測的參考價值有限。

MM1目前還沒有公測,官方也沒有公布上線時間表,要評估其具體的技術水平可能還需要很長一段時間。

蘋果發表的MM1大模型論文的標題和作者列表

對于人工智能行業乃至全球科技行業而言,MM1大模型本身可能是一件小事,蘋果由此表現出的姿態則是一件大事。

具體而言:

  1. 蘋果今后肯定會依賴自研大模型,而不是OpenAI等第三方的大模型或者開源大模型。大模型是一項基礎設施,沒有哪個科技巨頭愿意受制于人,都會投入盡可能多的資源實現自主。今后大模型賽道的競爭會更激烈。
  2. 根據蘋果一貫的作風,它肯定想實現“軟件-算法-芯片”三位一體的統一,今后肯定會建立自己的AI開發社區,甚至在芯片領域挑戰一下英偉達。AMD和英特爾都沒有這個實力,但蘋果確實有一定希望。
  3. 在長期,最值得關注的話題是:蘋果會不會走邊緣計算、本地化推理的路線?這將直接決定“AI手機”有沒有市場。不過這個問題不是一兩年內能解決的。

先說第一條。

在ChatGPT剛剛發布時,業界的主流觀點是:世界上不需要那么多大模型,可能只需要3-5個,包括1-2個最先進的閉源大模型,再加上幾個開源大模型?,F在的情況卻是人人都想做自己的大模型。

此前很長一段時間,大家都覺得蘋果是一家消費電子廠商,沒有必要押注于自研大模型,只需要租用市面上最先進的大模型就可以了?,F實告訴我們,蘋果不是這么想的。

就像我的一位從事大模型研發的朋友所說:“AGI時代,自己有控制權的大模型才是最好的。OpenAI不可能將模型參數開放給蘋果,蘋果也不會樂意受制于微軟生態。不管它做不做得好,它只能自己做!”

如果蘋果是這么想的,其他科技巨頭就更會這么想了。

谷歌和亞馬遜都投資了Anthropic(除了OpenAI之外最炙手可熱的AI創業公司),Salesforce投資了Mistral;各家大廠收購的小型研發團隊就更是數不勝數了。

無論這個世界究竟需要多少大模型,每個科技巨頭都會做自己的大模型,而且肯定不止做一個——內部孵化幾個、外部投資或并購幾個,才是常態。

前一段時間,市場上有消息稱,蘋果從鴻海訂購了2萬臺AI服務器,其中40-50%是英偉達H100服務器。當時很多人(包括我在內)認為這些服務器主要是用來推理的,不過用H100推理顯得過于奢侈了?,F在看來,這些服務器應該既包括推理需求、也包括訓練需求。

蘋果最不缺的就是錢,既然它決定了押注自研大模型,就一定會把戰爭打到底。

全球AI算力緊缺的局勢看樣子會雪上加霜。

再說第二條。

雖然外界經常低估蘋果的研發實力,但是在歷史上,蘋果經常通過在消費產品積累的資源去進軍中上游、直至切入核心技術層面,這一點在民用芯片領域體現的最明顯:自從2021年以來,蘋果自研的M系列芯片已經全面替代英特爾x86芯片,成為Mac電腦的標配,乃至被“下放”到了iPad當中。

一位熟悉這個領域的朋友告訴我:“蘋果絕不會甘愿受制于CUDA。它熱衷于獨立掌握核心算法,對自研芯片進行適配優化,從而實現芯片-算法-軟件的整合。不過它一定會小心謹慎地行事?!?/p>

眾所周知,英偉達依托CUDA生態,建立了牢不可破的競爭壁壘。但是,英偉達的驅動程序并不開源(注:有極少數開源過,但于事無補),CUDA也并不好用。

AMD、英特爾等競爭對手已經被甩出太遠了,依靠它們去挑戰英偉達并不顯示。蘋果則擁有這樣的實力,看樣子也擁有這樣的意愿。不過,就算它決定進軍英偉達的地盤,這個過程也會持續相當漫長的時間——要知道,從2006年Mac換用英特爾芯片到2020年轉向自研芯片,經過了整整14年!

附帶說一句,哪怕英偉達的競爭對手(無論是不是蘋果)成功地奪走了一些市場份額,也不會解決當前AI算力緊缺的問題,因為瓶頸主要在制造環節。尤其是訓練相關的芯片制造,在未來很長一段時間內估計還是臺積電的天下。無論誰是AI芯片的王者,它都要依賴臺積電代工。這是一個工程問題,只能循序漸進地解決。

最后,今后的AI推理主要在云端(數據中心)還是終端(手機、電腦)實現,這是一個爭議很大的話題。我們看到各家手機廠商在爭先恐后地推出“AI手機”——很可惜,這些產品現在還沒什么用,消費者沒有任何迫切的需求。

當年的云游戲概念,是希望把游戲算力從終端搬到云端;現在的AI手機概念,則是希望把推理算力從云端搬到終端。前者已經被證明不切實際(至少現在是如此),后者則前途未卜。

作為全球最大、最賺錢的智能終端廠商,蘋果肯定會希望終端多承擔一些AI推理職責,這也有助于iOS生態的進一步擴張。

然而,技術進步不會以任何科技巨頭的主觀愿望為轉移。很多人猜測,蘋果大模型的研發方向將指向邊緣計算、本地化和小型化,其戰略目標是開發出適合在移動端本地推理的模型。

但是從目前的公開信息(主要就是那篇論文)中,我們尚不能獲得足夠的信息。

對于蘋果的投資者而言,最大的好消息是:蘋果注意到了自研大模型的重要性,不甘于在這個戰略性賽道上掉隊,而且正在試圖利用自身資源稟賦去影響大模型技術的發展方向。資本市場可能會對此做出良好的反應(尤其是考慮到今年以來蘋果衰落的股價),但是能否實現又是另一回事了。

作者:怪盜團團長裴培

微信公眾號:互聯網怪盜團(ID:TMTphantom),互聯網行業觀察者及研究者。

本文由人人都是產品經理合作媒體@互聯網怪盜團 授權發布,未經許可,禁止轉載。

題圖來自 Unsplash,基于CC0協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 作為一名蘋果用戶,希望自研大模型能帶來更好的用戶體驗。

    來自吉林 回復