OpenAI野心:用1000萬張顯卡訓(xùn)練AI 10倍于NV年產(chǎn)能
- 來源:快科技
- 作者:憲瑞
- 編輯:liyunfei
在生成式AI領(lǐng)域,推出了ChatGPT的OpenAI是處于領(lǐng)先地位的,他們的GPT-4已經(jīng)是萬億參數(shù)級別,還在訓(xùn)練更先進(jìn)的GPT-5,屆時又會在技術(shù)水平上甩開國內(nèi)的追趕者。
OpenAI能夠領(lǐng)先,先進(jìn)AI顯卡用到的GPU是功不可沒的,背靠微軟這棵大樹,他們在算力資源上不會受到限制,GPT-4的訓(xùn)練就使用了2萬張NVIDIA的AI顯卡訓(xùn)練。
但萬張顯卡級別的算力還不是終點,今年也投身AI創(chuàng)業(yè)的前搜狗CEO王小川日前在采訪中透露了OpenAI的動向,提到后者正在做更先進(jìn)的訓(xùn)練方法,設(shè)計能夠?qū)?000萬張GPU連在一起的計算模型。
1000萬張GPU是什么概念?目前NVIDIA每年的產(chǎn)量也就是100萬塊GPU(應(yīng)該主要是指AI方面的GPU),OpenAI的規(guī)模相當(dāng)于10倍于NVIDIA年產(chǎn)能的水平。
王小川稱OpenAI的1000萬張GPU算力的目標(biāo)是登月級別的計劃,顯然認(rèn)為它很偉大。
不說這些GPU顯卡能不能生產(chǎn)出來,購買花費多少,光是1000萬張顯卡互聯(lián)的難度都是不可想象的,OpenAI要是做到了就真的無敵于天下了。
不過這也讓人懷疑OpenAI是否表達(dá)錯了,還是王小川聽來的投行報告寫錯了,從幾萬張GPU到1000萬張GPU的互聯(lián)難度可不是一個級別的。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論