AMD周二表示,其最新MI300X芯片及其CDNA架構(gòu)專為大語言模型和其他尖端AI模型設(shè)計。MI300X可以使用高達192GB的內(nèi)存,這意味著它比其他芯片更適合規(guī)模更大的AI模型。例如,與之競爭的英偉達芯片H100只支持120GB內(nèi)存。AMD在周二演示了MI300X運行擁有400億個參數(shù)的“獵鷹”(Falcon)模型。OpenAI的GPT-3模型有1750億個參數(shù)。
AMD CEO蘇姿豐(Lisa Su)指出,隨著AMD芯片上內(nèi)存的增加,開發(fā)人員將不需要那么多GPU。“大模型的核心是GPU,GPU使得生成式AI成為可能。模型規(guī)模越來越大,你實際上需要多個GPU來運行最新大語言模型。”她表示。
雖然AMD沒有透露MI300X的售價,但它可能會給英偉達的GPU帶來價格壓力。例如,英偉達的H100售價可能在3萬美元或者更高。較低的GPU價格可能有助于降低服務(wù)生成AI應(yīng)用程序的高成本。