由于面臨美國芯片限制和比西方同行更少的預算,中國人工智能(AI)公司正在降低成本以創(chuàng)建具有競爭力的模型。01.ai(零一萬物)和DeepSeek(深度求索)等初創(chuàng)公司通過采取一些策略來降低價格,例如專注于較小的數(shù)據集來訓練人工智能模型,以及聘請低價但熟練的計算機工程師。
阿里巴巴、百度和字節(jié)跳動等大型科技集團也展開了價格戰(zhàn),以降低“推理”成本(即調用大型語言模型生成響應的價格),大模型價格下降90%以上,僅為美國同行的一小部分。
總部位于北京的01.ai由前谷歌中國區(qū)總裁李開復領導,該公司表示,通過構建以較少數(shù)據量進行訓練、需要較少計算能力的模型并優(yōu)化硬件,該公司已經降低了推理成本。
李開復表示:“中國的優(yōu)勢在于制造出真正價格實惠的推理引擎,然后讓其應用廣泛傳播。”
近日,在加州大學伯克利分校SkyLab和LMSYS的研究人員發(fā)布的排名中,01.ai的Yi-Lightning模型與馬斯克名下公司x.AI的Grok-2在LLM(大模型)公司中并列第三,但落后于OpenAI和谷歌。
評估基于用戶對不同模型對查詢答案的評分。字節(jié)跳動、阿里巴巴和DeepSeek等其他中國公司也在大模型排名榜上名列前茅。
01.ai的Yi-Lightning的推理成本為每百萬token 14美分,而OpenAI的較小模型GPT o1-mini的推理成本為26美分。與此同時,OpenAI規(guī)模更大的GPT 4o的推理成本為每百萬token 4.40美元。用于生成響應的token數(shù)量取決于查詢的復雜性。
李開復還表示,Yi-Lightning的“預訓練”成本為300萬美元,初始模型訓練之后可以針對不同用例進行微調或定制。這只是OpenAI等公司對其大型模型所報成本的一小部分。他補充說,其目標不是擁有“最佳模型”,而是一個具有競爭力的模型,開發(fā)人員使用它來構建應用程序的成本“要低5到10倍”。
01.ai、DeepSeek、MiniMax、Stepfun等許多中國人工智能團體都采用了所謂的“混合專家模型(MoE)”方法,這一策略首先由美國研究人員推廣。
該方法不是在從互聯(lián)網和其他來源抓取數(shù)據的龐大數(shù)據庫上一次性訓練一個“密集模型”,而是結合了許多針對行業(yè)特定數(shù)據進行訓練的神經網絡。
研究人員認為,混合專家模型方法是實現(xiàn)與密集模型相同智能水平但計算能力較低的關鍵方法。但這種方法更容易失敗,因為工程師必須協(xié)調多個“專家”的訓練過程,而不是在一個模型中。
由于難以獲得穩(wěn)定充足的高端人工智能芯片供應,中國人工智能企業(yè)在過去一年中一直在競相開發(fā)最高質量的數(shù)據集,以訓練這些“專家”,從而使自己在競爭中脫穎而出。
李開復說:“中國的優(yōu)勢不在于在預算不受限制的情況下,進行前所未有的突破性研究。中國的優(yōu)勢在于建設得好、快、可靠且便宜!