眾所周知,自從ChatGPT火爆之后,很多人都在反思,為什么ChatGPT這樣的業務不是從中國誕生,而是在美國誕生的。
很多人表示,這是因為中美GPU差距相差10年以上,而GPU芯片才是ChatGPT的核心,因為ChatGPT需要高性能、高算力。
(相關資料圖)
按照機構的說法,GPT-3訓練時大概用到了20000個NVIDIA A100 GPU左右的算力,而ChatGPT商業化后所需的GPU數量將達到30000個以上。
而中國的GPU與美國的GPU差距太大,再加上美國不準A100這樣的GPU芯片賣到中國來。
所以中國不太可能基于美國的GPU,在沒有沒有搞出ChatGPT的情況下,中國首發ChatGPT這樣的業務出來。
那么中國的GPU落后美國10年么?近日科大訊飛表示不服,他說華為的GPU芯片,已經對標英偉達的A100了。
科大訊飛搞了一個星火大模型這樣的AI產品,類似于ChatGPT。而科大訊飛表示,到今年 10 月 24 日,科大訊飛將發布通用大模型,全面對標 ChatGPT ,且要實現中文全面超越。
而科大訊飛的大模型,是基于華為的GPU芯片的,所以科大訊飛才敢說,華為的 GPU 能力現在已經跟英偉達 A100 一樣了。
A100是英偉達2020 年發布的AI芯片,采用了全新的Ampere架構,7nm工藝,配備了6912個CUDA核心,算力高達19.5 TFLOPS。
在A100上,采用了新一代的HBM2E內存,擁有40GB高速內存,傳輸帶寬達到1.6TB/s,也是目前眾多AI大模型采用的芯片。
另外英偉達今年還推出了H100,不過H100太貴太高端了,所以A100相對而言,更為搶手,至于中國大陸,由于A100不能賣,所以英偉達推出的是A800這一款閹割版,相比A100,性能稍弱一些,但也一卡難求,非常難買到。
如今,科大訊飛說華為的GPU,已經對標英偉達的A100,那么也意味著,國產AI大模型,完全不必依賴英偉達的GPU芯片了,國產GPU已經站起來了,我們在GPU芯片上,與美國的差距,絕對沒有10年這么大,你覺得呢?