台積電取代三星,搶下特斯拉自駕晶片訂單!還助攻全球最大AI晶片製造
2020.08.20 by 陳建鈞
有護國神山之稱的台積電近期好消息頻傳,不僅從三星手中搶走特斯拉新一代自駕晶片訂單,也協助新創Cerebras Systems生產出全球最大的AI晶片。
雖然美國禁令衝擊讓台積電失去大客戶華為,但近期又傳出獲得大廠訂單,已與電動車龍頭特斯拉合作,預計2021年第四季將推出HW4.0自動駕駛晶片。
搶走三星訂單,台積電成特斯拉自駕晶片代工廠
從2016年開始,在傳奇晶片設計師Jim Keller的率領下,特斯拉晶片團隊便開始鼓搗自研晶片,目標打造一款契合自動駕駛需求的高效能晶片,並在去年推出HW3.0中,真正納入自研的自動駕駛晶片技術。
不過,HW3.0先前是由三星協助代工,這次或許是台積電領先全球的7nm技術,成功從三星手中搶到訂單,成為特斯拉的供應商。
在推出HW3.0時,特斯拉聲稱其每秒處理格數較以往採用的Nvidia產品提昇21倍;當時執行長伊隆.馬斯克(Elon Musk)透露,他們已在著手開發下一代晶片,預期HW4.0擁有現版本晶片的3倍效能,可望滿足自動駕駛技術需求。
而依據近期的消息與推測,HW4.0是由博通以特殊應用積體電路(ASIC)的形式製成,預計可用於先進駕駛輔助系統、電動車動力傳動、車載娛樂系統及電動車電子零件等面向,並提昇自動駕駛所需的運算效能。
使用台積電製程技術的HW4.0預計今年第四季會進行試產,明年第四季才會正式邁入量產,但這也代表最快要到2022年,新自駕晶片才會使用在產品上。
根據《Electrek》報導,歸功於台積電的7nm製程,HW4.0能夠以更低的耗電量運作,雖然晶片用電只是電動車整體消耗的滄海一粟,但這有助於改善自動駕駛功能的運轉效率,並創造進一步提昇效能的空間。
7nm技術助力打造全球最大AI晶片
在傳出收穫特斯拉訂單的捷報之際,AI晶片新創Cerebras Systems也借助台積電7nm製程,推出全球最大晶片Wafer Scale Engine(WSE)第二代,擁有85萬個AI核心以及2.6兆的電晶體。
去年Cerebras Systems曾推出過第一代WSE,尺寸為8吋×9吋,面積達4.6萬平方公釐,擁有40萬個AI核心,以及1.2兆個電晶體,締造權全球最大晶片紀錄。雖然今次發表的第二代面積沒有提昇,但其製程技術從16nm躍升至7nm,AI核心及電晶體數量都翻倍成長。
有別於主流將晶片越做越小的趨勢,Cerebras Systems在商業策略上反其道而行,投入製作超大型AI晶片,認為此舉可大大減少AI訓練耗費的時間,將以往需要幾個月處理的數據,縮短至幾分鐘之內完成。
不過,如此龐大的AI晶片當然價格不菲,雖然沒有透露具體數字,但Cerebras Systems創辦人安德魯.菲爾德曼(Andrew Feldman)曾透露,一套採用第一代WSE的系統的AI晶片要價上百萬美元。
而Cerebras Systems主要客戶為美國政府。美國國家科學基金會花費500萬美元,為匹茲堡超級運算中心添購兩台搭載WSE的運算系統,外媒估計價格約在200萬美元左右。
Cerebras Systems目前尚未公佈第二代WSE的具體規格,但聲稱已經在實驗室中運轉,預計未來幾個月內會進一步透露技術細節。
由於使用7nm技術令核心及電晶體數量倍增,第二代WSE價格也可能再創高峰。作為比較,由Nvidia推出的全球最大GPU A100,面積826平方釐米,擁有542億電晶體,不到第二代WSE的50分之一,售價為20萬美元。
台積電取代三星,搶下特斯拉自駕晶片訂單!還助攻全球最大AI晶片製造
2020.08.20 by 陳建鈞
分享
台積電取代三星,搶下特斯拉自駕晶片訂單!還助攻全球最大AI晶片製造Shutterstock
有護國神山之稱的台積電近期好消息頻傳,不僅從三星手中搶走特斯拉新一代自駕晶片訂單,也協助新創Cerebras Systems生產出全球最大的AI晶片。
雖然美國禁令衝擊讓台積電失去大客戶華為,但近期又傳出獲得大廠訂單,已與電動車龍頭特斯拉合作,預計2021年第四季將推出HW4.0自動駕駛晶片。
搶走三星訂單,台積電成特斯拉自駕晶片代工廠
從2016年開始,在傳奇晶片設計師Jim Keller的率領下,特斯拉晶片團隊便開始鼓搗自研晶片,目標打造一款契合自動駕駛需求的高效能晶片,並在去年推出HW3.0中,真正納入自研的自動駕駛晶片技術。
Model X 在台灣首次亮相.jpg
從2016年開始,特斯拉晶片團隊便開始鼓搗自研晶片,目標打造一款契合自動駕駛需求的高效能晶片。
台灣特斯拉提供
不過,HW3.0先前是由三星協助代工,這次或許是台積電領先全球的7nm技術,成功從三星手中搶到訂單,成為特斯拉的供應商。
在推出HW3.0時,特斯拉聲稱其每秒處理格數較以往採用的Nvidia產品提昇21倍;當時執行長伊隆.馬斯克(Elon Musk)透露,他們已在著手開發下一代晶片,預期HW4.0擁有現版本晶片的3倍效能,可望滿足自動駕駛技術需求。
而依據近期的消息與推測,HW4.0是由博通以特殊應用積體電路(ASIC)的形式製成,預計可用於先進駕駛輔助系統、電動車動力傳動、車載娛樂系統及電動車電子零件等面向,並提昇自動駕駛所需的運算效能。
✅立即加入《數位時代》會員,免費收藏『AI人才養成祕笈』專刊,佈局數位轉型競爭力!
tesla investor day 01.JPG
特斯拉去年發表HW3.0時,便透露已著手研發新晶片當中,預計效能較現有版本強3倍。
Tesla
使用台積電製程技術的HW4.0預計今年第四季會進行試產,明年第四季才會正式邁入量產,但這也代表最快要到2022年,新自駕晶片才會使用在產品上。
根據《Electrek》報導,歸功於台積電的7nm製程,HW4.0能夠以更低的耗電量運作,雖然晶片用電只是電動車整體消耗的滄海一粟,但這有助於改善自動駕駛功能的運轉效率,並創造進一步提昇效能的空間。
7nm技術助力打造全球最大AI晶片
在傳出收穫特斯拉訂單的捷報之際,AI晶片新創Cerebras Systems也借助台積電7nm製程,推出全球最大晶片Wafer Scale Engine(WSE)第二代,擁有85萬個AI核心以及2.6兆的電晶體。
去年Cerebras Systems曾推出過第一代WSE,尺寸為8吋×9吋,面積達4.6萬平方公釐,擁有40萬個AI核心,以及1.2兆個電晶體,締造權全球最大晶片紀錄。雖然今次發表的第二代面積沒有提昇,但其製程技術從16nm躍升至7nm,AI核心及電晶體數量都翻倍成長。
cerebras-wse
Cerebras全球最大AI晶片面積達4.6萬平方公釐,大小有如一台筆記型電腦。
Cerebras
有別於主流將晶片越做越小的趨勢,Cerebras Systems在商業策略上反其道而行,投入製作超大型AI晶片,認為此舉可大大減少AI訓練耗費的時間,將以往需要幾個月處理的數據,縮短至幾分鐘之內完成。
不過,如此龐大的AI晶片當然價格不菲,雖然沒有透露具體數字,但Cerebras Systems創辦人安德魯.菲爾德曼(Andrew Feldman)曾透露,一套採用第一代WSE的系統的AI晶片要價上百萬美元。
而Cerebras Systems主要客戶為美國政府。美國國家科學基金會花費500萬美元,為匹茲堡超級運算中心添購兩台搭載WSE的運算系統,外媒估計價格約在200萬美元左右。
Cerebras Systems目前尚未公佈第二代WSE的具體規格,但聲稱已經在實驗室中運轉,預計未來幾個月內會進一步透露技術細節。
由於使用7nm技術令核心及電晶體數量倍增,第二代WSE價格也可能再創高峰。作為比較,由Nvidia推出的全球最大GPU A100,面積826平方釐米,擁有542億電晶體,不到第二代WSE的50分之一,售價為20萬美元。
附圖:從2016年開始,特斯拉晶片團隊便開始鼓搗自研晶片,目標打造一款契合自動駕駛需求的高效能晶片。台灣特斯拉提供
特斯拉去年發表HW3.0時,便透露已著手研發新晶片當中,預計效能較現有版本強3倍。Tesla
Cerebras全球最大AI晶片面積達4.6萬平方公釐,大小有如一台筆記型電腦。Cerebras
資料來源:https://www.bnext.com.tw/article/58921/tsmc-ai-chip-tesla-cerebras
tesla a100價格 在 Log Masuk 的必吃
常用AI 運算加速卡硬體規格及價格比較表TESLA A100-80G, TESLA A40-48G, TESLA A30-24G, TESLA A2-16G, RTX-A6000-48G, RTX-A5500-24G, RTX-A5000-24G ... ... <看更多>
tesla a100價格 在 [閒聊] NVIDIA Tesla A100 20倍快的AI 今晚主菜 的必吃
VideoCardz
https://videocardz.com/newz/nvidia-tesla-a100-with-ga100-ampere-gpu-pictured
VideoCardz 在今天拿到了一張 Tesla A100 的 SMX 模組圖片
包含一張 GA100 (安培) GPU 跟六個 HBM2(e)
他們說 SMX 模組跟上一代 V100 不一樣,可能是第四代的 SMX
------
16:53 更新 EEtimes 的報導早洩了,主菜提前上桌 XDDDD
請搜尋「Nvidia Reinvents GPU, Blows Previous Generation Out of the Water」
的 Goolge 頁面快取
TechPowerUp https://www.techpowerup.com/267079/
* GA100 包含了 540 億個電晶體(不含 HBM),是目前最大的 7nm 晶片
* 號稱 AI 比上一代 Volta(V100)快 20 倍,64 位元浮點數計算快 2.5 倍
* AI 20 倍的主因是第三代 Tensor Core 支援 Tensor Float 32 (TF32) 新浮點數形式
也原生支援 FP64
* 使用了神經網路中的 Sparsity 縮減大小並加倍效能
* Multi-instance GPU (MIG) 不同程式在不共用記憶體頻寬下在同一GPU運行
* BERT 比上一代快七倍,如果使用 MIG 分割,可以同時運作七個 BERT 運算
同時隆重推出 DGX-A100,為 Tesla A100 八個一箱組合
5 petaflops,最快達上一代 DGX 的 20 倍快
目前已經安裝在美國能源部阿貢國家實驗室,用來對抗武漢/新冠肺炎
售價 199,000 起
特級廚師黃仁勳,今晚九點,神前刀工對決!
喔不用看了,腳本提早外洩了,大家收工
看樣子 RTX 30 系列的 AI 又會是下一個世代的速度,CDNA 888888888
---
VideoCardz 的下一篇:榿木湖-S謠傳會支持 DDR5 記憶體
一路從 PTT 傳到中國,終於傳到外媒了 = =
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.51.177.134 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1589442756.A.AB2.html
※ 編輯: ybite (123.51.177.134 臺灣), 05/14/2020 15:53:05
※ 編輯: ybite (123.51.177.134 臺灣), 05/14/2020 17:08:28
... <看更多>