用于汽車的Tensilica AI協(xié)處理器
Cadence Design Systems 開(kāi)發(fā)了一種可配置的協(xié)處理器,為汽車神經(jīng)處理單元提供更大的靈活性。
本文引用地址:http://www.2s4d.com/article/202505/470218.htmTensilica NeuroEdge 130 AI 協(xié)處理器 (AICP) 是一類新型處理器,旨在補(bǔ)充高級(jí)汽車、消費(fèi)電子、工業(yè)和移動(dòng) SoC 上代理和物理 AI 網(wǎng)絡(luò)的任何神經(jīng)處理單元 (NPU)。
該內(nèi)核基于 Tensilica Vision DSP 系列的成熟架構(gòu),可在不影響性能的情況下節(jié)省 30% 以上的面積和超過(guò) 20% 的動(dòng)態(tài)功耗和能源。它還運(yùn)行相同的軟件、AI 編譯器、庫(kù)。
基于 Tensilica Xtensa VLIW 的 SIMD 架構(gòu)允許自定義擴(kuò)展,這可以提供與內(nèi)部 NPU 的兼容性,與其特定于應(yīng)用的前代產(chǎn)品相比,可以提高端到端性能和效率。
它向作為控制處理器的 NPU 發(fā)出指令和命令,其中包含優(yōu)化指令以運(yùn)行非 NPU 最佳任務(wù),例如 ReLU、sigmoid 和 tanh。它使用 512 個(gè) 8×8 乘法累加 (MAC) 單元發(fā)出 512 條寬指令,還包括一個(gè)新的高帶寬直接接口 (HBDI) 來(lái)饋送 NPU。
Cadence 表示,目前正在進(jìn)行多個(gè)客戶參與,包括 indie Semiconductor 和 Neuchips。Dream Chip 還將 Tensilica 內(nèi)核用于汽車設(shè)計(jì)。
用于嵌入式 AI 的下一代 Tensilica 內(nèi)核
Cambrian AI Research 創(chuàng)始人兼首席分析師 Karl Freund 表示:“隨著 AI 處理在自動(dòng)駕駛汽車、機(jī)器人、無(wú)人機(jī)、工業(yè)自動(dòng)化和醫(yī)療保健等物理 AI 應(yīng)用中的迅速普及,NPU 正發(fā)揮著更加關(guān)鍵的作用?!叭缃瘢琋PU 處理大部分計(jì)算密集型 AI/ML 工作負(fù)載,但大量非 MAC 層包括前處理和后處理任務(wù),這些任務(wù)可以更好地卸載到專用處理器。然而,當(dāng)前的 CPU、GPU 和 DSP 解決方案涉及權(quán)衡,該行業(yè)需要一種低功耗、高性能的解決方案,該解決方案針對(duì)協(xié)處理進(jìn)行了優(yōu)化,并允許適應(yīng)未來(lái)快速發(fā)展的 AI 處理需求。
“Cadence 已經(jīng)通過(guò)我們的 Tensilica DSP 驗(yàn)證了 AI 協(xié)處理器用例。隨著 AI 工作負(fù)載的轉(zhuǎn)變和領(lǐng)域范圍的減少,我們的 AI SoC 和系統(tǒng)客戶一直在尋求一種小型、高效的、以 AI 為中心的協(xié)處理器,以實(shí)現(xiàn)更好的 PPA 和面向未來(lái)的需求?!把永m(xù)我們?cè)?IP 創(chuàng)新方面的記錄,我們推出了一種專門構(gòu)建的新型處理器。Tensilica NeuroEdge 130 AICP 設(shè)計(jì)為 NPU 伴侶,提高了性能效率的標(biāo)準(zhǔn),以滿足客戶最苛刻的 AI 應(yīng)用需求。
“AI 和計(jì)算機(jī)視覺(jué)在越來(lái)越多的嵌入式應(yīng)用中發(fā)揮著重要作用,”Edge AI 和視覺(jué)聯(lián)盟創(chuàng)始人 Jeff Bier 說(shuō)?!暗?AI 模型和相關(guān)的前處理和后處理步驟正在迅速發(fā)展;例如,如今許多開(kāi)發(fā)人員正在采用基于 transformer 的多模態(tài)模型和基于 LLM 的 AI 代理。我們贊賞 Cadence 在靈活高效處理器方面的持續(xù)創(chuàng)新,這是實(shí)現(xiàn)邊緣 AI 和視覺(jué)廣泛部署的關(guān)鍵。
Cadence NeuroWeave 軟件開(kāi)發(fā)套件 (SDK) 支持 NeuroEdge? 130 AICP,該套件是 Cadence 所有 AI IP 中使用的單一 SDK。它使用 Tensor Virtual Machine (TVM) 堆棧來(lái)調(diào)整、優(yōu)化和部署其 AI 模型,以用于 Cadence 的 AI IP。它還配備了一個(gè)輕量級(jí)的獨(dú)立 AI 庫(kù),允許在新處理器上直接對(duì) AI 層進(jìn)行編程,并繞過(guò)某些編譯器框架的潛在開(kāi)銷。
作為面向汽車市場(chǎng)的 SoC 解決方案的領(lǐng)導(dǎo)者,indie 專注于 SoC 架構(gòu)創(chuàng)新,以提供高性能、面積和功耗效率。為了實(shí)現(xiàn)這一目標(biāo),我們將處理元件集成到最適合特定計(jì)算功能的 SoC 中,確保我們的解決方案能夠滿足 ADAS 系統(tǒng)對(duì)計(jì)算機(jī)視覺(jué)、雷達(dá)和傳感器融合的需求。indie 已成功在多個(gè)量產(chǎn) ADAS SoC 中部署 Tensilica DSP。我們歡迎 Cadence 的 NeuroEdge AICP IP產(chǎn)品組合以及支持工具、軟件庫(kù)和生態(tài)系統(tǒng)的加入,以滿足不斷發(fā)展的 AI 支持汽車應(yīng)用的需求。
MulticoreWare 與 Cadence 的長(zhǎng)期合作伙伴關(guān)系使我們能夠支持 OEM 和一級(jí)合作伙伴在汽車和其他邊緣環(huán)境中部署 AI 工作負(fù)載。通過(guò)這些合作,我們親眼目睹了 NPU 作為完整、獨(dú)立的 AI 部署解決方案往往無(wú)法滿足要求。NeuroEdge AICP 硬件和 SDK 巧妙地解決了這一差距。圍繞 NeuroEdge AICP 構(gòu)建的 AI SoC 模塊不僅為當(dāng)今的領(lǐng)先模型提供峰值性能,而且還提供了適應(yīng)未來(lái) AI 創(chuàng)新的靈活性,“MulticoreWare 首席技術(shù)官 John Stratton 說(shuō)。
“Neuchips 正在通過(guò)尖端 SoC 徹底改變數(shù)據(jù)中心和服務(wù)器場(chǎng),這些 SoC 旨在處理大型語(yǔ)言模型和轉(zhuǎn)換器的巨大處理需求。由于 SoC AI 子系統(tǒng)經(jīng)常面臨支持前處理和后處理階段的挑戰(zhàn),因此很高興看到 NeuroEdge AICP 旨在管理此類任務(wù)。Cadence 成熟的 Tensilica 工具鏈和軟件基礎(chǔ)設(shè)施有助于將這種新 IP 輕松集成到復(fù)雜的 SoC 設(shè)計(jì)中,“Neuchips 首席執(zhí)行官 Ken Lau 表示。
評(píng)論