創鑫智慧雲端用人工智慧推論晶片在 AI 世界評測贏得最佳能效比領導地位
今年四月初由眾多人工智慧業界一流廠商參與的 MLPerfTM v3.0 AI 推論 (Inference) 效能基準測試中,AI ASIC 平台領導廠商創鑫智慧 (NEUCHIPS) 公布其世界第一個專為資料中心推薦模型 (Recommendation Model) 設計的 AI 加速器 RecAccelTM N3000的測試數據,在伺服器領域的能源效率 (Energy efficiency) 上領先AI大廠輝達 (NVIDIA),成為世界第一能效的AI加速平台,讓需要高運算力的資料中心 (Data Center) 與雲端服務供應商 (CSP) 以最低的總擁有成本 (TCO) 實現企業永續 (ESG) 發展目標。
MLPerfTM v3.0 AI 推論測試是由致力提升機器學習技術和應用的開放工程聯盟 MLCommons® 所進行。創鑫智慧此次採用技鋼 G482-Z54 伺服器搭載 AMD EPYC 7452 32 核 CPU及 8 張 RecAccelTM N3000 32G PCIe 加速卡執行 DLRM測試。
根據MLCommons公布的測試數據,在資料中心推薦系統領域,RecAccelTM N3000 系統除了展現其100%的效能擴充性 (Performance Scalability) 之外,在每瓦可處理1,060次查詢 (Queries) 的評策上,能效為對手NVIDIA H100的1.7倍,高居榜首。未來計畫推出的RecAccelTM Quad N3000 PCIe 卡更能提供高達 2.2倍的卓越效能。RecAccelTM N3000優異的效能和TCO特性,滿足了資料中心與雲端服務業者對於AI應用的需求並符合ESG發展趨勢。
近年來,COVID-19 疫情的影響大幅改變了多數人的生活習慣和消費模式,進而引爆行銷科技 (MarTech) 的興起。如何提升行銷效率及藉由AI模型運算提供即時、個人化的精準數據,設計更佳的消費者使用體驗,已成為各大線上、線下業者所面臨的最大挑戰。此外,電商平台、社群媒體、影音傳媒、交友軟體和搜尋引擎的蓬勃發展,也加速了全球對推薦系統的需求,其市場每年以大約 30% 左右的複合年增長率 (CAGR) 快速成長,吸引全球各大廠商與新創公司參與競逐。
「為實現量大、精準、即時且節能的人工智慧運算,我們必須找到更可持續和環境友好的解決方案,這不僅僅是一個商業挑戰,更是對社會責任和綠色發展的追求,」創鑫智慧創辦人暨董事長林永隆博士表示。「我們以具體行動證明我們對永續發展的承諾,除了在 MLPerfTM 測試中取得最佳表現,我們還將推出專為開放運算計畫 (OCP) 設計的 DM.2 模組,繼續引領產業發展,提供更多協助雲端服務供應商與資料中心節省成本的平台方案,並助力 AI 技術的繁榮與成長。」
AMD策略業務發展全球副總裁Kumaran Siva則表示:「AMD提供高效能運算產品,幫助智慧系統有效管理複雜的資料集。我們非常高興能與創鑫智慧合作,藉由AMD EPYC處理器為MLPerfTM v3.0中的DLRM推理實現領先的效能及能耗。我們期待持續與創鑫智慧協同發展與創新,為市場提供不斷引領先進技術的人工智慧解決方案。」
關於MLPerfTM v3.0 AI 推論測試
MLPerfTM v3.0 AI 推論測試是由致力提升機器學習技術和應用的開放工程聯盟 MLCommons® 所進行,參與此測試的成員包括輝達 (NVIDIA)、英特爾 (INTEL)、高通 (Qualcomm) 、微軟雲端運算服務 (AZURE)、戴爾 (DELL)、技鋼 (GIGA Computing)、慧與科技 (HPE) 等領導廠商。
關於創鑫智慧 (NEUCHIPS Corporation)
創鑫智慧是由資深IC及軟體設計專家團隊創立於2019年,為AI ASIC解決方案的領導廠商。其管理和研發團隊在領先的半導體公司擁有數十年經驗,在訊號處理、神經網路和電路設計方面擁有多項專利。NEUCHIPS是MLCommons的創始會員,也是OCP Community 的一員。創鑫智慧的使命是從特定領域 (Domain Specific) 及應用 (Application) 開發專用的 AI 解決方案,提供最具成本效益的深度學習推論 (Deep Learning Inference) 加速器,為資料中心提供最低的總體擁有成本 (TCO) 的解決方案。創鑫智慧台灣總部坐落於新竹科學園區,鄰近頂尖學術研究機構及先進技術的產業鏈緊密相連,為員工提供了一個充滿挑戰和發展機會的完善環境。如需更多資訊,請至https://www.neuchips.ai/zh-Hant。