
圖 1 圖片來源:Pixabay(https://pixabay.com/illustrations/computer-chip-silicon-data-8530788/)
早上出門,你一眼認出迎面走來的老朋友;搭捷運時,你瞬間聽懂廣播裡的一句話;騎車轉彎,你的手幾乎在意識到之前就已經轉動了把手。這些事情對人類來說理所當然,但如果要交給電腦,工程師可能得為此努力好幾年。
人腦在執行這一切的時候,消耗的電力大約只有 20 到 25 瓦,和一顆省電燈泡差不多。相較之下,如今支撐大型 AI 模型訓練與運作的資料中心,往往需要極其龐大的電力與散熱系統。這種懸殊差距,正凸顯出人腦在能效上的驚人優勢。
國立陽明交通大學電子研究所陳坤志教授,專長橫跨多核心系統晶片設計、類神經網路學習演算法、超大型積體電路架構等領域。他指出,人腦最值得AI借鏡的,不只是計算能力,而是在極低能耗下進行大量平行運算,並能在少量資料與多變情境中迅速做出決策。人腦處理資訊的方式也和傳統電腦截然不同,它不是把所有事情排成一條隊伍依序處理,而是讓大量神經元同時並行運作,像一支龐大的交響樂團,各司其職又同步演奏。
類神經網路模仿的,其實不是整個大腦
也因此,當研究者試圖讓機器學會辨識、判斷與學習時,最自然的靈感來源之一,就是人腦。
陳坤志教授解釋,人工智慧、機器學習、類神經網路、深度學習這幾個名詞經常被混用,但其實它們是層層包含的關係,不是同義詞。
那麼,類神經網路究竟模仿了人腦的哪個部分?答案不是整顆大腦,而是神經元接收訊號、給予不同連結強度、最後整合成反應的基本概念。一個人工神經元接收輸入,對不同來源的訊號給予不同的權重,加總之後算出輸出,再傳給下一層神經元,如此一層一層往前傳遞,最終給出一個判斷結果。大量這樣的人工神經元連結起來,就形成了可以辨識圖像、理解語音、從資料中找出規律的神經網路。
陳坤志教授說,目前AI主要模仿的是神經元連結的抽象形式,也就是用多層計算單元與權重,從大量資料中學會辨識特徵,而不是直接重現生物大腦的完整運作機制。這確實有幾分像大腦的連結學習方式,但本質上仍是以數學方法模擬人腦的某些機制,兩者之間存在相當大的距離。
當模型愈來愈大,問題開始不只是怎麼學
類神經網路之所以有用,是因為它能從龐大的資料中找到規律。但這種方法的代價也很高。模型的層數越深、參數越多,每一次訓練或推論所需的計算量,都是天文數字。
陳坤志教授用了一個很直觀的方式區分AI的兩種工作模式。他說,「訓練(Training)」就像學生花大量時間反覆練習、累積知識的過程;「推論(Inference)」則是把學到的知識拿去應付考試或實際情境。訓練可以慢,可以用大量資源進行長時間運算,但推論不行。你拿手機刷臉解鎖的那一秒,工廠感測器判斷設備是否異常的那一刻,自駕車辨識前方行人的那一瞬間,都不容許任何等待。在推論的世界裡,低延遲是硬需求。
當 AI 模型的規模不斷膨脹,問題的重心也悄悄移動了。陳坤志教授指出,近年來 AI 的發展重心之所以從「純軟體演算法」逐漸延伸至「客製化硬體設計」,關鍵原因正是在於模型愈來愈大之後,技術瓶頸已從演算法本身,慢慢轉向算力需求、能耗需求與資料搬移成本。若繼續仰賴傳統的通用型處理器,受限於架構設計,執行 AI 運算時效率偏低,而且非常耗時耗電。也就是說,當 AI 的瓶頸從演算法轉向算力與能耗時,晶片設計就不再只是配角,而開始成為決定 AI 能走多遠的關鍵。
為什麼AI需要新的晶片
這也正是 AI 晶片愈來愈重要的原因。
傳統 CPU 的優勢在於通用性,它被設計來應付各種不同類型的運算,開瀏覽器、執行試算表、播放影片,全都能處理。但 AI 任務的核心計算,其實是大量重複且高度規律的矩陣乘法、卷積與乘積累加運算。對這類工作來說,通用型處理器並不是最有效率的選擇,就像叫一個什麼都懂的萬事通去工廠流水線上鎖螺絲——他做得到,但不是最符合經濟效益的安排。
AI 晶片的設計思路則更偏向任務導向。它不像 CPU 那樣以高度通用性為首要目標,而是把更多硬體資源集中在 AI 最常見的幾種運算上。陳坤志教授表示,AI 晶片之所以比傳統 CPU 更有效率,關鍵在於它的硬體架構更針對矩陣乘法、卷積、張量運算與資料流而設計,因此更能做到低功耗與低延遲。此外,AI 晶片更減少資料在記憶體與運算單元之間來回搬移的次數,因為每一次搬移都要付出時間與電力的代價,這個成本在大型模型的推論中累積起來相當可觀。
AI 晶片的重要性,不只是「比較快」,而是它代表一種設計思維的根本轉變。過去晶片強調什麼都能做,現在則開始追求針對特定任務做到最高效率。這個方向的轉變,是被 AI 對算力的龐大需求步步催生出來的。
類神經網路晶片,離真正的大腦還有多遠
繞了這一圈,我們可以回頭回答題目最初的問題。AI 晶片真的在模仿人腦嗎?
說它在模仿,並不算錯。今天的 AI 晶片更加重視平行運算、更在意功耗,也更致力讓記憶體與運算單元靠得更近,而這些恰恰都是人腦與生俱來的優勢。更前沿的研究甚至開始從硬體架構本身模仿大腦,例如讓晶片僅在輸入改變時才進行運算,減少運算功耗;或是讓儲存與運算更緊密結合,減少資料搬移的代價。
但陳坤志教授也提醒,不宜太早將今天的 AI 和人腦劃上等號。他認為,目前 AI 在高效率學習、低功耗推理、事件驅動與記憶運算融合等方面,和人腦都還有很大的差距。人腦可以從少量資料中快速學會新事物,在陌生情境裡靈活應變,全程消耗的能量少得驚人;AI 則需要巨量資料支撐,不論是訓練還是推論階段,都需要付出可觀的電力成本。其根本的差異在於,目前多數AI系統仍運行於傳統馮·紐曼架構(Von Neumann Architecture)之上,記憶體與運算單元分開放置,資料得反覆搬移,而人腦的記憶與運算本就是高度融合的,幾乎沒有這些額外的成本。
陳坤志教授也指出,臺灣在晶片設計、製造、封測與完整供應鏈上擁有世界級的優勢,若能從晶片本身延伸到系統架構與整合設計,將有機會在 AI 硬體這波浪潮中建立真正的差異化平臺。
類神經網路晶片不是把大腦複製進矽晶片裡,而是人類在理解大腦某些資訊處理原理之後,試著設計出更適合 AI 任務、也更有效率的運算架構。真正迷人的地方,不是機器終於變得像人,而是科技開始重新思考,什麼才算是更聰明、更省能的計算方式。AI 晶片借鏡的是大腦留下的線索,而不是大腦本身。但也正因為如此,這條探索之路才剛開始。