承認吧,你的生活已經越來越離不開 AI —— 它是你生活與工作上的良師益友、是你的造型顧問、是你的靈感執行者。它解答你千奇百怪的問題、潤飾漏洞百出的文字、與你對話互動,還可以生成圖像,讓人不損失一根頭髮,就看見更換髮型的自己。
然而,這些看似輕鬆的互動,背後其實是語言與圖像生成模型中數千億、甚至數兆個參數淬鍊下的結果。每一次你測試 AI 極限的舉動,都在呼喚著一次超高速的龐大運算。

圖 1 具備互動聊天、生成圖像等強大能力的 AI,到底是怎麼學會「思考」、理解人類的指令的?
圖片來源:Pixabay(https://pixabay.com/illustrations/ai-generated-chatgpt-chatbot-8177861/ )
為什麼 AI 那麼厲害?因為它是接龍大師
當我們和 AI 互動時,實際上到底發生了怎麼樣的運作?生成式 AI 專家、國立臺灣大學電機工程學系的李宏毅教授用了一個很生動的比喻:我們其實是在請 AI「玩接龍遊戲」!
以文字為例,首先當然要讓 AI 能「理解」人類的文字。所謂的「token」,就是 AI 模型在讀取文字時的最小單位。當我們在輸入 prompt (指令)時,文字會被拆解成一個個 token, 它可能是一個字、一個詞或某個詞的一部分。Token 接著會被轉換成一連串的數字向量,蘊含著特定語意、文法或上下文關係。例如同為水果的蘋果與香蕉,它們的數字向量也會長得相似。
接收到 token 後,AI 便理解了人類的意圖,接著它就開始像人類一樣,進行腦力激盪 —— 對一大堆的數字向量,進行巨量高速的運算,合理預測下一個 token 是什麼,開始一長串的 token 接龍。最後,AI 再把這些 token 轉回人類看得懂的文字,這就是我們所收到如神機妙算般的回應。
AI 是怎麼煉成的?
在 AI 模型學會與人聊天、生成圖片和語音互動前,它都經歷了怎麼樣的訓練呢?
「這個背後的過程,其實是一個非常巨大、甚至是暴力的運算方式,所以需要非常龐大的算力。」
李宏毅教授指出,訓練過程對 AI 而言,就是一場漫無方向的反覆試誤。訓練的核心邏輯非常直觀:開發者提供 AI 模型幾百萬、甚至上千萬億個參數,要求 AI 模型在指定的輸入下,靠自己摸索,去輸出人類想要的答案。
人類雖然設定了明確的目標,但卻無法給予捷徑。因此 AI 模型就需要透過不斷的嘗試與修正,嘗試讓每一次的輸出結果,盡可能逼近理想答案。
這種暴力拆解法,如果不借助高效的工具,勢必曠日費時。高階晶片如 GPU (Graphics Processing Unit),擅長高速且平行的運算,就成為提升 AI 模型能力的關鍵算力資源。
有了大量晶片的分工協作,AI 模型不僅能處理更多資料與參數,還能支援更複雜的操作,大幅提升生成文字、圖片與語音的精細度。
每一次的 AI 互動,都仰賴巨大晶片算力
訓練後的 AI 模型,只要能提供穩定、高品質的結果,就可以正式上工了!實際投入運作、與我們互動的 AI,在做的就是推論(Inferencing)的工作。
雖然推論不像訓練過程,需要經歷漫長的試誤,所需算力相對較小,但這並不代表它對硬體的要求不高,背後仍需巨大的算力支撐。
李宏毅教授分析,這主要源於兩個面向:首先是 「AI 模型規模的龐大」。當前的 AI 模型動輒包含巨量參數,要運行這些模型,最基本的要求是必須能將它載入到晶片的記憶體中。如果晶片的規格跟不上,就連啟動模型都辦不到。
其次是 「記憶與運算的雙重負擔」。如前文所述,AI 模型的運作核心是「文字接龍」,每當它要生成下一個 token 時,都必須回想前方所有已產出的內容,以此決定下一個詞彙。這意味著隨著生成內容的增加,AI 需要處理的資訊也會越來越長。唯有輔以匹配的晶片協助,AI 才能順利地一邊記憶一邊運算,產出理想的輸出結果。

圖 2 不論是訓練 AI 或是讓 AI 進行推論,都需要晶片強大算力的支援。
圖片來源:Pixabay(https://pixabay.com/illustrations/chip-processor-central-processor-8266843/ )
如何突破算力與 AI 晶片瓶頸?
既然臺灣是晶片產業重鎮,那應該有很多算力與 AI 晶片資源吧?但必須認清的現實是:掌握製造技術不等於實質擁有資源。
事實上,跨國科技巨頭為了維持競爭優勢,往往能傾注天文數字的資金,打造出規模遠超一般想像的算力中心。臺灣雖然擁有頂尖的晶片製造技術,但在高階算力設備的數量上,不見得能與這些跨國資本抗衡。
雖然臺灣產學界擁有的算力資源有限,李宏毅教授認為,學界還是可以往多面向推進 AI 相關的研究。他建議,可致力於發展「基準(benchmark)測試」的研究,即制定全新的測試標準。如果能開發出大企業也還沒察覺的測試形式,並以此揭示現有模型無法達成的瓶頸,這類研究就能發揮極大的影響力。
以李宏毅教授的研究團隊為例,他們在 2021 年所制定的「SUPERB」標準,已成為 AI 語音語言模型的業界標竿。「SUPERB」全名為 「Speech processing Universal Performance Benchmark」,它就像一個 AI 模型的專屬競技場,透過建立一個涵蓋語音識別、講者識別、語義理解等多種任務的標準平台,讓不同模型能在同一個公平的基準下,互相比較切磋,推動技術進步。
他也強調,應該避免投入那些「單純比拚資料量或模型規模」的軍備競賽。相對地,學者可專注在「動腦型」的研究,追求演算法層次的精進。這麼一來,即便在硬體與資料量上無法以量取勝,但在訓練演算法或模型架構上略勝一籌,依然有機會取得令人滿意的研究成果。
盡可能測試 AI 的極限,讓它帶你走得更遠
一直以來,李宏毅教授不僅在大學校園教授生成式 AI 與深度學習課程,更把教學影片放到 YouTube 頻道,讓社會大眾能透過生動有趣的講解,理解 AI 背後的原理。
面對「AI 即將統治世界」或「取代人類」的說辭,他鼓勵大家,與其半信半疑地焦慮,不如去嘗試使用當前最強大的 AI 模型。
「你如果從來沒有把 AI 試圖用在你工作上,你永遠不知道它能夠做到什麼事情。」
如李宏毅教授所言,當我們親手嘗試過 AI 的極限,我們也會更瞭解自己的能力,並進一步思考與想像,AI 的時代下人類生活的各樣可能性。