跳到主要內容

科技大觀園商標

分類項目
Menu

聊天、繪圖、語音對話的背後:揭開 AI 晶片與「龐大算力」的真面目

115/03/31 瀏覽次數 14

承認吧,你的生活已經越來越離不開 AI —— 它是你生活與工作上的良師益友、是你的造型顧問、是你的靈感執行者。它解答你千奇百怪的問題、潤飾漏洞百出的文字、與你對話互動,還可以生成圖像,讓人不損失一根頭髮,就看見更換髮型的自己。 

然而,這些看似輕鬆的互動,背後其實是語言與圖像生成模型中數千億、甚至數兆個參數淬鍊下的結果。每一次你測試 AI 極限的舉動,都在呼喚著一次超高速的龐大運算。

AI 示意圖

圖 1 具備互動聊天、生成圖像等強大能力的 AI,到底是怎麼學會「思考」、理解人類的指令的? 

圖片來源:Pixabay(https://pixabay.com/illustrations/ai-generated-chatgpt-chatbot-8177861/ ) 

為什麼 AI 那麼厲害?因為它是接龍大師

當我們和 AI 互動時,實際上到底發生了怎麼樣的運作?生成式 AI 專家、國立臺灣大學電機工程學系的李宏毅教授用了一個很生動的比喻:我們其實是在請 AI「玩接龍遊戲」! 

 

以文字為例,首先當然要讓 AI 能「理解」人類的文字。所謂的「token」,就是 AI 模型在讀取文字時的最小單位。當我們在輸入 prompt (指令)時,文字會被拆解成一個個 token, 它可能是一個字、一個詞或某個詞的一部分。Token 接著會被轉換成一連串的數字向量,蘊含著特定語意、文法或上下文關係。例如同為水果的蘋果與香蕉,它們的數字向量也會長得相似。 

 

接收到 token 後,AI 便理解了人類的意圖,接著它就開始像人類一樣,進行腦力激盪 —— 對一大堆的數字向量,進行巨量高速的運算,合理預測下一個 token 是什麼,開始一長串的 token 接龍。最後,AI 再把這些 token 轉回人類看得懂的文字,這就是我們所收到如神機妙算般的回應。

AI 是怎麼煉成的?

在 AI 模型學會與人聊天、生成圖片和語音互動前,它都經歷了怎麼樣的訓練呢? 

 

「這個背後的過程,其實是一個非常巨大、甚至是暴力的運算方式,所以需要非常龐大的算力。」 

李宏毅教授指出,訓練過程對 AI 而言,就是一場漫無方向的反覆試誤。訓練的核心邏輯非常直觀:開發者提供 AI 模型幾百萬、甚至上千萬億個參數,要求 AI 模型在指定的輸入下,靠自己摸索,去輸出人類想要的答案。 

人類雖然設定了明確的目標,但卻無法給予捷徑。因此 AI 模型就需要透過不斷的嘗試與修正,嘗試讓每一次的輸出結果,盡可能逼近理想答案。 

這種暴力拆解法,如果不借助高效的工具,勢必曠日費時。高階晶片如 GPU (Graphics Processing Unit),擅長高速且平行的運算,就成為提升 AI 模型能力的關鍵算力資源。 

有了大量晶片的分工協作,AI 模型不僅能處理更多資料與參數,還能支援更複雜的操作,大幅提升生成文字、圖片與語音的精細度。

每一次的 AI 互動,都仰賴巨大晶片算力

訓練後的 AI 模型,只要能提供穩定、高品質的結果,就可以正式上工了!實際投入運作、與我們互動的 AI,在做的就是推論(Inferencing)的工作。 

雖然推論不像訓練過程,需要經歷漫長的試誤,所需算力相對較小,但這並不代表它對硬體的要求不高,背後仍需巨大的算力支撐。 

李宏毅教授分析,這主要源於兩個面向:首先是 「AI 模型規模的龐大」。當前的 AI 模型動輒包含巨量參數,要運行這些模型,最基本的要求是必須能將它載入到晶片的記憶體中。如果晶片的規格跟不上,就連啟動模型都辦不到。 

其次是 「記憶與運算的雙重負擔」。如前文所述,AI 模型的運作核心是「文字接龍」,每當它要生成下一個 token 時,都必須回想前方所有已產出的內容,以此決定下一個詞彙。這意味著隨著生成內容的增加,AI 需要處理的資訊也會越來越長。唯有輔以匹配的晶片協助,AI 才能順利地一邊記憶一邊運算,產出理想的輸出結果。

AI  訓練

圖 2 不論是訓練 AI 或是讓 AI 進行推論,都需要晶片強大算力的支援。 

圖片來源:Pixabay(https://pixabay.com/illustrations/chip-processor-central-processor-8266843/ ) 

如何突破算力與 AI 晶片瓶頸?

既然臺灣是晶片產業重鎮,那應該有很多算力與 AI 晶片資源吧?但必須認清的現實是:掌握製造技術不等於實質擁有資源。 

事實上,跨國科技巨頭為了維持競爭優勢,往往能傾注天文數字的資金,打造出規模遠超一般想像的算力中心。臺灣雖然擁有頂尖的晶片製造技術,但在高階算力設備的數量上,不見得能與這些跨國資本抗衡。 

雖然臺灣產學界擁有的算力資源有限,李宏毅教授認為,學界還是可以往多面向推進 AI 相關的研究。他建議,可致力於發展「基準(benchmark)測試」的研究,即制定全新的測試標準。如果能開發出大企業也還沒察覺的測試形式,並以此揭示現有模型無法達成的瓶頸,這類研究就能發揮極大的影響力。 

 

以李宏毅教授的研究團隊為例,他們在 2021 年所制定的「SUPERB」標準,已成為 AI 語音語言模型的業界標竿。「SUPERB」全名為 「Speech processing Universal Performance Benchmark」,它就像一個 AI 模型的專屬競技場,透過建立一個涵蓋語音識別、講者識別、語義理解等多種任務的標準平台,讓不同模型能在同一個公平的基準下,互相比較切磋,推動技術進步。 

 

他也強調,應該避免投入那些「單純比拚資料量或模型規模」的軍備競賽。相對地,學者可專注在「動腦型」的研究,追求演算法層次的精進。這麼一來,即便在硬體與資料量上無法以量取勝,但在訓練演算法或模型架構上略勝一籌,依然有機會取得令人滿意的研究成果。

盡可能測試 AI 的極限,讓它帶你走得更遠

一直以來,李宏毅教授不僅在大學校園教授生成式 AI 與深度學習課程,更把教學影片放到 YouTube 頻道,讓社會大眾能透過生動有趣的講解,理解 AI 背後的原理。 

面對「AI 即將統治世界」或「取代人類」的說辭,他鼓勵大家,與其半信半疑地焦慮,不如去嘗試使用當前最強大的 AI 模型。 

「你如果從來沒有把 AI 試圖用在你工作上,你永遠不知道它能夠做到什麼事情。」 

如李宏毅教授所言,當我們親手嘗試過 AI 的極限,我們也會更瞭解自己的能力,並進一步思考與想像,AI 的時代下人類生活的各樣可能性。

資料來源
  1. 專訪國立臺灣大學電機工程學系李宏毅教授 
  2. Yang, S. W., Chi, P. H., Chuang, Y. S., Lai, C. I. J., Lakhotia, K., Lin, Y. Y., ... & Lee, H. Y. (2021). Superb: Speech processing universal performance benchmark. arXiv preprint arXiv:2105.01051. 
OPEN
回頂部