前言
張量處理器(Tensor Processing Unit,TPU)是Google公司為機器學習所開發的特殊專用處理器。在2016年的Google I/O年會上首次公布了TPU,不過在這之前,Google街景服務及世界棋王AlphaGo等知名的應用程式與研究中,都使用到了TPU。那為什麼要研發這個處理晶片呢?
AlphaGo使用配有TPU的伺服器(圖片來源:https://cloudplatform.googleblog.com/)
更有效地處理任務–TPU的誕生
在現在機器學習正夯的時期,Google公司的許多服務,例如:語音辨識服務,需要透過分析大量的數據來學習處理任務的能力,但是要處理這麼大量的資料,需要更大量或更強大的伺服器來完成。因此,這個訂制的機器學習處理晶片就誕生了,TPU除了具備在處理機器學習方面能高速運算外,也解決了原本提高伺服器成本的窘境。
Google TPU(圖片來源:https://cloud.google.com/tpu/)
在傳統平行處理大量任務上,我們會想到圖形處理器(GPU),與GPU相比,TPU具有單位成本上高速運算的優點,因為TPU透過降低每一步運算操作所需的運算單元數量,以及使用特殊設計的陣列運算,因此可將功耗約控制在28至40瓦,進而大幅降低功耗。也因為特殊架構的設計,在處理專用的數據學習任務上,可以很有效地加快運算速度。
結語
大量數據學習的運算處理器,現在不只有Google公司注意到這方面的需求,許多知名公司也研發了符合各自特殊應用的自主學習運算晶片。人工智慧蓬勃討論和發展的現在,這類加速學習運算的處理器相信未來也將應用在其他領域上,像是智慧型手機及汽車,我們都會使用到許多辨識功能或者內部大量的數據分析,皆可以透過像是TPU這類專用的處理晶片加速運算。綜合上述,這類專用處理器很有可能成為未來運算特定人工智慧(AI)任務的趨勢!
副總編輯:國立中山大學資訊工程學系 陳坤志教授
總編輯:國立中山大學資訊工程學系 黃英哲教授
(本文由科技部補助「
新媒體科普傳播實作計畫」執行團隊撰稿)