跳到主要內容

科技大觀園商標

分類項目
Menu

為機器學習而生的處理晶片-TPU

107/09/26 瀏覽次數 7054

前言

 

張量處理器(Tensor Processing Unit,TPU)是Google公司為機器學習所開發的特殊專用處理器。在2016年的Google I/O年會上首次公布了TPU,不過在這之前,Google街景服務及世界棋王AlphaGo等知名的應用程式與研究中,都使用到了TPU。那為什麼要研發這個處理晶片呢?

 
 AlphaGo使用配有TPU的伺服器(圖片來源:https://cloudplatform.googleblog.com/)AlphaGo使用配有TPU的伺服器(圖片來源:https://cloudplatform.googleblog.com/)
 

更有效地處理任務–TPU的誕生

 
在現在機器學習正夯的時期,Google公司的許多服務,例如:語音辨識服務,需要透過分析大量的數據來學習處理任務的能力,但是要處理這麼大量的資料,需要更大量或更強大的伺服器來完成。因此,這個訂制的機器學習處理晶片就誕生了,TPU除了具備在處理機器學習方面能高速運算外,也解決了原本提高伺服器成本的窘境。
 
Google TPU(圖片來源:https://cloud.google.com/tpu/)

Google TPU(圖片來源:https://cloud.google.com/tpu/)
在傳統平行處理大量任務上,我們會想到圖形處理器(GPU),與GPU相比,TPU具有單位成本上高速運算的優點,因為TPU透過降低每一步運算操作所需的運算單元數量,以及使用特殊設計的陣列運算,因此可將功耗約控制在28至40瓦,進而大幅降低功耗。也因為特殊架構的設計,在處理專用的數據學習任務上,可以很有效地加快運算速度。

 

結語

 
大量數據學習的運算處理器,現在不只有Google公司注意到這方面的需求,許多知名公司也研發了符合各自特殊應用的自主學習運算晶片。人工智慧蓬勃討論和發展的現在,這類加速學習運算的處理器相信未來也將應用在其他領域上,像是智慧型手機及汽車,我們都會使用到許多辨識功能或者內部大量的數據分析,皆可以透過像是TPU這類專用的處理晶片加速運算。綜合上述,這類專用處理器很有可能成為未來運算特定人工智慧(AI)任務的趨勢!
 

副總編輯:國立中山大學資訊工程學系 陳坤志教授

總編輯:國立中山大學資訊工程學系 黃英哲教授

(本文由科技部補助「新媒體科普傳播實作計畫」執行團隊撰稿)
OPEN
回頂部