大數據、人工智慧時代,巨量資料需要儲存與運算,因此我們需要更大的記憶體。(圖/Harrison Broadbent,Unsplash)
當今的計算機是以范紐曼架構(Von Neumann model)為基礎:資料儲存在硬碟裡,做運算時先把資料搬到主記憶體,然後再搬到CPU。在面臨巨量資料運算的未來,現在的記憶體夠用嗎?或者問,現在的電腦架構應付得了嗎?
記憶體極度飢餓的時代
台灣大學資訊工程學系特聘教授郭大維說:「現在是記憶體極度飢餓的時代。」
從大數據方面可以看出,過去一年所累積的資料量,等於人類有史以來至前年的資料量。這還只是現今應用所累積的數據,未來還有物聯網,汽車、眼鏡等手邊的東西都會連網,就會產生更多巨量資料。在大數據、人工智慧時代,這些巨量資料的產生會需要儲存與運算,因此不難想見,我們需要更大的儲存設備、更大的記憶體。
就算有足夠大的儲存設備和記憶體,巨量資料從雲端搬到個人電腦的儲存設備、記憶體、CPU裡,搬動的速度夠快嗎?現在的記憶體速度約為奈秒,試想1TB的資料量從儲存設備搬到記憶體需要時間多久?
同時,當處理器以摩爾定律成長時,其實儲存設備和記憶體也跟著快速成長,甚至超過摩爾定律。但成長到一定程度時,記憶體的耗電量其實非常驚人,以往電腦內是CPU、GPU等處理器最耗電,現在可能變成記憶體。以DRAM為例,由於DRAM有漏電(leakage power)的問題,需要不停把電路內容刷新,刷新這個動作就很耗電。
因此,我們需要一個又大又快又省電的記憶體。
郭大維認為,目前的計算機架構有其瓶頸,新的記憶體和計算機架構,是人工智慧的時代的必需品。
創新的記憶體,創新的電腦架構
過去幾十年來,我們把硬碟進化成固態硬碟,速度從毫秒提升到微秒,提升快約1,000倍左右,或許還足堪應付過去的需要,但恐怕跟不上未來的成長幅度。另外,就算儲存設備速度趕得上,也會很難以需要的速度搬到主記憶體裡來運算。
因此科學家開始思考,假設可以把儲存設備的速度提升到奈秒,那麼硬碟和記憶體就統一了,變成一個創新的記憶體。檔案系統可以儲存在創新的記憶體裡,應用程式一樣可以下載到創新的記憶體裡做運算。也就是說,創新的記憶體可以當作記憶體用,也可以當作儲存使用。
雖然這樣可以解決儲存設備和記憶體之間的問題,但對於人工智慧可能還是不夠。以深度學習的架構為例,它是仿人類神經元架構,有好多層,每層有多個節點,巨量資料進入第一層,在每個節點上做運算後,根據路徑再送入第二層,依此類推。每一層的每個節點都是同時在計算,資料輸出入與計算是融合在一起,與傳統的范紐曼結構的基礎設計原理是不同的。
據估計,若希望深度學習的速度能比現在快2倍、4倍、8倍⋯⋯,記憶體所需的速度是呈指數增長,目前技術根本做不到。如果能夠把創新記憶體的速度變得跟CPU一樣快,並且拓寬記憶體頻寬(每次搬運的資料量),那就更完美了。
或許人類得摒棄范紐曼結構,重新設計電腦,在積體電路上改用神經元的仿生結構是一種大家在思考的選擇。每一個節點就類似一個神經元,資料在這中間流動,每一個點都可以做計算,也就是讓資料在「記憶體中處理」(Processing- in- Memory, PIM)。這也是許多公司在設計未來AI晶片的可能作法。
郭大維認為,目前的計算機架構有其瓶頸,需要新的記憶體、新的計算機架構,才能迎接大數據、人工智慧的時代。