智能機器人和設備將占領家庭?芯片制造商Nvidia正在將這變成現實。Nvidia不會開發一些算法來控制機器人的行為,或安裝感應器讓其學習這個世界,但它的圖形處理單元,即GPUs,可能幫助處理人工智能所需的海量運算。因此在物聯網高速發展的今天,GPU加速將掀起人工智能革命。


多數應用程序都不會只使用GPUs,但會將需要大量計算的任務由標準的微處理器交給GPUs,這就是GPU加速。這種處理在超級計算中非常普遍,并在計算機視覺和物體識中別無處不在。Nvidia高級計算組的總經理SumitGupta表示,2013年ImageNet圖像識別競賽(一項視覺識別領域的比賽)中80%的參賽者都使用了GPU加速。
2013年3月,谷歌收購了DNNresearch,一家由多倫多大學教授GeoffHinton聯合創立的深度學習方面的創業公司。這家公司的Hinton小組參加了2012年的ImageNet競賽,并取得了不錯的成績。當時他們由GPU驅動的深度學習模型輕松打敗了其他對手。
“事實證明,GPU方式能很好處理深度神經網絡問題”,Gupta表示。這是因為深度學習算法通常需要海量計算來處理數據(圖像、文本等),和提取數據對象的確定特征。尤其是在訓練階段,模型或算法為了調整精度,需要處理大量數據。
許多公司都在使用Nvidia的TeslaGPUs進行圖像和語音識別,其中包括Adobe和中國的百度。Gupta表示,Nvidia也很在意深度學習的其他方面。Netflix在亞馬遜的云服務中使用GPU加速改善其推薦系統,俄國的搜索公司Yandex采用這種方式為搜索引擎加速,而IBM也用其改進Hadoop。
Nvidia可能對機器學習很感興趣,因為它近年來一直致力于將GPUs打造成一個通用計算平臺,而不是僅用作圖像和游戲芯片,不過結果喜憂參半。為達成這一目的,Nvidia嘗試過用自己開發的CUDA語言對處理器進行編程,但Gupta指出,目前對如何高效使用GPUs仍知之甚少。這也是為什么這項創新技術還只是在一些大公司中使用,因為只有它們才具備同時利用2500個或更多核心(在GPU系統中會更多)的并行處理技術。
不過,除了服務器,Nvidia也考慮在未來十年中將機器學習技術用于 機器人。上周,Nvidia發布了可用于超級計算的JetsonTK1開發套裝。該套裝價值192美元,可用CUDA語言進行編程,并包括了開發者想要的一切端口,和Nvidia的最新移動處理器(TegraK1單芯片系統,配有192核的KeplerGPU和ARMCortexA15CPU,可進行300千兆的浮點運算)。
在上世紀90年代,這種處理速度在超級計算機中也名列前茅。
Nvidia正在主流機器人所需的計算機視覺、安全和其他計算領域兜售這個套裝。Gupta表示智能設備安裝了這種計算工具后,物聯網速度將得到極大提升。Google和Facebook可能會在成百上千的服務器上處理大規模人工智能模型,但在智能手機上運行生成的算法以減少直接發送給云服務器處理的數據量也是一個發展方向。到時溫度調節器或無人機擁有300千兆浮點運算能力也不是不可能。
Nvidia預期,機器學習方面的工作將在未來幾年內帶來相當不錯的利潤,Gupta表示,但除了上述例子外,他也無法預測GPUs將地哪些方面有所應用。他表示,“我們目前只開發出了機器學習的幾種用途,但絕不會只有這些。”對于Jetson工作套裝,他表示:“購買者的想像力會更豐富。”








