japanesexxxx日本妇伦, 17ccgcg吃瓜网黑料爆料蘑菇, 日本一卡二卡3卡四卡无卡国色天香, 一二三四五免费观看完整版高清视频,中国激情久久区免费,2012中文字幕第8,国产清纯美女高潮出白浆直播,金服高潮,久久精品无码一区二区WWW

十年技術深耕細作

為您提供各行業(yè)互聯(lián)網(wǎng)私人定制開發(fā)解決方案

免費咨詢熱線15890197308
新聞資訊
把握先機贏得挑戰(zhàn)與世界同步
首頁 新聞中心 科技前沿

人工智能越來越聰明,但它"體能"能跟上"腦力"嗎?

來源:新浪科技綜合 發(fā)布時間:2018-07-09瀏覽:2688次

人工智能越來越聰明,但它"體能"能跟上"腦力"嗎?  原標題:人工智能越來越聰明,但它的“體能”能跟上“腦力”嗎?  隨著深度神經網(wǎng)絡的持續(xù)改進和成長,面對日益增長的計算需求,相應的硬件創(chuàng)新也迫在眉睫?! ∩疃葘W習是人工智能(AI)近期發(fā)展的前沿陣地。它涉及到靈感來源于生物神經網(wǎng)絡的一系列機器學習算法,可用于在巨量數(shù)據(jù)中尋找某些模式。通過這些深度神經網(wǎng)絡,諸如語音和視覺識別等領域得到了大幅發(fā)展;以它們?yōu)榛A的計算機程序在一些特定任務中展示了超越人類的能力。相變存儲器的二維陣列。來源:...

人工智能越來越聰明,但它"體能"能跟上"腦力"嗎?

  原標題:人工智能越來越聰明,但它的“體能”能跟上“腦力”嗎?

  隨著深度神經網(wǎng)絡的持續(xù)改進和成長,面對日益增長的計算需求,相應的硬件創(chuàng)新也迫在眉睫。

  深度學習是人工智能(AI)近期發(fā)展的前沿陣地。它涉及到靈感來源于生物神經網(wǎng)絡的一系列機器學習算法,可用于在巨量數(shù)據(jù)中尋找某些模式。通過這些深度神經網(wǎng)絡,諸如語音和視覺識別等領域得到了大幅發(fā)展;以它們?yōu)榛A的計算機程序在一些特定任務中展示了超越人類的能力。

相變存儲器的二維陣列。來源:IBM研究院

相變存儲器的二維陣列。來源:IBM研究院

  這一點在AlphaGo身上得到了淋漓盡致的展示。這個由倫敦DeepMind團隊開發(fā)的程序,2016年3月在一場5回合的比賽中擊敗了圍棋世界冠軍李世乭,比分為4比1。現(xiàn)在,AlphaGo唯一的對手只剩下自身的改進版。2017年10月,DeepMind團隊發(fā)布了一款升級版本——AlphaGo Zero——它應用了強化學習,并且只通過自己和自己對弈進行訓練。而AlphaGo的能力則建立在對人類專業(yè)棋手數(shù)百萬步走法的非監(jiān)督式學習。結果,AlphaGo Zero以100回合全勝的戰(zhàn)績戰(zhàn)勝了擊敗過李世乭的AlphaGo。

  深度神經網(wǎng)絡涉及多層由數(shù)字化的‘神經突觸’連接的‘神經元’。利用大量數(shù)據(jù)以及目標任務的正確答案進行訓練后,神經元之間連接的強度或者說權重得到不斷調整,直到最上層網(wǎng)絡給出正確的結果。完成訓練的網(wǎng)絡配以訓練中得到的連接權重再被應用到全新數(shù)據(jù)中——這一步被稱為推斷。

  深度神經網(wǎng)絡近期的成功既得益于算法和網(wǎng)絡架構的進步,也得益于獲取巨量數(shù)據(jù)變得日趨容易,以及高性能計算機持續(xù)發(fā)展。當前,具備一流運算精度的深度神經網(wǎng)絡的運算量相當大。史弋宇及其同事在《自然-電子學》上發(fā)表了一篇Perspective文章(https://go.nature.com/2lWHPww),他們在文中指出,這代表了深度神經網(wǎng)絡面臨的新挑戰(zhàn),特別是當它們被應用于空間和電池容量有限的手機以及諸如智能傳感器、穿戴設備等嵌入式產品時。

圖1:前沿深度神經網(wǎng)絡的迭代。深度神經網(wǎng)絡的參數(shù)量呈現(xiàn)指數(shù)式增長。Y軸為對數(shù)坐標。

圖1:前沿深度神經網(wǎng)絡的迭代。深度神經網(wǎng)絡的參數(shù)量呈現(xiàn)指數(shù)式增長。Y軸為對數(shù)坐標。

  來自美國圣母大學、加州大學洛杉磯分校和中國華中科技大學的研究團隊考察了深度神經網(wǎng)絡的精度和規(guī)模方面的數(shù)據(jù),以及不同硬件平臺的運算性能。他們指出,深度神經網(wǎng)絡應用于設備端推斷(在嵌入式平臺端執(zhí)行的推斷)的迭代速度和CMOS技術的迭代速度存在差距——而且這個差距在增大。當深度神經網(wǎng)絡變得更加精確,它們的尺度(層數(shù)、參數(shù)量、運算量)顯著擴大。

圖2:ImageNet圖像分類競賽中明星深度神經網(wǎng)絡的前5大誤判比率。前5大誤判的比率隨時間呈指數(shù)式下降。Y軸為對數(shù)坐標。

  圖2:ImageNet圖像分類競賽中明星深度神經網(wǎng)絡的前5大誤判比率。前5大誤判的比率隨時間呈指數(shù)式下降。Y軸為對數(shù)坐標。

  但是,正如史弋宇及其同事所述,典型的硬件平臺——圖形處理單元(GPU)、現(xiàn)場可編程門陣列(FPGA)以及專用集成電路(ASIC)——其計算性能的提升跟不上前沿深度神經網(wǎng)絡的設計需求。類似的,承載這些網(wǎng)絡的硬件平臺的存儲器功耗也跟不上網(wǎng)絡尺度的增長。

圖3:運算量與性能密度之間的差距。a, 運算量對比ImageNet圖像分類競賽中領先的深度神經網(wǎng)絡的前5大誤判比率。b, 領先的GPU、ASIC和FPGA硬件平臺性能密度。為匹配所需運算量,簡單增加芯片面積并不可行。各年只標示了奪冠的深度神經網(wǎng)絡。Y軸為對數(shù)坐標。

  圖3:運算量與性能密度之間的差距。a, 運算量對比ImageNet圖像分類競賽中領先的深度神經網(wǎng)絡的前5大誤判比率。b, 領先的GPU、ASIC和FPGA硬件平臺性能密度。為匹配所需運算量,簡單增加芯片面積并不可行。各年只標示了奪冠的深度神經網(wǎng)絡。Y軸為對數(shù)坐標。

  史弋宇及其同事指出,“CMOS技術的迭代對于日益增長的計算強度和功耗方面的需求并沒有提供足夠的支撐,因此需要在架構、電路和器件上加以創(chuàng)新?!被诖耍麄兝^續(xù)檢驗了結合不同架構和算法創(chuàng)新來彌補上述差距的可行性。

圖4:內存訪問量和內存能效之間存在差距。a, 參數(shù)量(與內存訪問量高度相關)對比各年ImageNet圖像分類競賽中領先的深度神經網(wǎng)絡的前5大誤判比率。b, 主流存儲技術的內存能效。內存能效在有限能量預算下將無法支持日益增長的內存訪問量。各年只標示了奪冠的深度神經網(wǎng)絡。Y軸為對數(shù)坐標。

  圖4:內存訪問量和內存能效之間存在差距。a, 參數(shù)量(與內存訪問量高度相關)對比各年ImageNet圖像分類競賽中領先的深度神經網(wǎng)絡的前5大誤判比率。b, 主流存儲技術的內存能效。內存能效在有限能量預算下將無法支持日益增長的內存訪問量。各年只標示了奪冠的深度神經網(wǎng)絡。Y軸為對數(shù)坐標。

  一種方式是放棄傳統(tǒng)的,即存儲單元和計算單元物理上分離的馮·諾依曼計算架構,比如納米級電阻式存儲器(憶阻器件)能夠即用于計算又用于存儲。但器件的應變能力仍然是個問題,限制了運算所需精度。

  在本期《自然-電子學》的另一篇文章中(https://go.nature.com/2IZ9VAq),來自蘇黎世IBM研究院和蘇黎世聯(lián)邦理工學院的Manuel Le Gallo及其同事表明,綜合利用電阻式存儲器的內存內運算以及傳統(tǒng)數(shù)字運算,或許能解決這個問題。這里的內存內運算單元,具體來說是一組相變存儲器的二維陣列,它們承載主要的計算任務,而傳統(tǒng)計算單元則迭代提升解算精度。

  Le Gallo及其同事通過解算線性方程組,展示了上述被他們稱為“混合精度內存內運算”方案的性能。這種方案之前也被用于訓練深度神經網(wǎng)絡。

  為AI應用開發(fā)專用器件和芯片的發(fā)展前景也已引起芯片初創(chuàng)公司的興趣。今年早些時候,據(jù)《紐約時報》報道,目前至少有45家初創(chuàng)公司在開發(fā)此類芯片,而風險投資者去年在芯片初創(chuàng)公司中的投資超過15億美元,幾乎是兩年前投資數(shù)額的兩倍。

  這種技術的潛力不可小覷,學術界和產業(yè)界的研究人員正在響應機器學習和AI對硬件提出的挑戰(zhàn)——以及隨之而來的機遇。