在計(jì)算能力變得日益廉價(jià)的今天,深度學(xué)習(xí)試圖建立大得多也復(fù)雜得多的神經(jīng)網(wǎng)絡(luò),我們可以把算法理解為深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)或是計(jì)算思維,這種神經(jīng)網(wǎng)絡(luò)越復(fù)雜,捕捉到的信號(hào)就越精確,目前比較常見的算法包括深度信念網(wǎng)絡(luò)(Deep Belief Networks)、卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeural Networks)、受限玻爾茲曼機(jī)(Restricted BoltzmannMachine)和堆棧式自動(dòng)編碼器(Stacked Auto-encoders),以深度卷積神經(jīng)網(wǎng)絡(luò)為代表的監(jiān)督學(xué)習(xí)方法目前來說是最有效也是使用最多的。
但目前問題在于大家把專注度放在了數(shù)據(jù)與運(yùn)算,因?yàn)?strong>神經(jīng)網(wǎng)絡(luò)本身差異不會(huì)很大,并且神經(jīng)網(wǎng)絡(luò)的核心算法提升起來太困難,仍然面臨著像局部最優(yōu)問題、代價(jià)函數(shù)與整個(gè)神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計(jì)等問題,但這也給眾多創(chuàng)業(yè)公司以新的思路,何不反其道而行之,避開那載著千軍萬(wàn)馬的“獨(dú)木橋”,如果能將算法優(yōu)化,前途也是不可限量的。