中文字幕日韩一区二区不卡,亚洲av永久无码精品天堂动漫,亚洲av无码国产精品麻豆天美,最新版天堂中文在线,中文字幕视频在线看

a&s專業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1
首頁 > 資訊 > 正文

如何區(qū)分人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)?

人工智能(Artificial Intelligence)是一個(gè)最廣泛的概念,人工智能的目的就是讓計(jì)算機(jī)這臺(tái)機(jī)器能夠象人一樣思考,而機(jī)器學(xué)習(xí)(Machine Learning)是人工智能的分支,專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,使之不斷改善自身的性能。
資訊頻道文章B

  

  人工智能(Artificial Intelligence)是一個(gè)最廣泛的概念,人工智能的目的就是讓計(jì)算機(jī)這臺(tái)機(jī)器能夠象人一樣思考,而機(jī)器學(xué)習(xí)(Machine Learning)是人工智能的分支,專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,使之不斷改善自身的性能。

  深度學(xué)習(xí)(Deep Learning)是一種機(jī)器學(xué)習(xí)的方法,它試圖使用包含復(fù)雜結(jié)構(gòu)或由多重非線性變換構(gòu)成的多個(gè)處理層(神經(jīng)網(wǎng)絡(luò))對(duì)數(shù)據(jù)進(jìn)行高層抽象的算法。

  神經(jīng)網(wǎng)絡(luò)是一組大致模仿人類大腦構(gòu)造設(shè)計(jì)的算法,用于識(shí)別模式。神經(jīng)網(wǎng)絡(luò)通過機(jī)器感知系統(tǒng)解釋傳感器數(shù)據(jù),能夠?qū)υ驾斎脒M(jìn)行標(biāo)記或聚類等操作。神經(jīng)網(wǎng)絡(luò)所能識(shí)別的模式是數(shù)值形式,因此圖像、聲音、文本、時(shí)間序列等一切現(xiàn)實(shí)世界的數(shù)據(jù)必須轉(zhuǎn)換為數(shù)值。

  在深度學(xué)習(xí)網(wǎng)絡(luò)中,每一個(gè)節(jié)點(diǎn)層在前一層輸出的基礎(chǔ)上學(xué)習(xí)識(shí)別一組特定的特征。隨著神經(jīng)網(wǎng)絡(luò)深度增加,節(jié)點(diǎn)所能識(shí)別的特征也就越來越復(fù)雜,因?yàn)槊恳粚訒?huì)整合并重組前一層的特征。

  上圖顯示了一個(gè)神經(jīng)網(wǎng)絡(luò)用于判定一個(gè)圖片是不是一條狗的過程,輸入是圖片,通過深層神經(jīng)網(wǎng)絡(luò)對(duì)狗的低層特征進(jìn)行抽象,最后輸出是圖片是狗的概率。

  深度學(xué)習(xí)的過程同樣是分為訓(xùn)練和推理(既“評(píng)估”)兩個(gè)過程,通過訓(xùn)練過程來獲得數(shù)據(jù)模型,然后用于評(píng)估新的數(shù)據(jù)。

  數(shù)據(jù)模型分為兩種,一種是所謂判別模型(Discriminative Model),也就是說模型可以直接用來判別事物的。這里所說的判別事物,最典型的就是做分類。既然直接可以用來分類,也就是說我們可以在已知屬性的條件下,對(duì)該記錄進(jìn)行判斷。所以,判別模型是對(duì)條件概率進(jìn)行的建模,也就是p(Y|X)。這里X就是屬性集合,實(shí)際上就是一個(gè)向量;而Y則可能是一個(gè)值(此時(shí)對(duì)應(yīng)分類問題), 可能是一個(gè)向量(此時(shí)對(duì)應(yīng)序列標(biāo)注問題)。判別模型常用于處理分類問題(比如鑒定垃圾郵件)、圖像識(shí)別等等。

  再說一說生成模型(Generative Model)。生成模型可以描述數(shù)據(jù)的生成過程。換句話說,已知了這個(gè)模型,我們就可以產(chǎn)生該模型描述的數(shù)據(jù)。而數(shù)據(jù)由兩部分組成,也就是(X,Y),前者是特征,后者則是類別(Y是標(biāo)量)或者序列類別(Y是向量)。要描述整個(gè)數(shù)據(jù),也就是要對(duì)p(X,Y)進(jìn)行建模,所以是對(duì)聯(lián)合概率進(jìn)行建模。生成模型本身不是做分類或者序列標(biāo)注的,但是可以用來解決這些問題,也可以用于生成式問題,比如聊天機(jī)器人、比如AI譜曲等問題。

  而機(jī)器學(xué)習(xí)可以分成下面幾種類別:

  ·         監(jiān)督學(xué)習(xí)從給定的訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)出一個(gè)函數(shù),當(dāng)新的數(shù)據(jù)到來時(shí),可以根據(jù)這個(gè)函數(shù)預(yù)測(cè)結(jié)果。監(jiān)督學(xué)習(xí)的訓(xùn)練集要求是包括輸入和輸出,也可以說是特征和目標(biāo)。訓(xùn)練數(shù)據(jù)中的目標(biāo)是由人標(biāo)注的。常見的監(jiān)督學(xué)習(xí)算法包括回歸分析和統(tǒng)計(jì)分類。

  ·         無監(jiān)督學(xué)習(xí)與監(jiān)督學(xué)習(xí)相比,訓(xùn)練集沒有人為標(biāo)注的結(jié)果。常見的無監(jiān)督學(xué)習(xí)算法有聚類。

  ·         半監(jiān)督學(xué)習(xí)介于監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)之間。它主要考慮如何利用少量的標(biāo)注樣本和大量的未標(biāo)注樣本進(jìn)行訓(xùn)練和分類的問題。。

  ·         增強(qiáng)學(xué)習(xí)通過觀察來學(xué)習(xí)做成如何的動(dòng)作。每個(gè)動(dòng)作都會(huì)對(duì)環(huán)境有所影響,學(xué)習(xí)對(duì)象根據(jù)觀察到的周圍環(huán)境的反饋來做出判斷。

  在傳統(tǒng)的機(jī)器學(xué)習(xí)領(lǐng)域,監(jiān)督學(xué)習(xí)最大的問題是訓(xùn)練數(shù)據(jù)標(biāo)注成本比較高,而無監(jiān)督學(xué)習(xí)應(yīng)用范圍有限。利用少量的訓(xùn)練樣本和大量無標(biāo)注數(shù)據(jù)的半監(jiān)督學(xué)習(xí)一直是機(jī)器學(xué)習(xí)的研究重點(diǎn)。

  當(dāng)前非常流行的深度學(xué)習(xí)GAN模型和半監(jiān)督學(xué)習(xí)的思路有相通之處,GAN是“生成對(duì)抗網(wǎng)絡(luò)”(Generative Adversarial Networks)的簡稱,包括了一個(gè)生成模型G和一個(gè)判別模型D,GAN的目標(biāo)函數(shù)是關(guān)于D與G的一個(gè)零和游戲,也是一個(gè)最小-最大化問題。

  GAN實(shí)際上就是生成模型和判別模型之間的一個(gè)模仿游戲。生成模型的目的,就是要盡量去模仿、建模和學(xué)習(xí)真實(shí)數(shù)據(jù)的分布規(guī)律;而判別模型則是要判別自己所得到的一個(gè)輸入數(shù)據(jù),究竟是來自于真實(shí)的數(shù)據(jù)分布還是來自于一個(gè)生成模型。通過這兩個(gè)內(nèi)部模型之間不斷的競(jìng)爭,從而提高兩個(gè)模型的生成能力和判別能力。

  目前主流的深度學(xué)習(xí)框架:

  ·         Caffe 由Berkeley提出

  ·         TensorFlow 由Google提出 (Apache 2.0)

  ·         Torch (BSD License), facebook是主要使用者

  ·         MXNet 一個(gè)相對(duì)中立的機(jī)器學(xué)習(xí)框架(Apache 2.0), 被Amazon AWS使用

  ·         CNTK2 由Microsoft提出 (MIT License)

  人工智能在各個(gè)行業(yè)的公司分布

  目前人工智能在各個(gè)領(lǐng)域的初創(chuàng)公司數(shù)量(2016年的數(shù)據(jù)):

  ·         Deep learning/機(jī)器學(xué)習(xí)(通用)(123家公司)

  ·         Deep learning/機(jī)器學(xué)習(xí) (應(yīng)用) (260家公司)

  ·         NLP (通用) (154家公司)

  ·         NLP (語音識(shí)別) (78家公司)

  ·         計(jì)算機(jī)視覺/圖像識(shí)別 (通用) (106家公司)

  ·         計(jì)算機(jī)視覺/圖像識(shí)別 (應(yīng)用) (83 家公司)

  ·         手勢(shì)控制 (33 家公司)

  ·         虛擬個(gè)人助理 (92 家公司)

  ·         智能機(jī)器人 (65 家公司)

  ·         推薦系統(tǒng) (60 家公司)

  ·         Context aware computing (28 家公司)

  ·         語音即時(shí)翻譯 (15 家公司)

  ·         視頻識(shí)別 (14 家公司)

  Sentient Technologies:使用先進(jìn)的人工智能技術(shù),大規(guī)模分布式計(jì)算和科學(xué)的方法來驗(yàn)證新發(fā)現(xiàn)的策略,Sentient Technologies為各種領(lǐng)域中的復(fù)雜問題提供了新的解決方案。

  Ayasdi:機(jī)器學(xué)習(xí)平臺(tái),數(shù)據(jù)可視化,分析,金融技術(shù),醫(yī)療保健代理系統(tǒng):

  Vicarious: 這是一家神秘的人工智能公司,Vicarious的目標(biāo)定位于“建立下一代的人工智能算法”。并且聲稱要構(gòu)建“像人類一樣思考的軟件”,實(shí)現(xiàn)“人腦級(jí)別的視覺、語言和自動(dòng)控制系統(tǒng)”,致力于研究通用人工智能,目前他們的研究重點(diǎn)是實(shí)現(xiàn)人工視覺識(shí)別系統(tǒng)。

  Context Relevant:Context Relevant通過使用機(jī)器學(xué)習(xí)驅(qū)動(dòng)的自動(dòng)化數(shù)據(jù)科學(xué)平臺(tái),來解決一些世界上最棘手的大數(shù)據(jù),預(yù)測(cè)和行為挑戰(zhàn) - 比任何其他解決方案更快更有效。

  Cortia:Cortica的技術(shù)模擬人類皮層,以便以最高的精度理解和識(shí)別圖像。

  Workfusion:WorkFusion是全球運(yùn)營的完整自動(dòng)化解決方案,將您需要的復(fù)雜業(yè)務(wù)流程數(shù)字化所需的核心功能整合到一個(gè)平臺(tái)中:業(yè)務(wù)流程管理(BPM),機(jī)器人過程自動(dòng)化(RPA),勞動(dòng)力編排和機(jī)器學(xué)習(xí)提供的認(rèn)知自動(dòng)化。

  RapidMiner:開源預(yù)測(cè)分析平臺(tái),使企業(yè)能夠在業(yè)務(wù)流程中包括預(yù)測(cè)分析

  Digital Reasoning Systems:確保合規(guī)性,保持安全性,并快速準(zhǔn)確地分析信息。

  H2O.ai:H2O是世界領(lǐng)先的開源深度學(xué)習(xí)平臺(tái)。 H2O被超過80,000個(gè)數(shù)據(jù)科學(xué)家和超過9,000個(gè)組織使用。

  Viv Labs:Viv在開發(fā)語音智能助理,已被三星收購。

  參考文獻(xiàn):

  http://fortune.com/ai-artificial-intelligence-deep-machine-learning/

  https://en.wikipedia.org/wiki/Artificial_neural_network

  http://fortune.com/2017/02/23/artificial-intelligence-companies/

  https://www.amazon.com/b?ie=UTF8&node=16008589011#

  http://techemergence.com/artificial-intelligence-industry-an-overview-by-segment/

  Nvidia Deep Learning Training Workshop

  Crunchbase

  CB Insights

參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺(tái),自1994年品牌成立以來,一直專注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場(chǎng)趨勢(shì)的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
用戶
反饋