跳去內容

人工神經網絡種類一覽

出自維基百科,自由嘅百科全書
一個神經網絡嘅抽象化圖解;每個圓圈代表一粒神經細胞,每粒神經細胞都會對同佢有連繫嘅神經細胞傳訊號。

呢個表列出嗮最重要嗰啲人工神經網絡種類以及人工神經網絡相關詞彙。人工神經網絡(artificial neural network,簡稱「ANN」)係指一啲模仿生物神經網絡(即係動物中樞神經系統,尤其係個)結構同功能嘅數學模型:一隻(例如)靈長目動物嘅腦閒閒地有斷百億計嘅神經細胞(neuron),一粒神經細胞喺俾化學物訊號刺激到嗰陣,會跟住以電或者化學物嚟傳新訊號,所以當一粒神經細胞射訊號嗰陣可以引起連鎖反應,將資訊(information)喺成個神經網絡度傳開去[1];而人工神經網絡主要係以電腦程式嘅方法嚟模擬呢個過程-

  • 設定網絡結構:個網絡會有若干件虛擬物體,每件呢啲物體有返個數值代表佢嘅啟動程度,而每個啟動程度數值就取決於同佢相連嗰啲物體嘅啟動程度[2]
  • 設定學習方法:個網絡初頭嘅行為望落近乎隨機,但會有某啲演算法教佢根據經驗改變自己啲細胞之間嘅連繫同行為,令佢好似曉學習噉

如果順利嘅話,噉做會令個神經網絡出現一啲好似動物神經系統噉嘅行為[3][4]。到咗廿一世紀初,人工神經網絡經已俾科學界廣泛噉用落去各種問題嗰度:喺應用上,事實證實咗人工神經網絡能夠處理機械視覺語音識別呢啲傳統電腦程式難以解決嘅問題[5][6];而理論性嘅認知科學上亦有聯結主義(connectionism)嘅諗頭,主張心靈可以用人工神經網絡嚟模擬[7]

前饋網絡

[編輯]

前饋神經網絡(feedforward network),指訊號淨係由輸入到輸出一個方向流動嘅神經網絡-冇任何人工神經細胞能夠影響自己前排嗰啲人工神經細胞。舉個例說明,例如家吓搵個前饋神經網絡入面某一粒人工神經細胞集中睇佢,佢會有返個數字嚟反映佢嘅啟動程度,而呢個數字取決於佢前面嗰排嗰啲人工神經細胞嘅啟動程度-即係話 foreach 人工神經細胞,個程式會有一條類似噉樣嘅算式[8]

;(啟動函數

喺條式當中, 代表粒神經細胞嘅啟動程度, 代表前一排嘅神經細胞當中第 粒嘅啟動程度,而 就係其他神經細胞當中第 粒嘅權重(指嗰粒神經細胞有幾影響到 )。而最簡單嗰種前饋神經網絡浸輸出層嘅啟動程度數值會直接噉由輸入層嘅決定,即係話結構如下:

當中左手邊黑點代表輸入層嘅人工神經細胞。呢種簡單神經網絡嘅缺點係,佢哋所模擬嘅輸入同輸出之間嘅關係唔會太複雜-而一旦個設計者需要個輸入同輸出之間嘅關係唔係簡單嘅線性(linear)嗰陣,單層嘅人工神經網絡好多時就會搞唔掂[9][10]。所以主流應用嘅人工神經細胞多數都會有隱藏層(hidden layer;指一啲唔會直接由外界攞輸入或者直接向外界俾輸出嘅人工神經細胞層)[11][12]

感知機

[編輯]
一部簡單嘅感知機,得嗰兩個 input 同埋一個 output
内文:感知機

感知機(perceptron)係最簡單嗰種前饋神經網絡做法。感知機喺機械學習上泛指用監督式學習嚟做二元分類(binary classification)嘅演算法,即係攞若干個個案,將每個個案分做兩個類別嘅其中一類,例如攞若干幅相,將啲相分類做(0)同(1)噉。感知機呢樣嘢可以用簡單嘅前饋神經網絡實現,家陣想像以下呢個噉嘅前饋網絡[13][14]

  • 有兩個 input,同埋
  • 一個 output
  • 冇隱藏層。

即係話,

當中「」係被歸類做「1」要達到嘅條件(例如 input A = 1 而且 input B = 0),而「」係被歸類做「0」要達到嘅條件(例如 input A = 0 而且 input B = 1)。

多層感知機

[編輯]

多層感知機(multi-layer perceptron,MLP)係一個包含多部感知機嘅人工神經網絡:多層感知機有隱藏層(hidden layer),即係唔會直接收外界輸入又唔會直接向外界俾輸出嘅神經細胞層;同單層感知機唔同嘅係,多層感知機能夠處理非線性嘅關係,喺好多人工神經網絡應用上都有價值[15]。一部三層(有一浸隱藏層)嘅感知機可以想像成以下噉嘅樣[11]

圖入面每個圓圈代表一粒神經細胞,而 A 有箭咀去 B 表示 B 嘅啟動程度受 A 嘅影響。

定義上,多層感知機具有以下嘅特徵[11]

  • 每粒第 層嘅神經細胞都同第 層嘅神經細胞有連繫,即係話每粒第 層嘅神經細胞都有能力影響第 層嘅神經細胞嘅啟動程度,即係每層之間都完全連繫(fully connected),不過權重值可以係 0;
  • 層嘅神經細胞唔會受第 層嘅神經細胞影響,當中 係任何一個大過 嘅整數;
  • 同一層嘅神經細胞之間冇連繫。

卷積神經網絡

[編輯]

一個卷積神經網絡(convolutional neural network)結構如下:輸入層有若干粒細胞,若干浸隱藏層,同一浸輸出層[註 1];輸入層每粒細胞代表咗一個像素(幅圖片上面嘅某一個點),第一浸隱藏層就每粒細胞相應輸入層嘅某一橛仔-例如第一粒隱藏層細胞負責處理輸入層最左上角嗰 3 x 3 粒像素大嘅一橛仔(令到個網絡能夠處理啲解像度高嘅圖像),而最後輸出層有 10 粒細胞,每一粒輸出層細胞代表咗一個類別;個神經網絡有個演算法能夠由一幅圖片嗰度讀取輸入,所以每當佢讀到一幅圖片嗰陣,佢嘅神經細胞會跟住輸入層嘅啟動,最後輸出層嘅規律就可能提供到「幅圖屬於邊個類別」嘅資訊[16][17]

卷積神經網絡嘅抽象圖解;隱藏層(藍色)嘅一粒細胞負責處理輸入層(紅色)當中嘅一橛,唔會同佢負責嗰橛以外嘅部份有連繫。

喺電腦入面,一幅圖片可以用數字代表:一幅圖片由好多粒細點(像素)組成,每粒細點都有特定嘅色水;用三原色模式想像嘅話,任何色水都可以由、同呢三隻原色砌出嚟,所以一個點嘅色水可以用 噉嘅陣列代表-當中 表示嗰一點嘅紅色量, 代表嗰點嘅綠色量,而 代表嗰點嘅藍色量,而一幅圖片喺部電腦內部可以用類似噉嘅陣列代表[18][19]

,表示第一個點有 207 個單位咁多嘅紅、229 咁多個單位嘅綠、同 78 個單位咁多嘅藍,如此類推。

呢啲噉嘅數字可以輕易噉攞嚟做一個人工神經網絡嘅輸入數據[20]

反卷積神經網絡(deconvolutional neural network)可以話係卷積神經網絡嘅相反:一個卷積神經網絡會由低層嘅特徵嗰度計出更高層嘅特徵(由像素計出角同線,再由角同線計出形狀...),而一個反卷積神經網絡就係將呢個過程掉返轉,由高層嘅特徵計返低層嘅出嚟;如果個反卷積網絡啲權重啱嘅話,個網絡會做到「輸入講明想要睇乜嘢物件,輸出係一幅描述嗰件物件嘅圖像」噉嘅效果。如果將一個卷積網絡同一個反卷積網絡拼埋一齊(個卷積網絡嘅輸出層係個反卷積網絡嘅輸入層),就可以形成一個深度卷積反轉圖像網絡(deep convolutional inverse graphics network,DCIGN)[21]

遞迴網絡

[編輯]

遞迴神經網絡(recurrent network)係指啲訊號會喺個網絡之內「遞迴」嘅神經網絡,即係話個神經網絡啲人工神經細胞當中,有至少一部份嘅會有能力影響佢哋之前嗰幾層嘅人工神經細胞嘅啟動程度[22]。因為佢哋呢種結構上嘅特徵,佢哋識得處理喺時間上前後倚賴嘅資訊,例如係人口講嘅嘢噉[23]:一個人講一句嘢嗰陣,句嘢嘅第二個字會影響到第一個字嘅意思(例如「家吓」同「家庭」嘅意思就唔同嗮),所以喺分析喺時間點 聽到嘅字嗰陣,要考慮埋喺打前嗰啲時間點聽到嘅字先可以理解到嗮成個意思-遞迴神經網絡比起前饋神經網絡更加能夠做到呢一點。而事實係喺廿一世紀初,已經有科學家成功噉運用遞迴神經網絡嚟令到電腦學識處理人類用自然語言(natural language;指好似廣東話閩南話呢啲日常傾偈用嘅語言)講嘅嘢(睇埋機械翻譯[23]

下圖就係一個遞迴神經網絡嘅抽象化圖解:

當中 係個遞迴神經網絡啲隱藏層, 係時間點 嘅輸入, 係時間點 嘅輸出,而 就係上一個時間點個網絡交去下一個時間點嘅自己嘅資訊。用數學公式描述嘅話,一個遞迴神經網絡嘅輸入輸出關係如下:

係個遞迴神經網絡啲隱藏層喺時間點 嘅狀態,而 係個網絡啲參數;公式 同前饋神經網絡一樣(網絡輸出取決於隱藏層狀態同網絡嘅參數),而公式 反映遞迴網絡同前饋網絡嘅差異-公式 包括咗 (隱藏層喺上一個時間點嘅狀態)呢一個前饋網絡唔會考慮嘅變數[24]

簡單遞迴網絡

[編輯]
一個艾文網絡嘅圖解;每粒 都會記住相應嗰粒 喺上一個時間點嘅狀態。

簡單遞迴網絡(simple recurrent network,SRN)係最基本嗰種遞迴神經網絡,分做兩種:艾文網絡同佐敦網絡[25]。一個艾文網絡(Elman network)分三層--而柞 係所謂嘅語境單位(context units),啲權重冚唪唥都係 1。喺每個時間點 ,個網絡會由輸入同網絡參數嗰度計輸出以及用學習法則更新權重值,而每粒隱藏層神經細胞()都有粒相應嘅語境單位,粒語境單位會記低嗰粒隱藏層細胞喺時間點 嘅啟動值,而喺時間點 ,語境單位記低咗嘅數值將會能夠左右隱藏層神經細胞嘅啟動,所以艾文網絡能夠一定程度上處理有連串性嘅資訊[26][27]

艾文網絡可以想像成以下嘅式[28][29]

當中

係指隱藏層喺時間點 嘅狀態, 係指時間點 嘅輸入, 係指時間點 嘅輸出;
係柞權重值, 係指偏向(bias)-即係嗰粒細胞本身喺啟動上嘅傾向,例如如果有某一粒細胞嘅 係正數而且數值大,佢就會傾向無論輸入係幾多都有強烈嘅啟動;
係相應嘅啟動函數[30]

佐敦網絡(Jordan network)係艾文網絡嘅一個變種,同艾文網絡嘅分別在於佐敦網絡入面嗰啲 記嘅唔係隱藏層喺上一個時間點嘅狀態,而係輸出層喺上一個時間點嘅狀態,即係話佐敦網絡可以想像成以下噉嘅式[26]

呢兩類式同艾文網絡嗰兩條嘅唯一分別係, 取決於 (上一個時間點嘅輸出),而唔係取決於 (隱藏層喺上一個時間點嘅狀態)[31]

雙向遞迴網絡

[編輯]

雙向遞迴網絡(bidirectional recurrent network,BRN)係一種進階嘅遞迴神經網絡。雙向遞迴網絡嘅特徵係有兩個彼此之間唔相連嘅隱藏層,分別叫向前狀態(forward states;)同向後狀態(backward states;)。一個雙向遞迴網絡每次會讀取 個輸入,foreach [註 2][32][33]

最先嗰個時間點嘅 以及最後嗰個時間點嘅 可以會當做一啲事先設定好嘅常數。一個雙向遞迴網絡(右)嘅結構圖解如下[32]

霍菲特網絡

[編輯]
一個有四粒細胞嘅簡單霍菲特網絡,當中黑色箭咀表示輸入同輸出;每對細胞之間都有連繫。

霍菲特網絡(Hopfield network)係一種有高度內部連繫嘅遞迴網絡:喺一個霍菲特網絡入面,每粒細胞都同全體細胞間有連繫(不過一粒細胞唔會影響自己啟動程度)。如果個網絡有 咁多粒細胞,成個網絡裏面就會有 條連繫。即係話,如果當 係細胞 同細胞 之間嘅權重[註 3][34]

(冇任何細胞能夠影響自己嘅啟動程度)
(所有細胞間嘅連繫都係對稱嘅)

霍菲特網絡係動態嘅:一旦霍菲特網絡嘅其中一粒細胞受啟動,佢會引致第啲細胞跟住啟動,然後第啲細胞又可以啟動返佢轉頭[34]。即係話:

當中:

  • 係細胞 嘅狀態;
  • 係細胞 嘅門檻值(細胞 嘅啟動程度大過 狀態會變成 1,否則狀態變成 0)。

於是啲細胞就會係噉互傳訊號,一路係噉改變啟動程度,最後去到一個穩定嘅狀態-即係變成一個每粒細胞嘅啟動程度都恆定或者大致恆定嘅狀態[35][36]-呢一點同人腦有些少相似,而認知科學上嘅研究表明咗,霍菲特網絡嘅變種可以用嚟模擬人腦嘅某啲記憶功能[37]

雙向聯想記憶

[編輯]

霍菲特網絡仲可以進階做雙向聯想記憶(bidirectional associative memory,BAM)。雙向聯想記憶概念上建基於喺人身上觀察到嘅聯想式記憶(可以睇吓古典制約操作制約),一個雙向聯想記憶網絡會有兩浸霍菲特網絡,,兩浸細胞層完全連繫住-foreach 裏面嘅細胞, 都同 有連繫, 嘅任何一粒細胞),反之亦然[38];研究表明咗,呢種架構可以用嚟訓練部電腦記住「邊啲輸入同邊啲輸入之間有關聯」[註 4][39]

玻茲曼機

[編輯]
一部有 7 粒細胞嘅玻茲曼機
内文:玻茲曼機

玻茲曼機(Boltzmann machine)係一種同霍菲特網絡好相似嘅隨機性遞迴網絡。一部玻茲曼機啲細胞之間有對稱性連繫,而每一粒細胞都會用帶有隨機性嘅演算法決定係咪要啟動[40][41]。一部玻茲曼機會有以下噉嘅式[42]

[註 5]

當中 係第 粒神經細胞收到嘅輸入值;偏向(bias;細胞 本身嘅啟動偏向); 係第啲細胞當中第 粒嘅狀態(數值只可以係 1 或者 0),而 係由細胞 去細胞 嘅權重。 係指「(細胞 嘅狀態)等如 1 嘅機會率」,而根據第二條式, 數值取決於 [40]

受限玻茲曼機

[編輯]

受限玻茲曼機(restricted Boltzmann machine,RBM)係玻茲曼機嘅一個變種。一部受限玻茲曼機同一般嘅玻茲曼機一樣,分'隱藏細胞(hidden units)同可見細胞(visible units),重點在於受限玻茲曼機嗰啲細胞之間嘅連繫「受限制」-隱藏細胞彼此之間唔可以有連繫,而可見細胞之間亦都唔可以有連繫,每一條連繫都係連接住一粒隱藏細胞同埋一粒可見細胞嘅;每粒可見細胞都同所有隱藏細胞有連繫。例如下圖就係一個有四粒可見細胞(柞 )同三粒隱藏細胞(柞 )嘅受限玻茲曼機[43][44]

想像而家一個研究者噉做:佢俾一柞輸入落去柞可見細胞嗰度,可見細胞狀態成 ,再等柞隱藏細胞按 同權重啟動成狀態 (向前傳遞;forward pass);然後第二步係做重構(reconstruction)-將隱藏細胞嘅狀態 做輸入,等可見細胞按呢柞輸入同權重變成狀態 ;因為啲權重一般會喺初始化嗰陣設做隨機數值,所以 之間嘅差異(重構誤差)會相當大-「重構原初輸入」嘅工作失敗;喺呢個過程當中,部受限玻茲曼機會俾出兩樣資訊[43][45]

  • 喺向前傳遞途中,個網絡可以俾有關 嘅資訊(由 概率分佈);而
  • 喺重構途中,個網絡就可以俾有關 嘅資訊(由 嘅概率分佈)。

受限玻茲曼機可以攞嚟做深度學習(deep learning):想像而家行咗學習演算法,部受限玻茲曼機能夠可靠噉重構原初輸入,每次都係 (可以睇埋自編碼器);呢部受限玻茲曼機嘅輸入係一幅有若干像素嘅圖像(),而隱藏層嘅細胞(表示嘅係「幅圖入面有啲乜嘢身體部位」;下一步,研究者再用隱藏層 做輸入,砌多個隱藏層()上去, 表示嘅係「幅圖係乜嘢動物」。而最後得出呢個網絡能夠做到以下嘅嘢:

  • 準確噉計 ,等同「見到呢幅圖,估幅圖入面有邊啲身體部位」;
  • 準確噉計 ,等同「諗到呢啲身體部位,幅圖大致會係點嘅樣」;
  • 準確噉計 ,等同「按照幅圖入面有嘅身體部位,估計幅圖係乜嘢動物」(例:如果幅圖有四隻腳,噉嗰隻嘢應該唔會係昆蟲);
  • 準確噉計 ,等同「已知手上有呢種動物,呢種動物有乜身體部位」

-呢一個網絡成功做到分層嘅知識表示嘅效果(睇埋深度信念網絡[45]

深度信念網絡

[編輯]
一個深度信念網絡嘅圖解;長方形係一浸隱藏層,箭咀係輸入輸出訊號。

深度信念網絡(deep belief network)結構係噉嘅:一個深度信念網絡由多個受限玻茲曼機再加一個前饋神經網絡組成;一個 RBM 得一浸隱藏層,而隱藏層細胞之間冇任何相互連繫,但曉將佢哋嘅啟動回輸返去輸入層嗰度;一個受緊訓練嘅深度信念網絡會以第一層 RBM 嘅隱藏層細胞做第二層嗰個 RBM 嘅輸入,再用演算法做學習嘅過程[46]

一個深度信念網絡嘅演算法大致上如下[47]

  1. 初始化-指定好啲參數同埋隨機設定權重值等等;
  2. 按照輸入層細胞嘅啟動同權重,計隱藏層細胞嘅啟動程度;
  3. 按照隱藏層細胞嘅啟動同權重,計輸入層細胞嘅啟動程度;
  4. 按重構誤差更新權重;
  5. 重複上述工序,直至誤差細過某個值為止。

喺一個 RBM 完成學習之後,個程式會「疊」另一個 RBM 喺上面-攞之前嗰個 RBM 嘅隱藏層做新嗰個 RBM 嘅輸入層,再重複上面嘅步驟,直至成個深度信念網絡有若干層 RBM 為止[48]。研究表明咗,深度信念網絡能夠有效噉處理一啲冇事先標籤好嘅數據-例如係喺互聯網上流動、冇人幫手事先執靚嘅數據[49]

長短期記憶

[編輯]

長短期記憶(long short-term memory,LSTM)係一種能夠記住長期記憶嘅遞迴神經網絡:一般嘅遞迴網絡曉處理連串性嘅資訊,例如係用自然語言寫嘅句子噉,但現實世界嘅解難好多時都要求一個個體能夠睇得出時間上差距大嘅因同果,例如要完全了解一個故仔嘅結局,可能要諗返起故仔開頭嘅情節。事實證明咗,普通嘅遞迴神經網絡好多時都難以應付呢啲問題[50]

LSTM 網絡特徵係內置一啲門控神經細胞(gated neuron),呢啲特殊嘅人工神經細胞有「門」(gate),曉決定要儲起乜嘢資訊同埋幾時讀取、寫入、或者刪除資訊:喺 LSTM 網絡嘅碼當中,會有演算法幫門控細胞決定幾時要改變自身嘅啟動程度;相比之下,一般嘅遞迴神經網絡冇能力控制現存嘅過去資訊會唔會喺新資訊嚟到嗰陣被替換。呢個特點令到 LSTM 網絡有能力儲資訊儲好耐,而且有能力由輸入嘅數值當中搵出時間上相距不定嘅因同果[50][51]

以下係一個基本 LSTM 入面嘅一粒細胞;方格代表成粒細胞, 係喺時間點 嘅輸入,而 係粒細胞喺時間點 嘅輸出,細胞 A 有箭咀指去細胞 B 表示 A 能夠影響 B,而交叉就代表「做嘢」。

一粒 LSTM 嘅人工神經細胞除咗主細胞()之外仲有幾個元件[50]

  • 輸出門(output gate;)、
  • 輸入門(input gate;)、同埋
  • 遺忘門(forget gate;)。

呢三道門當中每一道都可以當係一粒子細胞噉嚟睇,有各自嘅啟動程度值,會受到第啲人工神經細胞影響,決定自身嘅啟動程度,再按自身嘅啟動程度睇吓係咪要「做嘢」。輸出門「做嘢」嘅話會左右甚至封鎖粒細胞嘅輸出,輸入門「做嘢」嘅話會左右甚至封鎖粒細胞嘅輸入,而遺忘門「做嘢」嗰陣就可以完全刪除粒主細胞入面嘅資訊-即係重設粒主細胞嘅啟動值或者權重等[52][53]

閘門遞迴單位

[編輯]

長短期記憶仲喺 2014 年啟發咗閘門遞迴單位(gated recurrent unit,GRU)嘅做法。閘門遞迴單位同長短期記憶好相似,不過閘門遞迴單位用嘅淨係得兩道「門」[54][55]

  • 重設門(reset gate)位於細胞 同下一刻嘅 之間,決定粒細胞係咪要重設(忘記上一刻嘅狀態);
  • 更新門(update gate)決定 跟住嘅啟動有幾受現時嘅輸入狀態影響;
  • 閘門遞迴單位基本上就係長短期記憶冇咗輸出門。

想像下圖:

當中[55]

係時間點 嘅輸出。
係時間點 嘅輸入。
係時間點 嘅隱藏層狀態。
係重設門。
係更新門。

神經圖靈機

[編輯]

神經圖靈機(Neural Turing Machine,NTM)係一種起源於 2014 年嘅記憶增強(memory-augmented;指有連接住網絡外嘅記憶單位)遞迴神經網絡架構,一部神經圖靈機主要有幾個部份[56][57]

  • 一個神經網絡控制器(controller);呢個部份係一個多層感知機或者遞迴神經網絡[註 6],負責同外界互動(由外界攞向量輸入或者俾向量輸出去外界)同控制成個系統(會向系統其餘部份下指令)。
  • 一個記憶(memory);呢個部份負責儲住啲記憶。
  • 一個或者多個記憶讀取器(read head)、同
  • 一個或者多個記憶存寫器(write head)。

神經圖靈機嘅結構圖解如下[58]

記憶讀取:將記憶想像成一個 矩陣,當中 係記憶位置嘅數量,而 係每個記憶位置嘅維度(簡單講就係嗰個位置可以記住幾多個數值)。設 做呢個矩陣喺時間點 嘅狀態, 係一個由記憶讀取器去嗰 個位置嘅權重向量,而且做咗標準化,即係話

喺每次做記憶讀取嗰陣,個控制器都會攞到一個 維嘅向量 ,而

上述嘅嘢簡單講如下:記憶讀取器同記憶之間會有個權重,呢啲權重影響「當記憶讀取器要求提取記憶嗰陣,會有邊份記憶受到提取,而提取咗嗰份記憶就係 [56]

記憶存寫:一個記憶存寫有兩個部份-清除(erase)同添加(add);喺每一個時間點 ,記憶存寫器都會俾出三個向量-

  1. 一個 維嘅權重向量
  2. 一個 維嘅清除向量 、同
  3. 一個 維嘅添加向量

每一個記憶向量 都會受到清除向量改造:

係一個完全由 1 組成嘅向量);

然後個添加向量就會做嘢:

喺應用上,神經圖靈機可以攞嚟模擬工作記憶(working memory;記憶功能嘅一種,指個心靈暫時儲住要用嘅資訊)涉及嘅認知過程[56][58]

自編碼器

[編輯]
一個收縮自編碼器嘅結構圖解; 係樽頸層-細胞數量少嘅隱藏層。
内文:自編碼器

自編碼器(autoencoder)係一種人工神經網絡,用嚟做降維(dimensionality reduction;減少手上嘅隨機變數嘅數量)[59]。舉個例說明(睇收縮自編碼器):

  1. 想像家陣有個簡單嘅前饋神經網絡(feedforward network),輸入層有 細胞,輸出層又係有 粒細胞,而隱藏層有 粒細胞,當中
  2. 假想個網絡做咗學習[註 7],能夠可靠噉次次接收到輸入 ,都會俾出輸出 (俾一個輸入,會俾一個同輸入一個板嘅輸出)[註 8]
  3. 輸入層同隱藏層就係所謂嘅入碼器(encoder),而輸出層同隱藏層就係所謂嘅解碼器(decoder);

做完上述嘅嘢之後,隱藏層同兩層之間嘅最後權重值會有用,例如以後每逢撞到同類嘅數據嗰陣,研究者-已知個網絡能夠可靠噉解碼,將隱藏層數據變返同原來輸入一樣嘅數值-就可以放心噉將啲數據冚唪唥交俾個自編碼器,入嗮碼做每個個案得 個數值(維度)嘅數據,而因為 ,用呢個方法儲數據會慳位過就噉每個個案都儲嗮嗰 個數值-達到降維嘅效果。自編碼器喺數據探勘(data mining)等嘅領域上,仲可以用嚟話俾研究者知啲數據當中有冇乜嘢特殊嘅規律,例如係「呢 15()個變數會唔會有可能用 7()個變數嘅變化解釋嗮?」等嘅問題[60][61]

喺最簡單嗰種自編碼器做法當中,個演算法嘅目標係要改變啲權重,令以下數值最小化:

當中 損失函數(loss function),反映做解碼嗰陣嘅誤差(重構個輸入嗰時,同實際數值差幾遠);而 係一個為咗避免過適(overfitting)而設嘅隨機性數值。研究者特登設下咗 嘅自編碼器就係所謂嘅變異自編碼器(variational autoencoder,VAE)[62]

自編碼器類別

[編輯]

自編碼器可以分類做:

  • 收縮自編碼器(undercomplete autoencoder):最簡單直接嗰種自編碼器,指運用隱藏層-喺收縮自編碼器當中又叫樽頸層(bottleneck layer)-細胞嘅數量少嚟令個自編碼器焗住要將手上嘅資訊降維;如果一切順利,個收縮自編碼器會學識用數量少嘅幾個因素嚟重構手上嘅資訊[63]
  • 稀疏自編碼器(sparse autoencoder):自編碼器另一種做法,呢種自編碼器嘅隱藏層細胞數量唔少、但係佢哋嘅損失函數包含「每一層啟動咗嘅細胞嘅數量」,而且損失同「每一層啟動咗嘅細胞嘅數量」成正比-即係話個網絡會傾向變成「每次收到輸入嗰陣,得少量細胞會啟動」,但個網絡依然可以有相當多嘅細胞,所以能夠做到「迫個網絡用少數變數預測輸入」嘅效果得嚟,又唔會對「個網絡最多可以考慮幾多個因素」作出太大嘅限制[64]
  • 去除雜音自編碼器(denoising autoencoder):指啲啟動函數入面帶有隨機性嘅自編碼器;呢種做法令到個自編碼器焗住要由有雜音(通常會偏離原本輸入最多 30% 左右)嘅輸入嗰度重構個輸入[註 9],噉做能夠確保一個隱藏層細胞數量唔少過輸入層細胞數量嘅自編碼器唔會變成一個(冇用嘅)恆等函數;去除雜音自編碼器仲可以幾個砌埋一齊成疊放去除雜音自編碼器(stacked denoising autoencoder)做深度學習[65]

... 等等。

深度自編碼器

[編輯]

深度自編碼器(deep autoencoder)係一種自編碼器。一個深度自編碼器包含兩個互相對稱嘅深度信念網絡:一個深度自編碼器分入碼面(encoder)同解碼面(decoder),入碼面係一個由 4 至 5 部受限玻茲曼機一層層砌埋一齊而成嘅深度信念網絡;解碼面同入碼面對稱-即係話入碼器會一層層噉做特徵提取,最後成一個壓縮特徵向量(compressed feature vector),然後(假設個深度自編碼器經已訓練好)解碼面會一層層噉做解碼,最後解碼出嘅輸出會同輸入一樣。喺實際應用上,深度自編碼器可以攞嚟做數據壓縮嘅工作[66][67]

上圖係一個簡單(總共得 5 層)深度自編碼器嘅結構圖解; 係輸入, 係輸出層,中間嘅係隱藏層,而 係壓縮特徵向量;左面嘅入碼面會由 做特徵提取,然後(只要個網絡訓練好)解碼面會將入咗碼嘅特徵數值變返做原本輸出,

生成對抗網絡

[編輯]
生成對抗網絡最出名嘅係能夠產生幾可亂真嘅數據-以上呢幾塊人面並唔存在,而係用生成對抗網絡憑空建構嘅。

生成對抗網絡(generative adversarial network,GAN)係一種人工神經網絡做法。用呢種方法建構神經網絡涉及整兩個人工神經網絡,然後再要嗰兩個神經網絡互相競爭,從而產生新而且幾可亂真嘅數據。最基本嗰種生成對抗網絡做法大致如下[68][69]

  • 建立兩個神經網絡;
  • 其中一個神經網絡做生成網絡(generative network),生成網絡會負責輸出數據,當中「數據」可以係圖像或者影片都得;
  • 另外嗰個神經網絡就會做分辨網絡(discriminative network),分辨網絡會以生成網絡嘅輸出同真數據做自己輸入,foreach 數據,個分辨網絡要負責嗰件數據係真定假(「假」意思即係話「嗰件數據係由個生成網絡老作嘅」);
  • 對於個生成網絡嚟講,佢最重要嘅目的係要呃到個分辨網絡-即係務求要做到令自己產生嘅數據俾個分辨網絡判定係「真」;
  • 如是者,呢兩個網絡會互相對抗,順利嘅話,生成網絡會變到能夠產生幾可亂真嘅數據[70][71]

舉個例說明,建立兩個神經網絡,生成網絡會攞一串字符做輸入,並且嘗試產生出符合嗰段字符描述(例:「唐人男人」、「白種女人」... 等等)嘅人面,然後個分辨網絡就會攞輸入,分辨網絡嘅輸入有兩種-真嘅人面同生成網絡憑空建構嘅人面,而分辨網絡嘅輸出係一個表示「幅圖有幾大機率係真」嘅數值 (「假」係指「嗰幅圖係由生成網絡老作嘅」);生成網絡嘅目的係要令自己產生嘅圖像得到嘅 值有咁大得咁大-如果有適當嘅演算法配合嘅話,個生成網絡最後會學習到能夠產生望落係真、但查實唔存在嘅人面[72]

脈衝神經網絡

[編輯]

脈衝神經網絡(spiking neural network,SNN)係進一步真實噉模擬生物神經網絡嘅人工神經網絡,重點在於會考慮時間:喺現實世界嘅生物神經網絡當中,唔同神經細胞之間嘅連繫可能會喺長度上唔一致,而呢類嘅原因會令到(例如)一粒神經細胞射訊號嗰陣,受佢訊號嗰啲細胞會喺唔同時間點收到個訊號;相比之下,廿世紀嘅人工神經網絡並冇考慮呢一點,當一粒人工神經細胞射訊號嗰時,下一排嗰啲細胞冚唪唥都會喺同一時間點收到個訊號。於是,脈衝神經網絡喺運算嗰陣,係以模擬嘅時間點(而唔係以運算週期)做個 foreach迴圈嘅基礎,簡單啲講嘅話[73][74]

 Foreach 模擬嘅時間點, // 非脈衝神經網絡會係「foreach 細胞層,計...」
   記住每個訊號嘅位置;
   按訊號速度,計出每個訊號喺下一個時間點嘅位置;
   按啟動函數,計吓邊啲細胞要啟動;
   ......

為咗更加接近現實嘅生物神經細胞,脈衝神經細胞好多時會用「人工神經細胞射訊號嘅頻率」等嘅變數做網絡嘅輸出。詳情可以睇吓神經編碼(neural coding)[75]

液體狀態機

[編輯]

液體狀態機(liquid state machine,LSM)係脈衝神經網絡嘅一種。一部液體狀態機會有一大柞人工神經細胞,當中[76]

  • 每一粒呢啲細胞會由輸入層或者第啲細胞嗰度接到到會隨時間變化嘅輸入,foreach 細胞,
  • 細胞之間嘅連繫係隨機化嘅,唔分層(所以本質上會係遞迴神經網絡);
  • 輸出可以係「個網絡整體嘅啟動嘅時空規律(spatiotemporal pattern)」。

液體狀態機嘅「液體」源自一個比喻:有人話一部液體狀態機一收到一個輸入,佢啲細胞喺啟動數值就會出現一個時空規律(指啟動程度喺唔同位置唔同時間點都有唔同嘅數值);呢點就好似一粒石仔跌落一個水體入面,造成漣漪噉(漣漪簡單講係「水嘅垂直位移」喺唔同位置唔同時間點都有唔同嘅數值)。

自組織對映

[編輯]

自組織對映(self-organizing map,SOM)係一種用非監督式學習嚟行嘅特殊神經網絡,可以攞嚟做降維聚類分析數據視覺化等嘅工作。一個自組織對映會有兩浸細胞:輸入層同輸出層,當中輸出層係所謂嘅「特徵地圖」(feature map)。自組織對映用嘅係競爭性學習(competitive learning,指個網絡嘅細胞按某啲基準爭取「對個輸入俾反應」嘅地位),做法如下:當一個有若干個變數嘅個案進入輸入層,個網絡會計算呢個個案同每一粒細胞(喺 SOM 當中叫「權重」)之間嘅歐幾里得距離,而同嗰個個案最近嗰粒細胞係所謂嘅最合乎單位(best matching unit,BMU),跟住個網絡會調整 BMU 以及同 BMU 相近嘅細胞嘅權重,即係[77][78]

;當中

係而家做緊第幾步, 係而家睇緊第幾個輸入, 呢個輸入相應嘅 BMU(指呢個 BMU 係第幾粒細胞), 係一個數值下降緊嘅學習系數,而 係所謂嘅鄰近函數(neighborhood function),會俾出喺第 步嗰陣神經細胞 同神經細胞 之間嘅距離[77][78]

即係話自組織對映嘅訓練可以想像成以下噉嘅樣:X 軸同 Y 軸反應重點變數嘅數值,每粒細胞都喺呢個空間當中有個位置;藍色嗰笪表示訓練用數據嘅分佈,而嗰個方格係個 SOM,個方格每一條線表示兩粒神經細胞之間嘅連繫;喺學習嘅每一步當中,個程式都會搵出同嗰個個案(白色圓圈)最接近嗰粒細胞(BMU;個網絡俾黃色圓圈包住嗰個節點),然後改變粒 BMU 同相近細胞嘅參數;經過若干步之後,個網絡嘅參數會同原先嘅唔同咗。如果將呢個過程視覺化,可以想像成以下嘅圖解:

拉雜網絡類型

[編輯]
一個殘差神經網絡可能嘅樣
  • 隨機神經網絡(stochastic neural networks):指由輸入計輸出過程當中包含隨機性嘅人工神經網絡,例如係個啟動函數有隨機性[79]
  • 殘差神經網絡(residual neural network,ResNet):指用咗「跳過連繫」(skip connection)嘅神經網絡;「跳過連繫」意思即係話有部份嘅神經細胞可以唔淨只連去下一層嘅細胞嗰度,仲可以「跳過」若干層連去(例如)兩層後或者三層後嘅細胞。殘差神經網絡係基於生物神經網絡嘅-現實嘅生物神經網絡好少可會好似廿世紀嘅前饋網絡噉完美清楚分層[80]
  • 極限學習機(extreme learning machine):一種前饋網絡,有若干浸隱藏層。一部極限學習機會喺初始化嗰陣設好啲參數,然後由參數同啟動函數計出預想輸出,但唔做反向傳播;一般嚟講,極限學習機冇用反向傳播嘅神經網絡咁準,但喺某啲情況下可以慳時間[81]
  • 迴響狀態網絡(echo state network,ESN):遞迴神經網絡嘅一種,特徵係隱藏層內部嘅連繫好稀疏,而且輸入層同隱藏層以及隱藏層內部嗰啲權重係初始化嗰陣定死咗做隨機數值(唔會隨學習改變),不過隱藏層同輸出層之間嘅權重就可以隨學習改變[82]。迴響狀態網絡能夠有效噉重新產生某啲時間序列[83]

相關詞彙

[編輯]

啟動函數

[編輯]
内文:啟動函數

啟動函數(activation function):一粒人工神經細胞會有嘅屬性,指一個定義「呢粒人工神經細胞有噉樣嘅輸入就會俾噉樣嘅輸出」嘅函數,想像有粒人工神經細胞 ,當中 就係 嘅啟動函數[84]

  • Sigmoid 函數(sigmoid function;):喺 sigmoid 函數之下,y 嘅數值會一路大致上等如 0,直至 x 嘅數值超越某個臨界值為止,而喺 x 過咗個臨界值之後,y 嘅數值會一路大致等如佢最大可能數值-就好似現實世界嘅神經細胞噉,要輸入訊號超過一個臨界值先會射新訊號;寫成方程式嘅話如下[85]
  • 放射狀基底函數(radial basis function):一個放射狀基底函數()嘅輸出數值淨係視乎函數輸入()同某一個固定點(;呢個固定點係函數嘅參數)之間嘅距離,當中距離通常係以歐幾里得距離計,即係話 ;運用放射狀基底函數做啟動函數嘅神經網絡就係所謂嘅放射狀基底函數網絡(radial basis function network)[86][87]
  • 線性整流函數(rectifier):指個啟動函數淨係接受正嘅數值[88]

學習過程

[編輯]
睇埋:機械學習
  • 反向傳播算法(backpropagation):一種用嚟計個神經網絡啲權重值要點樣調整嘅方法;每次當個神經網絡俾出佢嘅運算結果 嗰陣,就可以計個結果同正確數值差幾遠(誤差值 ),而 跟住可以用嚟做計個模型嘅參數要點改變,例如係確率勾配降下法(stochastic gradient descent)噉,就會運用以下呢條算式嚟計出每個權重值要點變[89]
    ;當中
    係指喺時間點 嘅權重值
    係學習率;
    隨住 偏導數(partial derivative);
    係一個隨機(stochastic)嘅數值。
  • 如果一個以電腦程式寫嘅神經網絡跟呢條式(或者係類似嘅式)行嘅話,佢喺計完每個個案之後,都會計出佢裏面嘅權重值要點樣改變,並且將呢個「每個權重應該要點變」嘅資訊傳返去個網絡嗰度(所以就叫「反向傳播」)。而每次有個權重值改變嗰陣,佢嘅改變幅度會同「誤差值」有一定嘅關係,而且佢對計個輸出嘅參與愈大,佢嘅改變幅度會愈大-個神經網絡會一路計個案一路變,變到誤差值愈嚟愈接近零為止[90]
  • 海伯理論(Hebbian theory):神經科學上一個描述突觸可塑性(簡單講就係神經細胞之間嗰啲突觸進行學習,引致隻動物行為改變嘅能力)嘅理論;可以用以下呢條式表示:
    呢條式意思係權重 (指一粒神經細胞有幾影響到下一粒)嘅改變 等如學習率 乘以第 個輸入()同突觸後嗰粒細胞嘅反應 ;海伯理論條式可以用嚟改變神經細胞之間嘅權重[91]
  • 修剪法(pruning):泛指喺做完訓練之後,刪除個網絡嘅部份細胞,用意在於減低電腦嘅運算負擔;例如係設一個門檻值 foreach 對第啲細胞嘅影響(以權重值計)細過 嘅細胞,試吓將佢刪除,並且睇吓刪除咗會對個網絡嘅預測能力造成乜嘢影響,影響唔明顯嘅話就真係刪除嗰粒細胞[92]。而事實係有證據指,大嘅神經網絡學起嘢上嚟好多時都會出現「個網絡嘅其中一橛學咗所需嘅函數,網絡其餘部份完全冇用」嘅情況(睇埋「彩票假說」)[93]
  • 彩票假說(lottery ticket hypothesis):有關大型神經網絡嘅一個假說;呢個假說指出,當設計者訓練一個大(細胞數量多、隱藏層多)嘅神經網絡嗰陣,可能會出現「個網絡其中一橛(因為將啲權重初始化嗰時好彩等嘅原因)好快噉成功學咗所需嘅函數,而個網絡其餘部份變得冇用」嘅情況-即係話呢一細橛網絡好似中彩票噉好彩成功[94]

遺傳演算法

[編輯]

遺傳演算法(genetic algorithm,簡稱「GA」),又有叫進化演算法(evolutionary algorithm),一種建基於物競天擇嘅一種學習方法;根據物競天擇上,一個族群內部嘅生物個體(例如一群人類)彼此之間或多或少噉喺遺傳上有差異,呢啲差異會引致佢哋喺表現型(包括外表、行為、同體質等)上有個體差異,當中佢哋有啲生存同繁殖會比較叻,所以就更加有機會將自己啲遺傳基因傳俾下一代;假設環境唔變,個族群就會一代一代噉喺遺傳上有變異,變到愈發適合喺嗰個環境生存同繁衍。遺傳演算法就係受呢個理論啟發嘅一種演算法,做法如下[95][96]

  1. 整一大柞同類嘅數學模型出嚟,當中每個啲參數都有唔同;
  2. 叫每個數學模型做若干次嘅預測,每個按佢做預測陣時嘅準確度得返個分數 ,分數愈高表示佢表現愈好;
  3. 揀選分數 最高嗰柞模型,將其餘嘅模型淘汰;
  4. 做「繁殖」嘅過程-用最高分嗰柞模型做「父母」,生產下一代嘅模型。啲仔喺參數上會似佢哋嘅父母(「每個仔嘅每粒參數」都係「佢父母嘅同位參數」嘅函數);
  5. 再做過上述過程,重複若干代;
  6. 如果一切順利,若干代之後手上嘅模型會係一啲預估估得啱嘅模型。
  • 變化結構神經進化(neuroevolution of augmenting topologies,NEAT):指喺用遺傳演算法令神經網絡進化嗰陣,唔淨只改變啲權重,仲改變網絡嘅結構(加新嘅隱藏層以至加新嘅連繫等等)[97]
  • 複合模式產生網絡(compositional pattern-producing network,CPPN):指個網絡入面嘅細胞可以有唔同樣嘅啟動函數-喺一個普通嘅廿一世紀初前饋網絡裏面,好多時啲細胞冚唪唥都係用 sigmoid 函數做啟動函數嘅,而一個 CPPN 入面就容許唔同細胞有唔同嘅啟動函數(例:一啲用 sigmoid 函數、一啲用放射狀基底函數... 等等),配合遺傳演算法用嘅話,CPPN 仲會容許生產下一代嘅模型嘅過程當中喺啟動函數嘅款上出現突變;CPPN 可以有極之複雜嘅輸入輸出關係,所以喺圖像相關應用上可以攞嚟由簡單嘅輸入嗰度產生好多變嘅圖像[98]
  • 歷史記號(historical marking):NEAT 同 CPPN 進化演算法會用嘅數字;每當一個噉嘅演算法加一個新嘅結構(新細胞或者新連繫等)嗰陣,會順手掕個歷史記號數值落嗰個結構度,表示嗰個結構係喺邊一代加入嘅,方便設計者做記錄[98]
  • 物種形成(speciation):同進化論上嘅物種形成概念相似,指 NEAT 進化嘅過程當中有咗多個唔同款嘅神經網絡,就好似進化出咗幾個唔同嘅物種噉;喺呢個時候,設計者好多時會選擇俾呢幾個唔同嘅神經網絡「物種」分開進化(唔俾佢哋彼此競爭),用意在於想防止其中一啲「物種」打低初頭表現唔夠好(但可能將來表現會變好)嘅新「物種」[98]

神經網絡詮釋

[編輯]
  • 通用近似定理(universal approximation theorem):喺數學上嚟講,一個神經網絡係一個函數),而機械學習演算法做嘅嘢係想令 嘅輸入輸出盡可能噉接近現實世界嘅數據產生過程 ,令個神經網絡能夠準確噉由輸入計個預想嘅輸出值出嚟。通用近似定理係一條定理,主張神經網絡具有通用性(universality)-假想家陣有個連續性嘅函數 ,而研究者想做到以特定嘅準確性 運算 (即係誤差嘅數值要細過 ,當中 ),通用近似定理主張嘅係「無論 係乜,都梗會有個神經網絡架構能夠做到近似 ,而且誤差數值永遠細過 [99][100]
  • 貝葉斯推論(Bayesian inference):一種廿世紀興起嘅統計學詮釋方法;根據呢種理解,一個研究者喺做實驗之前會有一個原先預期(prior)嘅模型(個模型可以想像成一個人工神經網絡),然後佢會攞數據,再按呢啲數據更改自己手上嘅模型,打後再攞數據,不斷更新個模型。即係用返貝葉斯定理(Bayesian theorem)嘅思考方法想像[101]
,當中
  • 指(研究者相信)手上模型係真確嘅機會率;
  • 指「如果手上模型係真確,會得出呢個實驗結果()」嘅機會率;
  • 指「有咗個實驗結果,手上模型係真確」嘅機會率(事後信念;posterior belief)。
呢個過程可以想像成「心目中嘅概率分佈嘅不斷變化」-想像一個觀察者,佢完全唔知「撳 A 呢個掣會發生乜事」(喺佢心目中,所有可能性嘅機會率都一樣,成一個均勻分佈),喺撳咗一次,觀察到撳咗個掣會有盞燈閃之後,佢就會改變佢心目中嗰個概率分佈,知道「會有盞燈閃」嘅機會率大過「天會跌落嚟」嘅,即係對「撳 A 呢個掣會發生乜事」嘅認識多咗[101][102]

拉雜詞彙

[編輯]
一條馬可夫鏈;呢條鏈有兩個可能狀態 ;幅圖表示,如果而家狀態係 ,下一刻狀態變成 嘅機會率係 70%。
  • 輸入輸出疊放(input-output stacking):最直接嗰種深度學習做法,指先訓練好一個網絡,然後要下一個網絡以打前嗰個網絡嘅輸出做自己輸入,再訓練呢個新網絡由先前嗰個網絡嘅輸出嗰度準確計出下一層嘅輸出,如此類推,直至到製作出一個每層都表示到有用知識嘅深度疊放網絡(deep stacking network)[103][104]
  • 歸功分配路線(credit assignment path,CAP):深度學習上嘅一個概念;一條 CAP 係指由輸入去輸出嗰一連串嘅變化,而 CAP 嘅長度反映學習嘅「深度」;例如一個有 4 浸隱藏層嘅前饋網絡,由輸入層細胞去到最後輸出當中,啲數據頂櫳會經歷 4 + 1 = 5 次嘅轉化,而喺一個遞迴網絡裏面,CAP 嘅長度理論上可以係無限大。深度學習講緊嘅就係 CAP 嘅長度-一般嚟講,CAP 嘅數值超過 2 就可以算係「深度」嘅學習,而一個網絡嘅 CAP 長度會點樣影響佢嘅學習能力(能夠學習幾複雜嘅法則)喺人工神經網絡研究上係一個相當大嘅課題[105]
  • 馬可夫鏈(Markov chain):一種用嚟模擬一連串可能事件嘅隨機性數學模型。喺一條馬可夫鏈當中有若干個可能狀態,而每個狀態 都會有一串數字 表示世界由 呢個狀態變成另一個狀態嘅機會率;喺統計學上,一種簡單嘅做法係收數據,用數據估計 嘅數值,產生一個可以用嚟預測世界變化規律嘅模型,即係話馬可夫鏈可以用好似人工神經網絡噉嘅方法訓練[106]
  • 主成份分析(principal component analysis,PCA):想像有柞個案,佢哋每個喺兩個變數上都有其數值(附圖),跟住可以畫兩條線(附圖嗰兩個箭咀),兩條線分別都可以用一條包含 嘅算式表達,當中由圖當中可以清楚睇到,長箭咀嗰條線成功噉捕捉更多嘅變異數-亦即係話長箭咀嗰條線所代表嗰個「成份」(component)比較能夠用嚟分辨啲個案,所以比較「重要」。喺最簡單嗰種情況下,一個做主成份分析嘅演算法大致上係噉[107]
    1. 攞數據;
    2. 畫條線出嚟,條線有條式,而條式包含數據當中有嘅變數
    3. 計出沿呢條線嘅變異數有幾多;
    4. 改變吓條線嘅參數
    5. 再計出沿條新線嘅變異數有幾多;
    6. 一路做步驟 4 同 5,做嗮所有指定咗嘅可能性,最後俾具有最大變異數嗰條線做個演算法嘅輸出。
主成分分析嘅圖解;幅圖每一點代表一個個案,兩個箭咀代表兩個成份,長啲嗰個箭咀係比較重要嗰個成份。

註釋

[編輯]
  1. 所以卷積神經網絡本質上係一種深度神經網絡
  2. 」意思係「柞嘢當中。」
  3. 」呢個數學符號意思係「for all」;「」意思就係「無論係邊個 都係真確。」
  4. 例:權重設好咗, 有某個啟動規律傾向引致 又有某個特定嘅啟動規律。
  5. 而唔係好似霍菲特網絡噉,睇輸入大唔大過門檻值決定啟唔啟動。
  6. 就算個控制器係一個前饋網絡都好,因為成部神經圖靈機整體有記憶功能,所以部神經圖靈機整體依然係一個遞迴網絡。
  7. 想像預想輸出同輸入一樣嘅監督式學習
  8. 即係話個網絡整體係一個恆等函數
  9. 不過個損失函數計起誤差上嚟,依然係會比較輸出同真嗰個輸入。

睇埋

[編輯]

[編輯]
  1. Russell, Stuart J.; Norvig, Peter (2010). Artificial Intelligence A Modern Approach. Prentice Hall. p. 578.
  2. Gardner, M. W., & Dorling, S. R. (1998). Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences. Atmospheric environment, 32(14-15), 2627-2636.
  3. Omidvar, O., & Elliott, D. L. (1997). Neural systems for control. Elsevier.
  4. Bryson, Arthur Earl (1969). Applied Optimal Control: Optimization, Estimation and Control. Blaisdell Publishing Company or Xerox College Publishing. p. 481.
  5. Akira Hirose, Shotaro Yoshida (2012). “Generalization Characteristics of Complex-valued Feedforward Neural Networks in Relation to Signal Coherence”. IEEE TNNLS, 23(4): 541-551.
  6. Forrest, M. D. (April 2015). "Simulation of alcohol action upon a detailed Purkinje neuron model and a simpler surrogate model that runs >400 times faster". BMC Neuroscience. 16 (27): 27.
  7. Marcus, Gary F. (2001). The Algebraic Mind: Integrating Connectionism and Cognitive Science (Learning, Development, and Conceptual Change). Cambridge, Massachusetts: MIT Press. pp. 27–28.
  8. The mostly complete chart of Neural Networks, explained. Towards Data Science.
  9. Auer, Peter; Harald Burgsteiner; Wolfgang Maass (2008). "A learning rule for very simple universal approximators consisting of a single layer of perceptrons". Neural Networks. 21 (5): 786–795.
  10. "2.3.4 Single-Layer Network". 原著喺2018年9月15號歸檔. 喺2018年8月30號搵到.
  11. 11.0 11.1 11.2 Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117.
  12. Ivakhnenko, A. G. (1973). Cybernetic Predicting Devices. CCM Information Corporation.
  13. Gallant, S. I. (1990). Perceptron-based learning algorithms. IEEE Transactions on Neural Networks, vol. 1, no. 2, pp. 179–191.
  14. Yin, Hongfeng (1996), Perceptron-Based Algorithms and Analysis, Spectrum Library, Concordia University, Canada.
  15. Pal, S. K., & Mitra, S. (1992). Multilayer perceptron, fuzzy sets, classifiaction.
  16. Parisi, R., Di Claudio, E. D., Lucarelli, G., & Orlandi, G. (1998, May). Car plate recognition by neural networks and image processing. In ISCAS'98. Proceedings of the 1998 IEEE International Symposium on Circuits and Systems (Cat. No. 98CH36187) (Vol. 3, pp. 195-198). IEEE.
  17. Egmont-Petersen, M., de Ridder, D., & Handels, H. (2002). Image processing with neural networks—a review. Pattern recognition, 35(10), 2279-2301.
  18. LeCun et al., "Backpropagation Applied to Handwritten Zip Code Recognition," Neural Computation, 1, pp. 541–551, 1989.
  19. Szegedy, Christian; Liu, Wei; Jia, Yangqing; Sermanet, Pierre; Reed, Scott; Anguelov, Dragomir; Erhan, Dumitru; Vanhoucke, Vincent; Rabinovich, Andrew (2014). Going Deeper with Convolutions. Computing Research Repository.
  20. Image Classification using Deep Neural Networks — A beginner friendly approach using TensorFlow 互聯網檔案館歸檔,歸檔日期2019年6月24號,.. Towards Data Science.
  21. Here are the mind-blowing things a deconvolutional neural network can do. Medium.
  22. Siegelmann, H.T.; Sontag, E.D. (1991). "Turing computability with neural nets" (PDF). Appl. Math. Lett. 4 (6): 77–80.
  23. 23.0 23.1 Sak, Hasim; Senior, Andrew; Beaufays, Francoise (2014). "Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling 互聯網檔案館歸檔,歸檔日期2018年4月24號,." (PDF).
  24. Recurrent Neural Network. Brilliant.org.
  25. Miikkulainen R. (2011) Simple Recurrent Network. In: Sammut C., Webb G.I. (eds) Encyclopedia of Machine Learning. Springer, Boston, MA.
  26. 26.0 26.1 Cruse, H. (1996). Neural networks as cybernetic systems. Stuttgart: Thieme.
  27. Cheng, Y. C., Qi, W. M., & Cai, W. Y. (2002, November). Dynamic properties of Elman and modified Elman neural network. In Proceedings. International Conference on Machine Learning and Cybernetics (Vol. 2, pp. 637-640). IEEE.
  28. Elman, Jeffrey L. (1990). "Finding Structure in Time". Cognitive Science. 14 (2): 179–211.
  29. Haselsteiner, E. (1998, May). What Elman networks cannot do. In 1998 IEEE International Joint Conference on Neural Networks Proceedings. IEEE World Congress on Computational Intelligence (Cat. No. 98CH36227) (Vol. 2, pp. 1245-1249). IEEE.
  30. Ren, G., Cao, Y., Wen, S., Huang, T., & Zeng, Z. (2018). A modified Elman neural network with a new learning rate scheme. Neurocomputing, 286, 11-18.
  31. Jordan, Michael I. (1997-01-01). Serial Order: A Parallel Distributed Processing Approach. Advances in Psychology. Neural-Network Models of Cognition. 121. pp. 471–495.
  32. 32.0 32.1 Schuster, Mike, and Kuldip K. Paliwal. "Bidirectional recurrent neural networks." Signal Processing, IEEE Transactions on 45.11 (1997): 2673-2681.2. Awni Hannun, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan
  33. Understanding Bidirectional RNN in PyTorch. Towards Data Science.
  34. 34.0 34.1 Hopfield Networks are useless. Here's why you should learn them. Towards Data Science.
  35. Park, J. H., Kim, Y. S., Eom, I. K., & Lee, K. Y. (1993). Economic load dispatch for piecewise quadratic cost function using Hopfield neural network. IEEE transactions on power systems, 8(3), 1030-1038.
  36. Zhu, Y., & Yan, Z. (1997). Computerized tumor boundary detection using a Hopfield neural network. IEEE transactions on medical imaging, 16(1), 55-67.
  37. Hu, S. G., Liu, Y., Liu, Z., Chen, T. P., Wang, J. J., Yu, Q., ... & Hosaka, S. (2015). Associative memory realized by a reconfigurable memristive Hopfield neural network (PDF). Nature communications, 6(1), 1-8.
  38. Rojas, Rául (1996). Neural networks: a systematic introduction. Springer. p. 336.
  39. Kosko, Bart (1988). "Bidirectional associative memories". IEEE Transactions on Systems, Man, and Cybernetics. 18 (1): 49–60.
  40. 40.0 40.1 Ackley, David H; Hinton Geoffrey E; Sejnowski, Terrence J (1985), "A learning algorithm for Boltzmann machines" (PDF), Cognitive Science, 9 (1): 147–169,
  41. Boltzmann Machines (PDF).
  42. Boltzmann machine. Scholarpedia.
  43. 43.0 43.1 A Beginner's Guide to Restricted Boltzmann Machines (RBMs). Pathmind.
  44. Larochelle, H.; Bengio, Y. (2008). Classification using discriminative restricted Boltzmann machines (PDF). Proceedings of the 25th international conference on Machine learning - ICML '08.
  45. 45.0 45.1 Restricted Boltzmann Machines - Simplified. Towards Data Science.
  46. Deep Learning : Deep Belief Network Fundamentals[失咗效嘅鏈]. Medium.
  47. Hinton, G. E. (2010). "A Practical Guide to Training Restricted Boltzmann Machines". Tech. Rep. UTML TR 2010-003.
  48. Bengio, Y. (2009). "Learning Deep Architectures for AI". Foundations and Trends in Machine Learning. 2 (1): 1–127.
  49. Al-Jarrah, O. Y., Yoo, P. D., Muhaidat, S., Karagiannidis, G. K., & Taha, K. (2015). Efficient machine learning for big data: A review. Big Data Research, 2(3), 87-93.
  50. 50.0 50.1 50.2 Sepp Hochreiter; Jürgen Schmidhuber (1997). "Long short-term memory". Neural Computation. 9(8): 1735–1780.
  51. Bayer, Justin; Wierstra, Daan; Togelius, Julian; Schmidhuber, Jürgen (14 September 2009). Evolving Memory Cell Structures for Sequence Learning (PDF). Artificial Neural Networks – ICANN 2009. Lecture Notes in Computer Science. 5769. Springer, Berlin, Heidelberg. pp. 755–764.
  52. Fernández, Santiago; Graves, Alex; Schmidhuber, Jürgen (2007). "Sequence labelling in structured domains with hierarchical recurrent neural networks". In Proc. 20th Int. Joint Conf. On Artificial Intelligence, Ijcai 2007: 774–779.
  53. Graves, Alex; Fernández, Santiago; Gomez, Faustino (2006). "Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks". In Proceedings of the International Conference on Machine Learning, ICML 2006: 369–376.
  54. GRUs vs. LSTMs.
  55. 55.0 55.1 Cho, Kyunghyun; van Merrienboer, Bart; Gulcehre, Caglar; Bahdanau, Dzmitry; Bougares, Fethi; Schwenk, Holger; Bengio, Yoshua (2014). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation".
  56. 56.0 56.1 56.2 Graves, Alex; Wayne, Greg; Danihelka, Ivo (2014). "Neural Turing Machines" (PDF). arXiv:1410.5401.
  57. Collier, Mark; Beel, Joeran (2018), "Implementing Neural Turing Machines" (PDF), Artificial Neural Networks and Machine Learning - ICANN 2018, Springer International Publishing, pp. 94–104,
  58. 58.0 58.1 NTM: Neural Turing Machines. Medium.
  59. Vincent, Pascal; Larochelle, Hugo (2010). "Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion". Journal of Machine Learning Research. 11: 3371–3408.
  60. Kramer, Mark A. (1991). "Nonlinear principal component analysis using autoassociative neural networks". AIChE Journal. 37 (2): 233–243.
  61. Vincent, Pascal; Larochelle, Hugo (2010). "Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion". Journal of Machine Learning Research. 11: 3371–3408.
  62. Rooca, J. (2019). Understanding Variational Autoencoders (VAEs). Towards Data Science.
  63. Thies, J., & Alimohammad, A. (2019). Compact and low-power neural spike compression using undercomplete autoencoders. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 27(8), 1529-1538.
  64. Ng, A. (2011). Sparse autoencoder 互聯網檔案館歸檔,歸檔日期2020年6月23號,. (PDF). CS294A Lecture notes, 72(2011), 1-19.
  65. Denoising Autoencoders explained. Towards Data Science.
  66. Deep Autoencoders.
  67. Autoencoders: Neural Networks for Unsupervised Learning. Medium..
  68. A Beginner's Guide to Generative Adversarial Networks (GANs). Pathmind.
  69. Goodfellow, I. et al. (2014). Generative Adversarial Networks (PDF). Proceedings of the International Conference on Neural Information Processing Systems (NIPS 2014). pp. 2672–2680.
  70. Salimans, Tim; Goodfellow, Ian; Zaremba, Wojciech; Cheung, Vicki; Radford, Alec; Chen, Xi (2016). "Improved Techniques for Training GANs".
  71. Isola, Phillip; Zhu, Jun-Yan; Zhou, Tinghui; Efros, Alexei (2017). "Image-to-Image Translation with Conditional Adversarial Nets". Computer Vision and Pattern Recognition.
  72. Generate Realistic Human Face using GAN 互聯網檔案館歸檔,歸檔日期2020年7月30號,.. Towards Data Science.
  73. Maass, W. (1997). Networks of spiking neurons: the third generation of neural network models. Neural networks, 10(9), 1659-1671.
  74. Using ODE for spiking neural networks. MathWorks.
  75. Gerstner, W., & Kistler, W. M. (2002). Spiking neuron models: Single neurons, populations, plasticity. Cambridge university press.
  76. Verstraeten, D., Schrauwen, B., Stroobandt, D., & Van Campenhout, J. (2005). Isolated word recognition with the liquid state machine: a case study. Information Processing Letters, 95(6), 521-528.
  77. 77.0 77.1 Kohonen, Teuvo (1982). "Self-Organized Formation of Topologically Correct Feature Maps". Biological Cybernetics. 43 (1): 59–69.
  78. 78.0 78.1 A Brief Introduction to Self-Organizing Maps. Towards Data Science.
  79. Turchetti, Claudio (2004), Stochastic Models of Neural Networks, Frontiers in artificial intelligence and applications: Knowledge-based intelligent engineering systems, 102, IOS Press.
  80. He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). "Deep Residual Learning for Image Recognition" (PDF). Proc. Computer Vision and Pattern Recognition (CVPR), IEEE.
  81. Introduction to Extreme Learning Machines. Towards Data Science.
  82. Gentle introduction to Echo State Networks. Towards Data Science.
  83. Jaeger, H.; Harnessing (2004). "Predicting chaotic systems and saving energy in wireless communication". Science. 304 (5667): 78–80.
  84. Wu, Huaiqin (2009). "Global stability analysis of a general class of discontinuous neural networks with linear growth activation functions". Information Sciences. 179 (19): 3432–3441.
  85. Multi-Layer Neural Networks with Sigmoid Function— Deep Learning for Rookies (2). Towards Data Science.
  86. Yee, Paul V. & Haykin, Simon (2001). Regularized Radial Basis Function Networks: Theory and Applications. John Wiley.
  87. Radial Basis Functions Neural Networks - All we need to know. Towards Data Science.
  88. Xavier Glorot, Antoine Bordes and Yoshua Bengio (2011). Deep sparse rectifier neural networks (PDF). AISTATS. Rectifier and softplus activation functions. The second one is a smooth version of the first."
  89. The Maths behind Back Propagation. Towards Data Science.
  90. Dreyfus, Stuart (1973). "The computational solution of optimal control problems with time lag". IEEE Transactions on Automatic Control. 18 (4): 383–385.
  91. Shouval, Harel (2005-01-03). "The Physics of the Brain". The Synaptic basis for Learning and Memory: A theoretical approach. The University of Texas Health Science Center at Houston.
  92. WHAT IS NEURAL NETWORK PRUNING AND WHY IS IT IMPORTANT TODAY?.
  93. Why neural networks struggle with the Game of Life. TechTalks.
  94. Frankle, J., & Carbin, M. (2018). The lottery ticket hypothesis: Finding sparse, trainable neural networks. arXiv preprint arXiv:1803.03635.
  95. Goldberg, David E.; Holland, John H. (1988). "Genetic algorithms and machine learning". Machine Learning. 3 (2): 95–99.
  96. Michie, D.; Spiegelhalter, D. J.; Taylor, C. C. (1994). "Machine Learning, Neural and Statistical Classification". Ellis Horwood Series in Artificial Intelligence.
  97. Kenneth O. Stanley & Risto Miikkulainen (2002). "Evolving Neural Networks Through Augmenting Topologies" (PDF). Evolutionary Computation. 10 (2): 99–127.
  98. 98.0 98.1 98.2 Understanding Compositional Pattern Producing Networks (Part One). Towards Data Science.
  99. Neural Networks and the Universal Approximation Theorem. Towards Data Science.
  100. Lu, Y., & Lu, J. (2020). A Universal Approximation Theorem of Deep Neural Networks for Expressing Distributions (PDF). arXiv preprint arXiv:2004.08867.
  101. 101.0 101.1 D.V. Lindley: Statistical Inference (1953) Journal of the Royal Statistical Society, Series B, 16: 30-76.
  102. Murphy, Kevin P. (24 August 2012). Machine Learning: A Probabilistic Perspective. MIT Press.
  103. Y. Bengio, P. Lamblin, D. Popovici, and H. Larochelle. Greedy layerwise training of deep networks. In Proceedings of Neural Information Processing Systems (NIPS). 2006.
  104. D. Wolpert. Stacked generalization. Neural Networks, 5(2):241–259. 1992.
  105. Shigeki, Sugiyama (2019-04-12). Human Behavior and Another Kind in Consciousness: Emerging Research and Opportunities: Emerging Research and Opportunities. IGI Global.
  106. Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. pp. 1–235.
  107. Jolliffe, I. T. (1986). Principal Component Analysis. Springer Series in Statistics. Springer-Verlag.

[編輯]