吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習:神經網絡和函數

新機器視覺 ? 來源:人工智能與算法學習 ? 作者:人工智能與算法學 ? 2022-04-07 10:17 ? 次閱讀

據報道稱,由于采用基于云的技術和在大數據中使用深度學習系統,深度學習的使用在過去十年中迅速增長,預計到 2028 年,深度學習的市場規模將達到 930 億美元。但究竟什么是深度學習,它是如何工作的?深度學習是機器學習的一個子集,它使用神經網絡來執行學習和預測。深度學習在各種任務中都表現出了驚人的表現,無論是文本、時間序列還是計算機視覺。深度學習的成功主要來自大數據的可用性和計算能力。然而,不僅如此,這使得深度學習遠遠優于任何經典的機器學習算法

深度學習:神經網絡和函數

神經網絡是一個相互連接的神經元網絡,每個神經元都是一個有限函數逼近器。這樣,神經網絡被視為通用函數逼近器。如果你還記得高中的數學,函數就是從輸入空間到輸出空間的映射。一個簡單的 sin(x) 函數是從角空間(-180° 到 180° 或 0° 到 360°)映射到實數空間(-1 到 1)。 讓我們看看為什么神經網絡被認為是通用函數逼近器。每個神經元學習一個有限的函數:f(.) = g(W*X) 其中 W 是要學習的權重向量,X 是輸入向量,g(.) 是非線性變換。W*X 可以可視化為高維空間(超平面)中的一條線(正在學習),而 g(.) 可以是任何非線性可微函數,如 sigmoid、tanh、ReLU 等(常用于深度學習領域)。在神經網絡中學習無非就是找到最佳權重向量 W。例如,在 y = mx+c 中,我們有 2 個權重:m 和 c。現在,根據 2D 空間中點的分布,我們找到滿足某些標準的 m & c 的最佳值:對于所有數據點,預測 y 和實際點之間的差異最小。

層的效果

現在每個神經元都是一個非線性函數,我們將幾個這樣的神經元堆疊在一個「層」中,每個神經元接收相同的一組輸入但學習不同的權重 W。因此,每一層都有一組學習函數:[f1, f2, …, fn],稱為隱藏層值。這些值再次組合,在下一層:h(f1, f2, ..., fn) 等等。這樣,每一層都由前一層的函數組成(類似于 h(f(g(x))))。已經表明,通過這種組合,我們可以學習任何非線性復函數。 深度學習是具有許多隱藏層(通常 > 2 個隱藏層)的神經網絡。但實際上,深度學習是從層到層的函數的復雜組合,從而找到定義從輸入到輸出的映射的函數。例如,如果輸入是獅子的圖像,輸出是圖像屬于獅子類的圖像分類,那么深度學習就是學習將圖像向量映射到類的函數。類似地,輸入是單詞序列,輸出是輸入句子是否具有正面/中性/負面情緒。因此,深度學習是學習從輸入文本到輸出類的映射:中性或正面或負面。

深度學習作為插值

從生物學的解釋來看,人類通過逐層解釋圖像來處理世界的圖像,從邊緣和輪廓等低級特征到對象和場景等高級特征。神經網絡中的函數組合與此一致,其中每個函數組合都在學習關于圖像的復雜特征。用于圖像的最常見的神經網絡架構是卷積神經網絡 (CNN),它以分層方式學習這些特征,然后一個完全連接的神經網絡將圖像特征分類為不同的類別。 通過再次使用高中數學,給定一組 2D 數據點,我們嘗試通過插值擬合曲線,該曲線在某種程度上代表了定義這些數據點的函數。我們擬合的函數越復雜(例如在插值中,通過多項式次數確定),它就越適合數據;但是,它對新數據點的泛化程度越低。這就是深度學習面臨挑戰的地方,也就是通常所說的過度擬合問題:盡可能地擬合數據,但在泛化方面有所妥協。幾乎所有深度學習架構都必須處理這個重要因素,才能學習在看不見的數據上表現同樣出色的通用功能。 深度學習先驅 Yann LeCun(卷積神經網絡的創造者和 ACM 圖靈獎獲得者)在他的推特上發帖(基于一篇論文):「深度學習并沒有你想象的那么令人印象深刻,因為它僅僅是美化曲線擬合的插值。但是在高維中,沒有插值之類的東西。在高維空間,一切都是外推。」因此,作為函數學習的一部分,深度學習除了插值,或在某些情況下,外推。就這樣!

894f7054-b604-11ec-aa7f-dac502259ad0.png

Twitter 地址:https://twitter.com/ylecun/status/1409940043951742981?lang=en

學習方面

那么,我們如何學習這個復雜的函數呢?這完全取決于手頭的問題,而這決定了神經網絡架構。如果我們對圖像分類感興趣,那么我們使用 CNN。如果我們對時間相關的預測或文本感興趣,那么我們使用 RNN 或 Transformer,如果我們有動態環境(如汽車駕駛),那么我們使用強化學習。除此之外,學習還涉及處理不同的挑戰:

確保模型學習通用函數,而不僅僅適合訓練數據;這是通過使用正則化處理的;

根據手頭的問題,選擇損失函數;松散地說,損失函數是我們想要的(真實值)和我們當前擁有的(當前預測)之間的誤差函數;

梯度下降是用于收斂到最優函數的算法;決定學習率變得具有挑戰性,因為當我們遠離最優時,我們想要更快地走向最優,而當我們接近最優時,我們想要慢一些,以確保我們收斂到最優和全局最小值;

大量隱藏層需要處理梯度消失問題;跳過連接和適當的非線性激活函數等架構變化,有助于解決這個問題。

計算挑戰

現在我們知道深度學習只是一個學習復雜的函數,它帶來了其他計算挑戰:

要學習一個復雜的函數,我們需要大量的數據;

為了處理大數據,我們需要快速的計算環境;

我們需要一個支持這種環境的基礎設施。

使用 CPU 進行并行處理不足以計算數百萬或數十億的權重(也稱為 DL 的參數)。神經網絡需要學習需要向量(或張量)乘法的權重。這就是 GPU 派上用場的地方,因為它們可以非常快速地進行并行向量乘法。根據深度學習架構、數據大小和手頭的任務,我們有時需要 1 個 GPU,有時,數據科學家需要根據已知文獻或通過測量 1 個 GPU 的性能來做出決策。 通過使用適當的神經網絡架構(層數、神經元數量、非線性函數等)以及足夠大的數據,深度學習網絡可以學習從一個向量空間到另一個向量空間的任何映射。這就是讓深度學習成為任何機器學習任務的強大工具的原因。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4779

    瀏覽量

    101169
  • 計算機視覺
    +關注

    關注

    8

    文章

    1700

    瀏覽量

    46127
  • 深度學習
    +關注

    關注

    73

    文章

    5513

    瀏覽量

    121546

原文標題:這就是深度學習如此強大的原因

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深度學習入門:簡單神經網絡的構建與實現

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡神經網絡由多個
    的頭像 發表于 01-23 13:52 ?97次閱讀

    深度學習中的卷積神經網絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經網絡作為深度學習的一個分支,因其在圖像處理
    的頭像 發表于 11-15 14:52 ?401次閱讀

    簡單認識深度神經網絡

    深度神經網絡(Deep Neural Networks, DNNs)作為機器學習領域中的一種重要技術,特別是在深度學習領域,已經取得了顯著的
    的頭像 發表于 07-10 18:23 ?1183次閱讀

    前饋神經網絡的基本結構和常見激活函數

    前饋神經網絡(Feedforward Neural Network, FNN)是人工神經網絡中最基本且廣泛應用的一種結構,其結構簡單、易于理解,是深度學習領域中的基石。FNN通過多層節
    的頭像 發表于 07-09 10:31 ?1075次閱讀

    深度神經網絡與基本神經網絡的區別

    在探討深度神經網絡(Deep Neural Networks, DNNs)與基本神經網絡(通常指傳統神經網絡或前向神經網絡)的區別時,我們需
    的頭像 發表于 07-04 13:20 ?1059次閱讀

    深度神經網絡的設計方法

    深度神經網絡(Deep Neural Networks, DNNs)作為人工智能領域的重要技術之一,通過模擬人腦神經元之間的連接,實現了對復雜數據的自主學習和智能判斷。其設計方法不僅涉
    的頭像 發表于 07-04 13:13 ?555次閱讀

    BP神經網絡屬于DNN嗎

    屬于。BP神經網絡(Backpropagation Neural Network)是一種基于誤差反向傳播算法的多層前饋神經網絡,是深度學習(Deep Learning)領域中非常重要的
    的頭像 發表于 07-03 10:18 ?857次閱讀

    bp神經網絡深度神經網絡

    BP神經網絡(Backpropagation Neural Network)是一種常見的前饋神經網絡,它使用反向傳播算法來訓練網絡。雖然BP神經網絡在某些方面與
    的頭像 發表于 07-03 10:14 ?947次閱讀

    BP神經網絡激活函數怎么選擇

    中,激活函數起著至關重要的作用,它決定了神經元的輸出方式,進而影響整個網絡的性能。 一、激活函數的作用 激活函數是BP
    的頭像 發表于 07-03 10:02 ?807次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中一種重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理等領域。在卷積
    的頭像 發表于 07-03 09:18 ?1231次閱讀

    深度學習與卷積神經網絡的應用

    隨著人工智能技術的飛速發展,深度學習和卷積神經網絡(Convolutional Neural Network, CNN)作為其中的重要分支,已經在多個領域取得了顯著的應用成果。從圖像識別、語音識別
    的頭像 發表于 07-02 18:19 ?1049次閱讀

    卷積神經網絡的原理是什么

    卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、語音識別、自然語言處理等領域。本文將詳細介紹卷積神經網絡的原
    的頭像 發表于 07-02 14:44 ?806次閱讀

    卷積神經網絡和bp神經網絡的區別

    化能力。隨著深度學習技術的不斷發展,神經網絡已經成為人工智能領域的重要技術之一。卷積神經網絡和BP神經
    的頭像 發表于 07-02 14:24 ?4711次閱讀

    深度神經網絡模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經網絡模型,由多個全連接層組成。每個隱藏層的神經元數量可以不同,通常使用激活函數
    的頭像 發表于 07-02 10:00 ?1638次閱讀

    神經網絡中的激活函數有哪些

    神經網絡中,激活函數是一個至關重要的組成部分,它決定了神經元對于輸入信號的反應方式,為神經網絡引入了非線性因素,使得網絡能夠
    的頭像 發表于 07-01 11:52 ?660次閱讀
    百家乐官网的规则博彩正网| 百家乐官网网络游戏信誉怎么样| 百家乐官网游戏全讯网2| 加多宝百家乐的玩法技巧和规则 | 百家乐官网如何玩法| 鸿利国际| 国际豪门娱乐| 大发888游戏平台 17| 大发888怎么找| 全讯网找新全讯网| 御匾会百家乐的玩法技巧和规则| 百家乐长庄投注| 百家乐扑克多少张| 蓝盾百家乐平台租用| 百家乐下载免费软件| 百家乐现金网排名| 做生意的摆件| 个体老板做生意的风水| 24山吉凶视频| 刀把状的房子做生意| 做生意摆放风水| 恒利百家乐官网的玩法技巧和规则 | 百家乐博彩桌出租| 百家乐美女荷官| 百家乐获胜秘决| 百家乐试玩平台| 百家乐官网网上投注文章| 新澳门百家乐官网娱乐城| 百家乐官网二十一点| 百家乐官网庄闲对冲| ag百家乐官网下载| 木棉百家乐官网网络| 百家乐官网游戏解码器| 博彩百家乐官网字谜总汇| 怎样打百家乐官网的玩法技巧和规则| 免费玩百家乐官网的玩法技巧和规则| 宝马百家乐官网的玩法技巧和规则| 聚宝盆百家乐官网的玩法技巧和规则| 博彩百家乐官网五2013124预测| 属虎和属鼠合伙做生意| 百家乐游戏开发技术|