健行科技大學eclass易課平台
×
登入
  • 回學校
    • 健行科技大學 首頁
    • 招生資訊
    • 電資學院
    • 工程學院
    • 商管學院
    • 民生創意學院
    • 通識教育中心
  • 手機版
  • 系統教學
    • 功能特色
    • 線上教學
    • 翻轉教學應用分享
  • 開放課程
位置: 機器學習研討 > 教材 > ML常用的activation函數初探與pyplot繪圖(1009) > 最新的回應
最新的回應
發表人討論發表時間
M11333001
ReLU 被廣泛採用因為它能減少梯度消失問題,計算簡單高效,且具非線性性質,有助於神經網絡學習複雜映射。2024-10-17
M11333006
ReLU 被廣泛採用因為它能減少梯度消失問題,計算簡單高效,且具非線性性質,有助於神經網絡學習複雜映射。2024-10-17
M11333003
ReLU被廣泛使用因為它計算簡單,能減少梯度消失問題,還能提高模型效率和性能2024-10-16
M11333012
計算簡單、減少梯度消失。2024-10-09
M11333003
有效率的梯度下降,避免了梯度爆炸和梯度消失問題,簡化計算的過程2024-10-09
B11033056
ReLU被廣泛使用因為它計算簡單,能減少梯度消失問題,還能提高模型效率和性能。2024-10-09
m11333013
有效率的梯度下降,避免了梯度爆炸和梯度消失問題,簡化計算的過程2024-10-09
b11033041
因其計算簡單且效果好2024-10-09
B11033101
計算簡單、減少梯度消失。2024-10-09

©Copyright  健行科技大學 Chien Hsin University of Science and Technology All rights reserved.
本網站僅作學術研究用途,不得從事商業用途,請尊重智慧財產權,避免任何侵權行為,勿上傳/下載未經授權之檔案資料。
Please respect the intellectual property rights.