最新的回應
發表人 | 討論 | 發表時間 |
---|---|---|
M11333001 | ReLU 被廣泛採用因為它能減少梯度消失問題,計算簡單高效,且具非線性性質,有助於神經網絡學習複雜映射。 | 2024-10-17 |
M11333006 | ReLU 被廣泛採用因為它能減少梯度消失問題,計算簡單高效,且具非線性性質,有助於神經網絡學習複雜映射。 | 2024-10-17 |
M11333003 | ReLU被廣泛使用因為它計算簡單,能減少梯度消失問題,還能提高模型效率和性能 | 2024-10-16 |
M11333012 | 計算簡單、減少梯度消失。 | 2024-10-09 |
M11333003 | 有效率的梯度下降,避免了梯度爆炸和梯度消失問題,簡化計算的過程 | 2024-10-09 |
B11033056 | ReLU被廣泛使用因為它計算簡單,能減少梯度消失問題,還能提高模型效率和性能。 | 2024-10-09 |
m11333013 | 有效率的梯度下降,避免了梯度爆炸和梯度消失問題,簡化計算的過程 | 2024-10-09 |
b11033041 | 因其計算簡單且效果好 | 2024-10-09 |
B11033101 | 計算簡單、減少梯度消失。 | 2024-10-09 |