ニューラルネットワークで誤差を出力層から逆方向に伝えて重みを調整する手法は?
- 誤差逆伝播法
- 活性化関数
- 勾配降下法
- 過学習
正解!
不正解...
正解は誤差逆伝播法です。
問題に戻る
誤差逆伝播法で勾配を計算する際に用いられる微分の法則は?
- 連鎖律
- 微分法
- 行列演算
- 積分法
正解!
不正解...
正解は連鎖律です。
誤差逆伝播法では、連鎖律(Chain Rule)を使って層ごとの勾配を計算します。
問題に戻る
誤差逆伝播法で生じやすい問題として正しいものは?
- 勾配消失問題
- 勾配爆発問題
- 信用割当問題
- すべて正しい
正解!
不正解...
正解はすべて正しいです。
誤差逆伝播法では、層が深くなるほど勾配が消失・爆発したり、どの重みが影響したかが不明になる問題が生じます。
問題に戻る
誤差が入力層に伝わる途中で極端に小さくなる問題は?
- 勾配消失問題
- 過学習
- ノイズ混入
- 正則化不足
正解!
不正解...
正解は勾配消失問題です。
勾配消失問題は、誤差が入力層に伝わるにつれて極端に小さくなり、学習が進まなくなる問題です。
問題に戻る
勾配が極端に大きくなって学習が不安定になる問題は?
- 勾配爆発問題
- 過学習
- 誤差関数の選択ミス
- モデル選択ミス
正解!
不正解...
正解は勾配爆発問題です。
勾配爆発問題は、勾配が極端に大きくなって重みが発散しやすくなる問題です。
問題に戻る
学習時にどの重みが出力結果にどれだけ貢献したかが不明瞭になる問題は?
- 信用割当問題
- 勾配消失問題
- 活性化関数問題
- 勾配計算問題
正解!
不正解...
正解は信用割当問題です。
信用割当問題とは、出力結果に対して、どのニューロン(重み)がどれだけ貢献したかが不明確になる問題です。
問題に戻る
勾配消失を回避しやすい活性化関数は?
- ReLU
- tanh
- シグモイド
- ソフトマックス
正解!
不正解...
正解はReLUです。
ReLUは、勾配消失問題を回避しやすいため、誤差逆伝播法に適しています。
問題に戻る
誤差逆伝播法において必要な活性化関数の特性は?
- 活性化関数の非線形性
- 活性化関数の直線性
- 出力層の誤差
- ランダムノイズ
正解!
不正解...
正解は活性化関数の非線形性です。
誤差逆伝播法が機能するためには、活性化関数が非線形であることが重要です。
問題に戻る
勾配消失問題の直接的な原因は?
- 勾配の小ささ
- ネットワークの浅さ
- 活性化関数の線形性
- 重み初期値の偏り
正解!
不正解...
正解は勾配の小ささです。
勾配消失問題の直接的な原因は、層を通じて勾配が小さくなることです。
問題に戻る
誤差逆伝播法によって最終的に行われる処理は?
- 重み更新
- 活性化関数
- 誤差伝播
- 勾配計算
正解!
不正解...
正解は重み更新です。
誤差逆伝播法の目的は、勾配を使って重みを更新し、誤差を最小化することです。
問題に戻る
誤差逆伝播法は、ニューラルネットワークにおいて誤差を出力層から入力層に伝えて重みを更新する手法です。