出力を次の時間ステップの入力に再利用する構造を持つ層は?
- 回帰結合層
- 畳み込み層
- 全結合層
- プーリング層
正解!
不正解...
正解は回帰結合層です。
問題に戻る
回帰結合層を使って時系列データなどを扱うモデルは?
- RNN
- CNN
- DNN
- ResNet
正解!
不正解...
正解はRNNです。
RNN(再帰型ニューラルネットワーク)は、回帰結合層を用いて時系列データを処理するモデルです。
問題に戻る
RNNが得意とするタスクのひとつは?
- 音声認識
- 画像分類
- 物体検出
- セグメンテーション
正解!
不正解...
正解は音声認識です。
RNNは、時間的な前後関係を考慮するため、音声認識や文章処理などに適しています。
問題に戻る
RNNが特に効果を発揮するデータの特性は?
- 時系列データ
- 静的画像
- テキスト
- センサーデータ
正解!
不正解...
正解は時系列データです。
RNNは、時間的な連続性を持つデータ(時系列)を扱うのに適したモデルです。
問題に戻る
RNNの学習で使われるアルゴリズムは?
- 誤差逆伝播法
- 勾配降下法
- バッチ学習
- モンテカルロ法
正解!
不正解...
正解は誤差逆伝播法です。
RNNの学習は、誤差逆伝播法を時間方向にも適用した『時間方向の誤差逆伝播(BPTT)』で行われます。
問題に戻る
RNNで誤差を時間方向に伝播して学習を行う手法は?
- BPTT(Backpropagation Through Time)
- SGD
- RMSprop
- モーメンタム
正解!
不正解...
正解はBPTT(Backpropagation Through Time)です。
RNNは、時間方向に展開して誤差を伝播するBPTTで学習を行います。
問題に戻る
RNNの長期依存学習で問題となる現象は?
- 勾配消失問題
- ノイズ問題
- データ欠損問題
- パラメータ不足
正解!
不正解...
正解は勾配消失問題です。
RNNでは長い時系列になると勾配が小さくなり、学習が進まなくなる『勾配消失問題』が発生します。
問題に戻る
長期依存関係を学習しづらくなる問題は?
- 勾配消失問題
- 活性化関数
- パディング
- 過学習
正解!
不正解...
正解は勾配消失問題です。
RNNの代表的な課題の一つが、長期の依存関係を学習しにくい勾配消失問題です。
問題に戻る
RNNの勾配消失問題を解決するために開発された改良モデルは?
- LSTM
- ReLU
- BatchNorm
- MaxPooling
正解!
不正解...
正解はLSTMです。
LSTM(長短期記憶)は、RNNの勾配消失問題を解消するために開発された構造です。
問題に戻る
LSTMより簡易な構造でRNNの学習性を改善するモデルは?
- LSTM
- GRU
- ReLU
- RMSprop
正解!
不正解...
正解はGRUです。
GRU(Gated Recurrent Unit)は、LSTMを簡略化した構造で、RNNの学習問題を改善します。
問題に戻る
回帰結合層は、出力を次の時間ステップの入力として利用する構造を持つ層です。