【G検定シラバス準拠】正則化|例題で学ぶ!実践演習パート付き

quiz





クイズ

Q1. 次の空欄に最も適切に当てはまる語句はどれか。 L1正則化は、損失関数に重みの絶対値の和を加えることで、______ を促進する効果がある。
  • 分類境界の非線形化
  • 特徴量の削除
  • モデルの多層化
  • パラメータの指数的増加
Q2. 次のうち、モデルの複雑さを抑えつつ学習効果を維持するために導入される手法として最も適切なものはどれか。
  • アンサンブル学習
  • ドロップアウト
  • 勾配消失対策
  • バッチ正規化
Q3. 正則化を導入する主な目的として最も適切なものはどれか。
  • 過学習を防ぎ、汎化性能を高めるため
  • 学習率を一定に保つため
  • 訓練データへの適合を最大化するため
  • データのスケーリングを正規分布に近づけるため
Q4. ラッソ回帰とリッジ回帰に関する説明として最も適切なものはどれか。
  • ラッソ回帰は不要な特徴量の重みを0にし、変数選択が可能である
  • リッジ回帰は重みの絶対値にペナルティを加えるためスパースな解になる
  • リッジ回帰は正則化を行わず、訓練誤差のみを最小化する
  • ラッソ回帰はL2正則化を利用し、滑らかな重みを得ることを目的とする
Q5. 次の正則化手法とその特徴の正しい組み合わせはどれか。 あ:L2正則化 い:ドロップアウト う:L0正則化 え:L1正則化
  • あ:特徴量削減、い:非線形化促進、う:正規化無し、え:活性化関数の変更
  • あ:スパース性を促進、い:重みの平方にペナルティ、う:ランダムにノードを削除、え:ノード出力のランダム化
  • あ:正規分布を前提とした正則化、い:回帰係数の正規化、う:分類境界の調整、え:ニューラルネットの深層化
  • あ:重みの2乗にペナルティ、い:学習時に一部ノードを無効化、う:特徴量の数を最小化、え:重みの絶対値を最小化


正答率
0%
0 / 0 問正解



コメント