特徴量と正解ラベルのペアを用いて学習する手法は?
- 教師あり学習
- 教師なし学習
- 強化学習
- 転移学習
正解!
不正解...
正解は教師あり学習です。
問題に戻る
入力データを複数のクラスに分類するタスクは?
- 分類問題
- 回帰問題
- 強化学習
- 教師なし学習
正解!
不正解...
正解は分類問題です。
分類問題は、入力データを離散的なクラスに分類するタスクです。
問題に戻る
連続的な数値を予測するタスクは?
- 回帰問題
- 分類問題
- ブースティング
- クラスタリング
正解!
不正解...
正解は回帰問題です。
回帰問題は、数値などの連続値を予測するタスクです。
問題に戻る
目的変数と特徴量が線形な関係にあると仮定するモデルは?
- 線形回帰
- ロジスティック回帰
- 決定木
- SVM
正解!
不正解...
正解は線形回帰です。
線形回帰は、特徴量と目的変数の線形な関係を前提とする回帰モデルです。
問題に戻る
分類問題でよく用いられる、確率でクラスを予測するモデルは?
- ロジスティック回帰
- 線形回帰
- SVM
- 決定木
正解!
不正解...
正解はロジスティック回帰です。
ロジスティック回帰は、確率を用いてクラス分類を行うモデルです。
問題に戻る
マージン最大化の考え方に基づく分類モデルは?
- SVM
- ロジスティック回帰
- 決定木
- AdaBoost
正解!
不正解...
正解はSVMです。
サポートベクターマシン(SVM)は、マージン最大化によって分類境界を決定します。
問題に戻る
複数のモデルを組み合わせて精度向上を図る手法は?
- アンサンブル学習
- ブースティング
- 回帰問題
- 分類問題
正解!
不正解...
正解はアンサンブル学習です。
アンサンブル学習とは、複数のモデルを組み合わせて精度を高める手法です。
問題に戻る
サブセットデータで複数モデルを並列学習させるアンサンブル手法は?
- バギング
- ブースティング
- ランダムフォレスト
- SVM
正解!
不正解...
正解はバギングです。
バギングは、データを複数のサブセットに分けてモデルを並列に学習させるアンサンブル手法です。
問題に戻る
逐次的にモデルを組み合わせて予測精度を高める手法は?
- ブースティング
- バギング
- ブートストラップサンプリング
- 勾配ブースティング
正解!
不正解...
正解はブースティングです。
ブースティングは、弱いモデルを逐次的に組み合わせて精度を高める手法です。
問題に戻る
バギングにより複数の決定木を統合するモデルは?
- ランダムフォレスト
- 決定木
- AdaBoost
- 勾配ブースティング
正解!
不正解...
正解はランダムフォレストです。
ランダムフォレストは、複数の決定木をバギングで組み合わせたアンサンブルモデルです。
問題に戻る
教師あり学習では、正解ラベル(教師データ)と特徴量のペアを用いてモデルを学習させます。