23. Attention

Attentionとは何を行う仕組みか?

  • 情報の重要度に重みをつける仕組み
  • 入力を分類する機構
  • 活性化関数の一種
  • 誤差関数の一種

正解!

不正解...

正解は情報の重要度に重みをつける仕組みです。

Attentionは、入力情報の中で重要な部分に重点を置く仕組みです。

問題に戻る

Attentionで主に行われる処理は?

  • 情報の関連度を計算する
  • 勾配を補正する
  • 重みを削除する
  • 正規化を行う

正解!

不正解...

正解は情報の関連度を計算するです。

Attentionは、各入力の関連度を計算し、重要度に応じた処理を行います。

問題に戻る

AttentionがRNNと比較して得意とする処理は?

  • 長期依存関係の学習
  • 活性化の向上
  • 正則化
  • 入力の前処理

正解!

不正解...

正解は長期依存関係の学習です。

Attentionは、RNNの苦手な長期依存関係の情報も直接参照できる点が強みです。

問題に戻る

Attentionを活用した代表的なディープラーニングモデルは?

  • Transformer
  • CNN
  • LSTM
  • GRU

正解!

不正解...

正解はTransformerです。

TransformerはAttention機構を活用した代表的なモデルです。

問題に戻る

入力系列内の各要素間の関係を計算するAttentionの種類は?

  • Self-Attention
  • Cross-Attention
  • Batch-Attention
  • Feature-Attention

正解!

不正解...

正解はSelf-Attentionです。

Self-Attentionは、同一系列内の単語同士の関連性を捉えるAttentionです。

問題に戻る

エンコーダーとデコーダーの情報を関連付けるAttentionは?

  • Encoder-Decoder Attention
  • Self-Attention
  • Input-Attention
  • Positional-Attention

正解!

不正解...

正解はEncoder-Decoder Attentionです。

Encoder-Decoder Attention(Source Target Attention)は、エンコーダーとデコーダー間の関連を学習します。

問題に戻る

Attentionの計算に使われる3つの構成要素は?

  • クエリ
  • キー
  • バリュー
  • すべて正しい

正解!

不正解...

正解はすべて正しいです。

Attentionでは、クエリ・キー・バリューの3つのベクトルを用いて重みを計算します。

問題に戻る

異なる表現空間で複数のAttentionを並列に行う仕組みは?

  • Multi-Head Attention
  • Batch-Attention
  • Drop-Attention
  • Dense-Attention

正解!

不正解...

正解はMulti-Head Attentionです。

Multi-Head Attentionは、異なる視点から情報の関連度を同時に学習するための仕組みです。

問題に戻る

系列の順序情報を付与するために用いられる手法は?

  • 位置エンコーディング
  • 勾配消失
  • 活性化関数
  • 学習率スケジューリング

正解!

不正解...

正解は位置エンコーディングです。

Transformerは順序情報を直接扱わないため、位置エンコーディングで順序情報を付与します。

問題に戻る

Attentionと組み合わせて機械翻訳などに使われるモデル構成は?

  • Seq2Seq
  • ResNet
  • VGGNet
  • LeNet

正解!

不正解...

正解はSeq2Seqです。

Seq2Seqは、エンコーダーとデコーダーの構成を持ち、Attentionと組み合わせて翻訳などに使われます。

問題に戻る