E資格受験メモ

deep learningの資格であるE資格を受験したのでメモ。

試験内容以外の色々も情報がなかったので書き留めておく。

TL; DR

  • レベル感としては黒本や認定講習の例題(JDLA提供の例題)と同等
  • 出題はシラバス全般のため、教材で練習しつつシラバスの項目の漏れがないかは確認しながら勉強した方がいい

結果

■合否結果


【 合 格 】


総受験者数   897名

合格者数    644名

■分野別の得点率

応用数学:90 %

機械学習:100 %

深層学習:72 %

開発環境:100 %

準備

  • 認定講習
  • 黒本

試験メモ

  • 出題内容はシラバス通りなので、シラバスに沿った勉強は大事
  • 実装問題は例題に近い感じ。ライブラリの知識は直接は問われなかった(例えばtensorflowのメソッド仕様を覚えていないと解けないようなものはなかった)
  • 全106問、120分 開始10分前くらいに入室したが、PC起動後すぐに試験始まった

出題項目のメモ(印象に残っているもの)

  • 方策勾配定理
  • 全結合型ニューラルネットワークのスクラッチ実装
  • 最適化学習の特徴(SGD,、AdaGrad, RMSprop、Adamなど)
  • Layer正規化、Instance正規化などの特徴
  • Sequence-to-Sequenceのネットワーク図
  • 識別モデルと生成モデルの特徴
  • A3C
  • ResNetやDenseNetの特徴
  • FCOS
  • BERT
  • WaveNet
  • FFT、メル尺度
  • SiameseNetとTripletLoss
  • MAML
  • Grad-CAM
  • セマンティックセグメンテーションとは

その他、情報理論機械学習の各項目

シラバスに載っていたが出題されなかった項目のメモ(別日の試験で出たかも?)

  • オートエンコーダ
  • AlphaGo
  • GoogLeNet、EfficientNet
  • WordEmbedding
  • CTC
  • LIME、SHAP
  • グラフ畳み込み
  • LSTM、GRU、Attentionも多分なかった

その他試験システムなど

  • よくあるCBTの形式。PCで完結しており、メモ用にボードが1枚貸与される。PC画面内に電卓(Texas Instruments製)がある
  • 1画面1問の形で、すべて選択式
  • 振り返り用に各問題にフラグを付けられる
  • 前後は1問ずつしか移動できない。
  • 最後まで解き終わると、問題番号の一覧とフラグ有無が出るので任意の問題を見直すことができる
  • 一覧には問題番号とフラグのみで、問題内容の情報はないので、手元のボードに補足情報をメモしながら進めた方が見直しがしやすい(計算問題の番号を控えておくなど)

所感

  • 問題の内容・難易度としては、黒本や認定講習の例題とほぼ同じ
  • 時間は割と短めなので、テンポよく解き進めた方がいい
  • 行列計算やベイズの定理の計算問題は時間とられないように練習しておいた方がいい
  • 試験対策としては実装には時間かけなくても良さそう(python書けなくても試験自体は問題ないのでは?)。im2colとか全結合ニューラルネットワーク、CNNの実装問題見ておけばおおむね行けそう。問われる箇所は変わると思うので、そこは柔軟に
  • シラバスの追加項目以外については全くわからない(細かく覚えていなかったものはあるものの、教材になかった)というものはなかった
  • シラバスに項目のあるトピックは抑えておいた方がいい(MAMLとかGrad-CAMとか、シラバスに載っているのに認定講習も黒本もアップデートが遅い)。ただ、何が問われるかをまとめるのは難しいかも。例えば、「ResNet=スキップ接続で勾配消失を解消」で試験対策できるが、「MAML=?」をうまくまとめられるか
  • 教材にあるものの最低ラインは抑えておくとよさそう(問題を一通り解けるレベル)
  • 認定講習と黒本と両方見てみると、説明がわかりやすい方があって理解しやすかったりする(黒本のLSTMやAttentionの説明は分かりやすかった)。認定講習と黒本の組み合わせは割と捗ったが、認定講習:理論的な情報量が多めで試験対策としては重要なものがわかりにくい、黒本:試験対策としては向いているが、誤植多いとの話があったり、新シラバスに対応していないこともあったりして、全面的には信頼できない。シラバスと見比べながら漏れがないように確認した方がいい。
  • そもそも試験の合格ラインは低め?そもそも講習も受けているし試験自体はそんなに重視されていない可能性もありそう