学習済み分散表現を用いた文書分類に挑戦(一部再学習も)

はじめに

2018年9月のテキストアナリティクスシンポジウムに行った際に、学習済みの分散表現で事前学習したモデルを使って分類してうまくいく事例が紹介されていました。
全てのタスクにおいてうまくいくとは思えませんが、試すコストはあまりかからないので試してみます。

2017年のテキストアナリティクスシンポジウムにおいても、メルカリやGunosyでは分散表現を用いた手法が一番精度が高いと言われていましたし、今年の会ではNLP系の学会でも分散表現はデファクトスタンダードになっているという話も伺いました。
2013~14年はLDAを使った研究が多かった気がしますが、徐々にシフトしていっているんですね。

これまで(Word2Vecを用いて蒙古タンメン中本の口コミ評価を予測してみる)は4000件程度の蒙古タンメン中本の口コミの情報を元に分散表現を手に入れていましたが、学習済みの分散表現を用いたアプローチも有効かもしれないと思い、試してみようと思います。

分類タスク

某グルメ口コミサイトの蒙古タンメン中本の口コミのテキストから、3.5点以上の評価かどうかを予測するタスクを扱います。
本当は、ポケモン図鑑の説明文から水やら炎やらのタイプを予測するとかをしたいのですが、あいにく手元にデータがないので、以前集めた蒙古タンメン中本の口コミを使います。(実は後日、ポケモン図鑑のデータを集めたのですが、平仮名にまみれたデータな上に、データ数も800件しかなかったので、どのみち厳しかったです。)

学習済み分散表現

Word2Vecなどで大量の文書をもとに学習させた分散表現のことを指します。
大規模コーパスで分散表現を手に入れる際は、数十GBにも相当するテキストデータを数時間かけて推定するので、学習済みのモデルは非常にありがたいです。(4年前に会社のPCで計算した際は、12時間くらいかかったこともありました。)

無料で提供してくださっている分散表現については、すでにこちらのブログで紹介されています。そこで紹介されているものに少し付け足すと、日本語の分散表現に関しては以下のようなものがあります。

  • 白ヤギコーポレーションのモデル:Gensim
  • 東北大学 乾・岡崎研究室のモデル:Gensim
  • Facebookの学習済みFastTextモデル:Gensim
  • NWJC から取得した単語の分散表現データ (nwjc2vec):Gensim
  • NNLM embedding trained on Google News:TensorFlow

そこで、今回は各種学習済み分散表現と蒙古タンメン中本コーパスで求めた分散表現の文書分類の性能バトルをしてみたいと思います。
ただ、分散表現ではなく、単語の頻度をもとに特徴量を作ったものが一番精度が高いのですが、分散表現同士の比較でもってどの学習済み分散表現が中本の口コミ分類に役に立ちそうなのかを明らかにしようと思います。(本来は分析という観点から即でボツですが、見苦しくも比較していきます。)

前処理

前処理は以下の通りで、テキストデータを分かち書きして、数値や低頻度・高頻度語を除外しています。

処理を施すとこのようなデータになります。

特徴量は、scikit-learnのCountVectorizerやTfidfVectorizer、分散表現の合計・平均・TF-IDFを求めたものを用意します。

蒙古タンメン中本の口コミ4000件から作成した分散表現:Gensim

まず、以前のブログで紹介した蒙古タンメン中本の分散表現ですが、以下のように推定しています。

Pipelineを用いてExtraTreesClassifierによる学習をします。特徴量は先程あげた、テキストベースのCountVectorizerやTfidfVectorizer、分散表現の合計・平均・TF-IDFで、評価指標はAUCのクロスバリデーションスコアとします。

汗に関してコンテキストの似ている単語を抽出しています。

結果は、以下の通りで、分散表現を使わない方がAUCが高いです。ただ、w2v_tfidf(分散表現のTF-IDFを特徴量にしたもの)が分散表現の中でAUCが高いようです。今回はこの60.5%をベースラインに比較していこうと思います。

白ヤギコーポレーションのモデル:Gensim

こちらのリンク、「word2vecの学習済み日本語モデルを公開します」から、ダウンロードしてそのまま以下のコードでモデルを扱えます。

汗の関連語を抽出していますが、中国の歴史の何かですか?可汗とかいう単語は聞いたことあるかも。

まずは白ヤギさんの分散表現をそのまま使って予測してみます。(コードは先程のものとほぼ重複するので省略しています。)
残念ながら、ベースラインの60.5%には至りませんでした。

hogehoge.modelというフルモデル形式の場合は、再学習が可能です。詳しくはこちら(models.word2vec – Word2vec embeddings model)に書かれています。

今回は、白ヤギさんの分散表現に対して、追加で蒙古タンメン中本のテキストを食わせて再学習させます。

ベースラインの60.5%よりも下回り、さきほどの白ヤギさんのもともとの分散表現よりも下回りました。

再学習してもかえって精度が下がったりすることから、簡単に精度が出るわけではなさそうです。まぁ、理想はその適用領域での大量のテキストデータがあることで、Wikipediaを元に作成した分散表現に強く依存しても駄目なのだろうと思われます。

東北大学 乾・岡崎研究室のモデル:Gensim

日本語 Wikipedia エンティティベクトルからダウンロードした学習済み分散表現を用います。ダウンロード後は普通に「gzip -d file.txt.gz」みたいにターミナル上で解凍します。以下のコードを実行すればすぐに使うことができます。
ただし、KeyedVectors形式のものは白ヤギさんのように再学習ができません。(Why use KeyedVectors instead of a full model?

汗の類似語に関しては、難しい単語が高めに出ているようです。

残念ながら、ベースラインの60.5%には至りませんでした。

Facebookの学習済みFastTextモデル:Gensim

FastTextはGoogleにいたTomas Mikolov氏がFacebookに転職されて作られた分散表現を求めるためのモデルです。Gensimでも呼び出せます。学習済みのものはこちらのGitHub(Pre-trained word vectors)にあるのですが、NEologdで形態素解析したものをベースに学習し公開されている方がいるとのことで、こちら(fastTextの学習済みモデルを公開しました)からダウンロードしたものを使わせていただきました。

何だこれはレベルの結果が返ってきました。中国の歴史上の人物か何かなんでしょうか。

若干ですがベースラインの60.5%よりも良い結果が得られましたが、 誤差の範囲な気がします。

NWJC から取得した単語の分散表現データ (nwjc2vec):Gensim

国立国語研究所の収集されたテキストデータを元に学習した分散表現が提供されています。ただし、利用するためには申請する必要があります。申請が受理されたらこちら(NWJC から取得した単語の分散表現データ (nwjc2vec) を頒布)からダウンロードして使えます。

汗の関連語ですが、うまく関連付けれているように思われます。少なくとも中国史ぽくはありません。しかしながら、顔文字まで学習していたとは。

ベースラインの60.5%よりも1%ポイントほど高い結果となりました。

NNLM embedding trained on Google News:TensorFlow

こちら(tensorflow-hubで超簡単にテキスト分類モデルが作成できる)で紹介されているように、GoogleがTensorFlowでGoogleニュースのテキストをもとに学習した分散表現が提供されています。

こちらのGitHub(NNLM embedding trained on Google News)から、Japaneseのnnlm-ja-dim50、nnlm-ja-dim50-with-normalizationなどが使えます。分散表現の説明についてはこちらのドキュメント(Token based text embedding trained on Japanese Google News 6B corpus.)にあります。

AUCが65%となっているものの、先程のsklearnでのクロスバリデーションのものとの比較ではないので、なんとも言えないですが、Googleニュースのデータだし結構精度が出そうな可能性を感じますね。
今後、TensorFlowでクロスバリデーションによるAUCスコアの出し方を調べてみて、順当に比較できるようにしたいです。(Kerasを使って計算している事例は見つけた。)

比較

今回の分類タスクはそもそも分散表現では精度が出なかったのですが、学習済み分散表現の中で序列を作るとすると、梵天が一番良く、FastTextが少しだけ良かったです。
TensorFlowをほぼ業務で使わないので、Googleニュースの分散表現を今回の比較対象にできなかったのですが、後日比較できるようにしたいと思います。

あと、今回の口コミの点数を当てるタスクよりも、分散表現にとって相性がいいタスクがあるかもしれないので、今回の結果で諦めることなく色々と試して行きたいです。

おわりに

様々なシンポジウムなどでスタンダードとなってきた分散表現ですが、学習済み分散表現をそのまま使って分類問題で役に立つのかを見てきました。残念ながら、口コミの評価予測タスクにおいては全然効果がなさそうでした。ただ、分散表現の中でもタスクによって相性の良い学習済み分散表現がありそうです。
先程も述べたように、理想は大量のテキストデータで学習した分散表現を求め、それを予測に使うことなので大量のテキストデータを集めて再チャレンジしたいです。どれくらいのテキストデータがあれば十分なのかの規模感もわからないので、実践あるのみなんですかね。

参考情報

Word Embeddingだけで文書分類する
tensorflow-hubで超簡単にテキスト分類モデルが作成できる
Error: ”Word2vec’ object has no attribute index2word
Word2vec Tutorial Online training / Resuming training
Word Embeddingモデル再訪
Googleの事前学習済みモデルを手軽に利用出来るTensorFlow Hub
ゼロから作るDeep Learning ❷ ―自然言語処理編

蒙古タンメン中本コーパスに対してのLDAの適用とトピック数の探索

モチベーション

前回の記事では、Webスクレイピングにより入手した、蒙古タンメン中本の口コミデータに関して、Word2Vecを適用した特徴量エンジニアリングの事例を紹介しました。
今回はせっかく興味深いデータがあるので、どのようなトピックがあるのかをLDAを適用したいと思います。加えて、これまで記事で扱ってきたLDAの事例では評価指標であるPerplexityやCoherenceを扱ってこなかったことから、トピック数がどれくらいであるべきなのか、考察も含めて行いたいと思います。以前扱った階層ディリクレ過程であれば、トピック数を事前に決める必要が無いのですが、今回は扱わないものとします。

環境

・MacBook Pro
・Python3.5
・R version 3.4.4

Gensimで行うLDA

今回もPythonのGensimライブラリを用いて行います。

  • パープレキシティ
    • テストデータに対して計算
    • 負の対数尤度で、低いほどよい。
      • パープレキシティが低いと、高い精度で予測できるよい確率モデルと見なされる。汎化能力を表す指標。
      • トピックの数をいくらでも増やせばパープレキシティは下がる傾向が出ている。
      • 教科書でのパープレキシティの事例に関しては、トピック数を増やせば低くなるという傾向が出ている。

以下のコードでパープレキシティを計算します。

実際に、中本コーパスで計算したトピック数に対してのパープレキシティは以下のように推移しました。

Ldaのモデル選択におけるperplexityの評価によると、
”複数のトピック数で比べて、Perplexityが最も低いものを選択する。」という手法は人間にとって有益なモデルを選択するのに全く役に立たない可能性がある。”と記されています。

『トピックモデルによる統計的潜在意味解析』には、”識別問題の特徴量として使う場合は識別問題の評価方法で決定すればよい”とあるので、目的によってはパープレキシティにこだわらなくても良いと思われます。

今回のケースだと、パープレキシティだけだと、決めかねてしまいますね。

  • コヒーレンス
    • トピックごとの単語間類似度の平均
    • トピック全体のコヒーレンスが高ければ、良い学習アルゴリズムとみなす。

以下のコードでコヒーレンスを計算します。

実際に推定してみたところ、トピック数が20を超えたあたりからコヒーレンスが下がる傾向があるので、
それ以上のトピック数は追い求めない方が良いのかもしれません。

Rでもやってみる

Rでトピック数を決める良い方法がないか調べてみたところ、ldatuningとかいうパッケージがあることがわかりました。複数の論文(Griffiths2004, CaoJuan2009, Arun2010,Deveaud2014)で扱われている手法を元に、適切なトピック数を探れるようです。このパッケージを紹介しているブログの事例では、90から140の範囲で最適なトピック数となることが示されています。詳しくはこちらを見てください。
Select number of topics for LDA model

以下のコードで実行しました。一部、驚異のアニヲタさんのコードを拝借しております。なお、ldaパッケージのlexicalize関数を用いることで、ldatuningに入力するデータを作成することができます。

これを見る限りは、60〜70個の辺りに落ち着くのでしょうか。

トピックの吐き出し

Rでの結果から、60個程度のトピックで推定し、各記事に割り当てが最大のトピックを付与して、トピック別の口コミ評価をみてみようと思います。

以下のコードではトピック別の口コミ評価のしやすさからtopicmodelsパッケージを用いた推定となっています。

口コミ評価の点数が上位のトピックはこんな感じです。

口コミ評価の点数が下位のトピックはこんな感じです。

中本は社会人2〜3年目で新規メディアの立ち上げのストレス解消で数回行きましたが、北極の赤さは異常だと思います。北極を食べたり、トッピングする余裕のある人、ましてや辛さを倍にするという時点で口コミ評価も高くなると考えるのは自然なのかもしれません。

参考情報

トピックモデル (機械学習プロフェッショナルシリーズ)
トピックモデルによる統計的潜在意味解析 (自然言語処理シリーズ)
models.ldamodel – Latent Dirichlet Allocation
Ldaのモデル選択におけるperplexityの評価
pythonでgensimを使ってトピックモデル(LDA)を行う
gensim0.8.6のチュートリアルをやってみた【コーパスとベクトル空間】
LDA 実装の比較
Jupyter notebookにMatplotlibでリアルタイムにチャートを書く
Inferring the number of topics for gensim’s LDA – perplexity, CM, AIC, and BIC
Select number of topics for LDA model
47の心得シリーズをトピックモデルで分類する。 – 驚異のアニヲタ社会復帰への道

Word2Vecを用いて蒙古タンメン中本の口コミ評価を予測してみる

はじめに

word2vecを用いた分類は以前からやってみたいと思っていたのですが、関心を持てるテキストデータがなかったのでなかなか手を出していませんでした。
ある時、ふとしたことから某グルメ系口コミサイトから蒙古タンメン中本の口コミと評価点を抽出して、その評価をword2vecでやってみるのは面白いだろうと思いついたので、さっそくやってみます。
こういう時にはじめて、データ分析だけでなくクローリング屋としても業務をやっていて良かったなと思うところですね。
コードは以前見つけて紹介した「分散表現を特徴量として文書分類するための方法について調べてみた」のものを再利用します。

目次

・目的
・データ収集
・形態素解析
・集計
・分散表現とは
・word2vecについて
・gensimのword2vecの引数
・word2vecによる文書分類の適用
・終わりに
・参考情報

目的

某グルメ系口コミサイトの口コミを収集し、個々人の口コミの内容から個々人の店に対する評価が高いか低いかを予測する。

データ収集

BeautifulSoupで収集しており、各店舗あわせて数千件ほど集めました。(実行コードはこちらでは紹介しません。)

このようなデータが手に入っている前提で以下の分析を進めていきます。

形態素解析

文書を形態素解析して、名詞のみを抽出するためのコードを用意します。

先ほどのデータフレームに対して以下のように実行すれば、名詞のみの分かち書きを行ったカラムが手に入ります。

集計

点数のヒストグラム

3.5点から4点の間が最も評価が多いようです。1点台をつける人はほとんどいないことがわかります。

単語数のヒストグラム

大体の口コミで100単語未満のようです。

単語数と点数の散布図

どうやら口コミにおいて500語を超える記述をしている人は評価が3点を下回ることはないようですが、文字数と点数でキレイに傾向が出ているわけではないですね。

形態素解析結果の集計、単語ランキング

名詞の抽出に関して非常に便利なMeCab Neologdを用いています。蒙古タンメンもきちんと捉えることができています。

味噌よりも北極の方が出現しているようです。北極は言わずもがな、極端に辛い罰ゲームレベルの一品。味噌タンメンは辛さが抑えめのラーメンで、知人の間では最もおいしいのがこのレベルだという合意があったりしますね。

分散表現とは

  • 単語の意味を低次元の密な実数値ベクトルで表現したもの。
  • 入力層から中間層への重み自体が各単語の分散表現となっている。
  • 2017年9月のテキストアナリティクスシンポジウムにてメルカリとGunosyが特徴量として分散表現を活用しており性能が出ているとの発言があった。

word2vecについて

単語の分散表現を作ることを目的としている。

  • CBOW(Continuous Bag-of-Words)
    注目している単語の前後N単語を文脈と呼び、その文脈をBag-of-Words表現として入力し、注目している単語を出力するというニューラルネットワークを学習する。入力層から隠れ層への結合は単語の位置を問わず同じとし、隠れ層の活性化関数をただの恒等関数としている。
  • Skip-gram
    文脈のBOWを突っ込むCBOWとは異なり、入力層に1単語だけを入れる。1単語を入力し、正解データとして他の単語を入れることを繰り返して学習し、ある単語の入力に対して、どの単語の出現確率が高いかどうかを計算する。正解確率が上がるようにニューラルネットワークの重みを調整する。深層学習で使われる自己符号化器と似たような構造とされている。

gensimのword2vecの引数

gensimのword2vecには数多くの引数が存在します。gensimのドキュメントに英語で書かれていますが、せっかくなのでこちらで紹介します。

  • sentences
    解析に使う1行1センテンスで書かれた文書。日本語の場合はLineSentenceフォーマットを使えばうまくいった。単語が空白文字で区切られていて、文章は改行で区切られていれば問題ない。
  • sg
    {1,0}の整数で訓練アルゴリズムを設定できる。 1を選べばskip-gramで、0ならばCBOWを使う。
  • size
    特徴ベクトルの次元を設定する。
  • window
    文書内における現在の単語と予測した単語の間の距離の最大値を設定する。言い換えると、文脈の最大単語数を設定する。
  • alpha
    学習率の初期値を設定する。
  • min_alpha
    訓練の過程で徐々に落ちていく学習率の最小値を設定する。
  • seed
    乱数を生成する際のシード番号を設定する。
  • min_count
    一定の頻度以下の単語を除外する際の値を設定する。
  • max_vocab_size
    語彙ベクトルを構築している際のメモリ制限を設定する。
  • sample
    (0, 1e-5)の範囲で、頻度語がランダムに削除される閾値を設定する。高速化と精度向上を狙っており、自然言語処理においても高頻度語はストップワードとして除去するなどの対応が取られている。
  • workers
    モデルを訓練するために多くのワーカースレッドを利用するかどうか設定する。(並列化関連)
  • hs
    {1,0}の整数で、1であれば階層的ソフトマックスがモデルの訓練で用いられ、0であり引数negativeがnon-zeroであればネガティヴサンプリングが設定できる。全部計算することが大変なので、階層的なグループに分けて各グループごとに学習するというのがモチベーション。
  • negative
    0よりも大きければネガティブサンプリングが用いられる。5〜20などを選び、どれだけノイズワードが描かれているかを識別する。0であればネガティブサンプリングが適用されない。ネガティブサンプリングは計算高速化を目的に出力層で正解ニューロン以外のニューロンを更新しないように学習する手法。
  • cbow_mean
    {1,0}の整数で、0であれば単語ベクトルの合計を用い、1であればCBOWが用いられた際の平均が用いられる。
  • hashfxn
    訓練の再現性のためにランダムに初期値のウエイト付けできる。
  • iter
    コーパスにおける繰り返し回数(エポック数)を設定できる。
  • trim_rule
    ある単語を語彙に含めるべきかどうかを識別する、語彙のトリミングルールを設定する。
  • sorted_vocab
    {1,0}の整数で、1であれば頻度の降順で語彙を並べ替える。
  • batch_words
    ワーカースレッドにわたすバッチの大きさを指定する。(並列化関連)
  • compute_loss
    Trueであれば損失関数の計算と蓄積を行う。
  • callbacks
    訓練時の特定の段階で実行する際に必要なコールバックのリストを指定できる。

word2vecによる文書分類の適用

口コミの点数が4点以上であれば1、そうでなければ0を取る変数を作成し、それをラベルとして文書分類を行います。
以前、紹介したブログ同様に、scikit-learnのExtraTreesClassifierを用いてCountVectorizerとTfidfVectorizerを特徴量としたものをベースラインとして、同様の手法に対してword2vecで作成した分散表現を特徴量として用いたものとを比較します。評価指標はクロスバリデーションスコア(5-folds)とします。

分類の前に、せっかくword2vecを使ったので、任意の単語に類似した単語を見てみます。

まずは初心者向けの味噌ラーメン

続いて、中級者向けの蒙古タンメン

そして、上級者向けの北極ラーメン

最後に、誰もが経験する翌日という単語。

どれも関連性の高いと思われる単語が抽出できているように思われます。

それでは分類モデルの学習を以下のコードで行います。
scikit-learnを使えば、データさえあれば非常に短いコードで書けてしまいます。

一応、ベースラインよりもword2vecを特徴量としたものの方がスコアが高いのですが、わずかです。TF-IDFベースで特徴量を作成したモデルは十分に性能が出ているようです。
word2vecを用いることによる旨味はそれほどなさそうですが、パラメータを試行錯誤していけばよくなるかもしれません。

終わりに

蒙古タンメン中本のテキストをWebスクレイピングし、その口コミ情報をコーパスとして口コミ評価の二値分類に挑戦しましたが、TF-IDFよりもわずかに優秀な特徴量になりうるという結果になりました。もっと劇的な向上を夢見ていたのですが、パラメータの試行錯誤を今後の宿題としようと思います。

参考情報

Chainer v2による実践深層学習
word2vecによる自然言語処理
models.word2vec – Deep learning with word2vec
Python で「老人と海」を word2vec する
Python3 – MeCabで日本語文字列の名詞出現数の出し方について
Transform a Counter object into a Pandas DataFrame

LIMEで赤ワインのデータをいじってみる with Python

はじめに

2018年1月のTokyoR( TokyoR67に行ってきました )で機械学習結果の解釈可能性について多く語られていたので、Hello World的な試行を赤ワインのデータで行ってみたいと思います。コードは論文を書いた人のGitHubのものを拝借しました。

営業やマーケティングのメンバーに機械学習手法を提案する際に、ひとつひとつの予測結果において、なんでその予測結果になったのか理由が知りたいという要望を受けることが多いです。
ある講演で、実装用のモデルにランダムフォレストやSVMを使い、マネジャーに説明する用に決定木の結果を見せたとかいう話もありました。わざわざモデルを二つ作って説明のための工数を取らなくてよくなると思うと非常にありがたい技術です。事業側の解釈可能性を重視するあまり、シンプルな手法を取らざるを得ない現場には朗報ですね。

目次
・LIMEとは
・データ
・コード
・結果の解釈
・参考情報

LIMEとは

Local Interpretable Model-agnostic Explanationsの頭文字をとったもので、機械学習によって構築したモデルに関して、その予測結果を人間が解釈しやすくする技術です。
流れとしては、

  • まずランダムフォレストなりXGBoostなりで分類器を作る。
  • 任意のデータxを取り出し、解釈可能バージョンのx’(x’∈{0,1}で、xの非ゼロ要素を1としている。)を用意する。
  • x’の周辺のデータをサンプリングする。
  • サンプリングしたデータを使って、元のモデルを近似するために、モデルの距離を目的関数とした最適化問題を解く。
     (K-LASSOという線形モデルの手法を使うことで、最終的に近似するモデルの変数の数を決めている。)
  • 学習したモデルの偏回帰係数を確認して、予測結果への影響度を見る。

という流れのようです。間違っているかもなので、参考情報をご覧になってください。
紹介動画も作られているようです。そういえば、Stanも紹介動画ありましたね。

データ

ワインデータから赤ワインのデータのみを利用します。データの詳細はこちらにあります。
http://archive.ics.uci.edu/ml/machine-learning-databases/wine-quality/winequality.names

このようなデータセットでデータサイズは1599です。

ワインの質に関するヒストグラムはこんな感じです。

今回の分析の目的

赤ワインの評価値が7以上であれば良いワイン(Y=1)、そうでなければ悪いワイン(Y=0)として、評価値が7を超えるような赤ワインの分類器を学習させ、任意のテストデータを取り出し、そのテストデータが良いワインである要因を探るものとします。

進め方

・LIMEのインストール(pip install lime で一発)
・scikit-learnによる機械学習(ランダムフォレスト)
・LIMEを用いた予測結果の解釈の提示

コード

今回のコードはこちらにもあります。
kamonohashiperry.com/lime_study/Lime_With_Wine Data.ipynb

結果を解釈する以前に、二値分類モデルとして精度が低かったら元も子もないので、精度やAUCを確認してみます。

scikit-learnの引数でclass_weight=”balanced”にしているので、少しは不均衡データに対応できているようです。AUCは8割を超えたかったですが、いったんこれで進めます。

結果の解釈

こちらのコードで、ランダムにインスタンスを選んで、その予測結果とその予測結果に影響を与えている変数を見てみます。

どうやら、このインスタンスを良いワインと予測しており、sulphates(硫酸)が0.74を超えていた、volatile acidity(酢酸とその派生物質)が0.39よりも小さいというのが理由のようです。画像では結果が消えていますが、exp.as_list()で結果を抽出できます。

著者のコードには続きがあって、このインスタンスに対して、値を足したりすることで分類確率がどのように変わるのかが記されていました。今回はアルコールを3%ポイント増やして、総亜硫酸濃度を30増やしてみるものとします。

これを見る限り、アルコールを3%ポイント増やすと、悪いワインの確率が6.2%ポイントあがり、総亜硫酸濃度を30増やすと、悪いワインの確率が49.8%ポイントあがることが示されています。
ワインあまり飲まないので結果の解釈以前に変数の解釈ができていないのは今回のオチになるんでしょうか。このコードをもとに、仕事現場で使ってみようと思います。きっと解釈できるはず。

参考情報

“Why Should I Trust You?” Explaining the Predictions of Any Classifier
lime/doc/notebooks/Tutorial – continuous and categorical features.ipynb
3.2.4.3.1. sklearn.ensemble.RandomForestClassifier
機械学習と解釈可能性 by Sinhrks
機械学習モデルの予測結果を説明するための力が欲しいか…?
LIMEで機械学習の予測結果を解釈してみる
ワインの味(美味しさのグレード)は予測できるか?(1)

RのFactoRizationMachinesパッケージを用いたFMのページビューデータへの適用

Googleタグマネージャーで集めたアクセスログデータを用いて、前回と同様に記事のレコメンドにチャレンジしてみようと思います。FactoRizationMachinesパッケージという便利そうなパッケージの存在も知れたことから、今回は以前から気になっていたFactorization Machineを扱います。

【目次】
・Factorization Machine(FM)の概要
・パッケージ紹介とインストール
・サンプルデータの構造把握と前処理
・FMの実行
・結果
・参考文献

Factorization Machine(FM)の概要

  • 組み合わせ特徴量を扱う教師あり学習モデル。行列分解とSVMを合体させた手法。
  • スパースになりやすいデータの予測問題で扱う。
  • 1ユーザーのある商品に対しての評価を、1評価1行として表して、ユーザーとアイテムの交互作用の特徴ベクトルを扱う。
  • 相互作用項に関して、時間や文脈などを自由に入れられる。
  • 相互作用項を次元圧縮する際の要素数を事前に決める必要がある。
  • Matrix Factorizationよりも精度が良いとされている。特徴量エンジニアリングなどで使われているようです。(Click-Through Rate Prediction

パッケージ紹介とインストール

FactoRizationMachinesパッケージは線形SVMと2次のFMと高次のFMを実行することができ、引数で正則化項も加えることができます。現段階においては回帰のみで分類問題への適用は今後の開発となるようです。CRANから普通に
install.packages(‘FactoRizationMachines’)
でインストールします。libFMexeパッケージの場合は、libFMをインストールしてパスを指定しておく必要がありますが、このパッケージに関しては不要となります。

サンプルデータの構造把握と前処理

FactoRizationMachinesパッケージのサンプルコードにおいては、MovieLensのデータがサンプルデータとして載せられていました。ユーザーのID(整数)、映画のID(整数)、評価(整数、5段階)、日時(整数)からなるデータに対して、sparseMatrixに変換していました。

今回は、前回の投稿非負値行列因子分解(NMF)でブログ記事のレコメンドをしてみると同じデータを使って、アクセスログデータに適用しようと思います。FactoRizationMachinesの形式に合わせるために、このブログのアクセスログも、クッキーのIDを整数に、記事のIDを整数に、閲覧回数を5段階(5以上を5に変換)に、日時を整数に変更しています。

FMの実行

デフォルトの設定c(1, 10)では線形のウェイトが有効で、2次の項の要素数が10で正則化項なしのFMを実行することになります。引数に関する詳しい情報はPackage ‘FactoRizationMachines’に書かれています。今回はサンプルを参考に正則化項ありでモデルを実行します。まず、アクセスログデータに対して、ユーザーのIDからなる整数ベクトル、記事のIDからなる整数ベクトル、セッションのあった日時のデータからなる整数ベクトルを作成し、sparseMatrix関数を用いて元データを変形し、80%のデータをトレーニングに、20%のデータをテストに割り当てます。さらに、テストデータに関して、予測値との平均二乗誤差を計算します。

結果

各モデルについての平均二乗誤差を計算しています。
線形モデルや高次元モデルよりも、2次の項を持つFMが精度が高いようです。

こちらは、この中で性能の良かった2次の項を持つFMの予測結果とテストデータの結果をプロットしたものです。4点を超える値をあまり予測できていないようです。今回はサンプルを回しただけなので、本来であれば次元の数kや正則化のセッティングをいろいろいじったり、相互作用項を新しく追加するなどして精度を高めることが必要です。

結果の比較だけでは仕事で使えないので、実際に予測した結果を取り出したいと思います。
実際に運用するとなると、ページIDを所与として、ページビュー数を0とおいて(型をそろえるため。NULLだとエラーになった)、任意のタイミング(date)を想定して、モデルにデータを適用し、評価の高いものをサジェストするスタイルになるのではないでしょうか。

この結果だと、ユーザー98に記事1を見せることに対して4.02点が与えられています。

参考文献

Factorization Machinesを今更読みました
Factorization Machines
High-order factorization machines with R #tokyor 61
Factorization Machinesのおはなし。
libFMexeを動かすまで (R Wrapper for the libFM Executable参照記事)
一歩Matrix Factorization、二歩Factorization Machines、三歩Field-aware Factorization Machines…『分解、三段突き!!』
[論文] Factorization Machines (ICDM 2010) 読んだ 22:41
Factorization machines with r
Factorization Machinesについて調べてみた

References   [ + ]

1, 2, 3, 4, 5. predict(model,data.test)-target.test)^2

人工知能学会全国大会2017のWebマーケティングで参考になりそうな研究9選

はじめに

今更ではありますが、2017年5月に開かれた人工知能学会全国大会2017の公開資料の中から、私の本業であるWebマーケティングで役に立ちそうな研究を独断と偏見で9本ほど集めてみました。思っていたよりもWebマーケティングぽい領域が多かったので、社内での分析業務におけるアイデアに直結しそうな気がしています。

ちなみに、全ての資料はこちらにあります。

基本的に各研究ごとに
・目的と結果
・対象となるデータ
・手法の概要
・PDFのリンク
について記していきます。

紹介する研究

今回は以下の研究を紹介したいと思います。
「オンライン広告におけるスパース性と遅れコンバージョンを考慮した予測モデル」
「テキストマイニングを用いた転職サイトの会員離脱予測」
「インターネット広告におけるスパースなユーザー行動ベクトルからのユーザー特徴抽出モデル」
「ユーザーのページビュー系列からのコンバージョン予測」
「SNSにおけるユーザの行動のモチベーション要因の分析」
「状況に応じた楽曲推薦に向けたソーシャルデータ分析」
「テキストマイニングを用いた口コミ分析による点数評価の信頼性確認手法」
「不動産仲介マーケティングのためのユーザ行動予測」
「SUUMOでの不動産データ活用の取り組みと未来」

オンライン広告におけるスパース性と遅れコンバージョンを考慮した予測モデル

目的と結果

オンライン広告のCVR予測の精度向上を目的としている。
これまでの課題としては、
「質的変数による特徴量のスパース性」
「広告クリックからのCVまでの期間の長さ(期間が空いてからCVしたりするケースがあるので正例だったはずが負例と扱われる可能性がある)」
などがあった。提案手法により従来手法に比べ高い精度でCVR予測が可能であることが示された。

対象となるデータ

過去3週間分の広告配信データでテスト期間は7日間

手法の概要

  • 次元圧縮
    • Factorization Machine(FM)を用いて、従来のロジスティック回帰では考慮できていなかった交互作用をモデリングし、低次元のベクトル内積に分解して表現している。
  • 遅れCV問題の対応
    • 遅れてCVが発生する事象に関しては、指数分布を用いて遅れてCVする事象をモデリングするDelayed Feedback Modelを構築することで、本当は事後的にCVしそうなユーザーの推定を行っている。
  • 予測
    • これらの手法を合わせた、Delayed Feedback Factorization Machineを構築し、SGD(確率的勾配降下法)やAdaGradを用いてパラメータを推定している。

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/110.pdf

テキストマイニングを用いた転職サイトの会員離脱予測

目的と結果

登録情報や履歴書のテキスト情報を用いて特徴量とし、転職サイトの登録会員の離脱予測を行っている。ブラックボックスでは無い形での結果の解釈ができ、予測精度も高いことが示された。

対象となるデータ

  • 2009年10月1日〜2016年9月28日までの履歴書、職務経歴書、自己PR書、希望条件
  • 離脱会員の定義は「登録して1ヶ月以内に一度も応募しない会員」としている。

手法の概要

  • STEP1:Pythonのmojimojiというライブラリを利用してカナを全角に、数字とアルファベットは半角に変換。
  • STEP2:MeCabを用いて名詞のみ抽出
  • STEP3:「職務」「経歴」「業務」「内容」などを不用語(stop word)とした。
  • STEP4:Grid Searchでパラメータチューニングしたランダムフォレストを用いて変数重要度(Feature Importance)を出し、重要度の上位90%を占める単語以外を削除
  • STEP5:登録情報のデータ(年齢、転職回数、住所)を数値データに変換
  • STEP6:選定した特徴量を用いて決定木アルゴリズムを適用

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/949.pdf

インターネット広告におけるスパースなユーザー行動ベクトルからのユーザー特徴抽出モデル

目的と結果

広告のCTR予測を行う際の特徴量が非常にスパースであることから、ユーザーをクラスタリングして広告配信に効果的なユーザーを抽出することを目的としている。研究ではCVRの高いユーザー群の抽出を可能にしている。

対象となるデータ

  • 2016年6月1日〜2016年6月21日の間のクリックやコンバージョンのデータ(株式会社アイモバイルが提供)
  • クリック実績のある広告数、コンバージョン実績のある広告数、クリックされた広告番号、コンバージョンが発生した広告番号、ユーザー番号など

手法の概要

  • 高次元スパースデータを低次元に落とし込むために、オートエンコーダを用いている。
  • オートエンコーダにより得られた特徴量をもとにユーザーのクラスタリングを行っている。(オートエンコーダは入力された情報をなるべく欠損しないように、効率的に圧縮する構造を持たせたニューラルネットワークのこと。)
  • データにおけるゼロの成分を確率的に欠損とみなして計算処理を早めている。
  • 学習モデルはAdaGrad(学習率を学習に合わせて最適化する手法)
  • 訓練データ(特徴量の数がクリックで23339個、コンバージョンで5619個)にスパースデータ許容型オートエンコーダで500次元まで圧縮し、さらに通常のオートエンコーダで146次元まで圧縮している。
  • 次元圧縮して獲得したデータに対してk-means法でクラスタリングを行い、CVRなどを比較している。

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/12.pdf

ユーザーのページビュー系列からのコンバージョン予測

目的と結果

Web広告において、ユーザーの閲覧履歴からコンバージョンを予測することを目的に、Recurrent Neural Network(RNN)を用いた結果、非時系列のSVMよりもわずかばかりかの精度向上が観察された。データ数が少ない場合はSVMに軍配があがる結果となっている。

対象となるデータ

2016年7月1日〜2016年10月31日の広告の接触履歴データなど(広告の業種別データやユーザーのページビュー数)を特徴量に用いて、2016年11月1日〜11月30日までの期間を予測対象とした。データは株式会社マイクロアドが提供している模様。

手法の概要

  • Long Short-Term Memory RNN(LSTM)
    • ソフトアテンションモデル
      • 可変長の系列に対して内積で重みを算出し、足し合わせることで一部から情報を取り出すモデル。途中の層まで複数業種のデータを用いることで、複数の業種などの情報を共有することができる。(最後の隠れ層には業種別の特徴量を用いている。)
      • 勾配の計算に関してはAdamを用いて、実装はKerasを用いている。活性化関数はTanh、ドロップアウトはGaussianDropout
        としている。
    • RNNで用いる特徴量としては、特定のWebページを640種類に分類して、1日のうちに各トピックにページビューがあったかなかったかを1-0の変数にするなどの前処理を行っている。

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/765.pdf

SNSにおけるユーザの行動のモチベーション要因の分析

目的と結果

SNSユーザーのモチベーションの要因(一ヶ月先に投稿するかどうか)をユーザー同士の関係性(staticな関係)と、そのユーザーの周りのインタラクション(dynamicな関係)という観点から分析し、ユーザー同士の関係性とユーザー周りのインタラクションを同時に用いたモデルにおいて、それらがモチベーションの要因につながりうる傾向が観察された。

対象となるデータ

  • RoomClipという部屋の家具やインテリアの様子の写真を投稿するSNSのデータ
    • 気に入った写真に「いいね」を付けたり、コメントを送れる。
  • 2015年3月の一ヶ月間を学習期間とし、2015年4月の投稿の有無を予測対象とする。

手法の概要

  • ネットワーク特徴量
    • 各ユーザーに対して、
      • 中心性(次数中心性、媒介中心性、近接中心性)
      • クラスタ係数、PageRank、フォロー数とフォロワー数の比率、フォローしているユーザのアクティブ度
  • フィードバック特徴量
    • 特定期間中にユーザが周りのユーザから自身の投稿に対してもらった「いいね」「コメント」に対して
      • 反応の数
      • 反応を行ったユーザの数
      • 反応を行ったユーザのうち、相互フォロー関係にあるユーザからのものの割合
  • 予測器としてSVMを利用

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/534.pdf

状況に応じた楽曲推薦に向けたソーシャルデータ分析

目的と結果

ユーザへの楽曲推薦システムの構築を目的に、楽曲とその再生時の状況の関係を収集したソーシャルデータより分析している。取得したデータのうちの7%ほどではあるが、ツィート情報から楽曲と再生時の状況との関係を抽出可能であるということが示された。

対象となるデータ

2016年8月10日〜2016年9月3日の間に投稿されたツィート(66879件)

手法の概要

  • ハッシュタグ#nowplaying付きのツィートを収集して、アーティスト名や楽曲名や楽曲再生時の状況(同一ユーザの5分前後の投稿内容)を収集
  • 取得したツィートからアーティスト名、楽曲名を除去して再生時の状況を取得
  • 取得したデータからデータベースを作成

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/102.pdf

テキストマイニングを用いた口コミ分析による点数評価の信頼性確認手法

目的と結果

製品などの口コミの評価レビューに関する信頼性を確かめることを目的としている。レビューデータに対して感性評価を行い、さらにその結果に対して総合評価点数別に感性表現(Goodなど)の伴った表現の頻出ランキングを作成することで、点数が高い理由を把握しやすくなった。

対象となるデータ

ソニーの製品サイトにおける、ユーザの製品に対する評価とコメントのデータ(1406件)

手法の概要

  • テキストマイニングスタジオによる感性評価(ポジティブ、中立、ネガティブ)
  • 総合評価点数別(5段階)の「ポジティブ、中立、ネガティブ」の割合の調査
  • 総合評価4の口コミかつ中立な表現にフィルターをかけて、感性情報を有する単語と係り受け関係となった単語の頻度ランキングのTOP10を抽出

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/1115.pdf

不動産仲介マーケティングのためのユーザ行動予測 Prediction of user behaviors for real estate brokerage marketing

目的と結果

不動産紹介業において、顧客の属性情報と来店初期の行動から、来店者が最終的に商品を購買するかどうかの予測モデル(不均衡データにおける予測タスク)を構築することでマーケティングの広告効果測定に適用することを目的としている。結果として、顧客の来店後30分間という短い時間における行動だけでも識別力のある予測が可能であることが示されている。

対象となるデータ

  • オンライン不動産賃貸仲介店舗iettyの顧客データベース
    • 希望物件の情報
      • 引っ越し希望日
      • 住みたいエリアの駅
      • 間取り
      • 広さ
      • 家賃
    • 顧客属性
      • 在住の地域
      • 性別
      • 年齢
    • 行動データ
      • 登録時
        • フォームの記入にかかった時間
        • フリーコメントの長さ
        • 利用デバイス
      • 登録後
        • 初回チャット発言までの経過時間
        • 初回物件評価までの経過時間

手法の概要

  • STEP1:顧客の属性および登録初期(30分以内)の行動から特徴量を作成し、2ヶ月以内に契約すれば正例、それ以外を負例とする。(正例は619件、負例は33212件)
  • STEP2:検証用データを無作為に20%取り置く
  • STEP3:残り80%のデータに対して負例に対する、ランダムアンダーサンプリングと、正例に対するSMOTE(Synthetic Minority Over-sampling Technique)を用いたオーバーサンプリングによりサンプル数を調整する。
  • STEP4:ランダムフォレストを用いて、無効な特徴量の取捨選択や離散化のレンジ調整する。
  • STEP5:全特徴量(83次元)を二値化して、RBFカーネル(Gaussian カーネル)のSVMを適用し、様々なCやγの組み合わせを試行して、二値分類を行う。
  • STEP6:評価を予測確率の平均とAUCの2種類で行う。

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/466.pdf

SUUMOでの不動産データ活用の取り組みと未来

目的と結果

物件検索ユーザーが比較検討を行いやすくすることを目的に様々な取り組みをしている。

対象となるデータ

  • 不動産ポータルサイトSUUMOのデータ
    • 行動履歴(Webサイト、アプリ)
    • 物件情報(不動産情報)
    • 街情報(独自で収集)
    • アンケート

手法の概要

  • 実活用
    • 相場推定
    • 単純な加算平均ではなく、外れ値や時系列変動、データ量などを考慮して推定している。
    • リアルタイム物件レコメンド
    • ランキング学習により推定したモデルを利用し、リアルタイムに計算を行っている。個人ごとにパーソナライズしたランキングも用いている。
    • バンディットアルゴリズムによる配信施策の最適化
    • メールやプッシュ通知などで件名やデザイン、配信時間など様々な選択肢があり、その最適なパターンを見つけるために、バンディットアルゴリズムを適用している。
  • 実験段階
    • 間取り画像の分析
    • ユーザーの求めている間取りが何なのかを画像から抽出しようとしている。
    • ユーザーの検索行動、嗜好の推定
    • ユーザーの検索行動から、嗜好性を掴み取り、レコメンドする際の理由付けができるようにモデルを作ろうとしている。

PDFのリンク

https://kaigi.org/jsai/webprogram/2017/pdf/743.pdf

感想

  • 特徴量の削減のためにランダムフォレストを適用する流れ
  • 高次元スパースデータに対するニューラルネットワークの適用
  • CVの時系列予測のためにRNNの適用
  • SNS分析におけるネットワーク特徴量とフィードバック特徴量という概念
  • 口コミデータ分析の作法(点数別に感性表現の係り受けを見る)
    など勉強になりました。Kaggleと違って日本語なのが読みやすかったですね。

参考文献

初めてのディープラーニング –オープンソース”Caffe”による演習付き
SMOTE で不均衡データの分類

Kaggleで使われた特徴量エンジニアリングとアルゴリズムまとめ

Kaggleにおいて、人によってはソリューションを書いてくれているものがあります。特徴量エンジニアリングやアルゴリズムなど業務での参考になるだろうと思われるので、仕事で関わりそうなデータという観点から4つほどですが事例を集めてみました。このような事例のまとまった本とかあったらいいのですが。

基本的に各事例ごとに
・目的
・どんなデータセット
・どんな特徴量エンジニアリング
・どんなアルゴリズム
・リンク
を記していきます。

Walmart Recruiting – Store Sales Forecasting

  • 目的
    • ウォルマートの部門ごとの売上予測
  • どんなデータセット
    • ウォルマートの売上データ
      ・店舗番号
      ・部門番号
      ・週
      ・週次の売上
      ・祝日の有無

      外部のデータ
      ・気温
      ・物価指数
      ・スーパーボウルの時期
      など

  • どんな特徴量エンジニアリング
    • 予測する売上の過去データを用いたので、特徴量は用いていません。

        ・年間における週の番号
        ・高い成長率の店舗や昨年から大きく成長している店舗に関して祝日効果の重み付け 

      を行った程度のようです。

    • どんなアルゴリズム
      • 統計学と機械学習のハイブリッドな手法のようです。SASとRを使用しているとのことです。

          統計学の手法
          1. Auto-regressive Integrated Moving Average (ARIMA)
          2. Unobserved Components Model (UCM)

          機械学習の手法
          3. Random Forest
          4. Linear Regression
          5. K nearest regression
          6. Principle Component Regression

        以上の6つのモデルから平均値をとって予測し、部門ごとにモデルを作ったようです。

    • リンク
    • Algorithmic Trading Challenge

    • 目的
      • 大規模なトレーディングにおけるマーケットの反応を予測
    • どんなデータセット
        • 株式市場の出来高に関するデータ
           ・ask(買い)の価格データ
           ・bid(売り)の価格データ
           ・建値かどうか
           ・買い手か売り手のどちらが主導したか
           ・取引高
           ・時刻
          など
    • どんな特徴量エンジニアリング
      • ・価格
         ・トレンドを除外した価格の振幅
         ・流動性ショック発生前の最後のn回の価格指数の移動平均
         ・流動性ショック発生前の最後のn回の間の価格増加
        ・流動性
        ・スプレッド
         ・bidとaskの広がり
        ・レート
         ・最後のn回のイベントにしめる注文などの数
    • どんなアルゴリズム
      • ・ランダムフォレストを用いた変数選択
         【工程1】
         ・全ての特徴量を利用して訓練する
         ・テスト集合に対するモデルのパフォーマンスを計算する
         ・特徴量の重要度をランク付けする
         ・複数のサブセットから最も変数重要度の高い特徴量セットを作る
         ・最も平均二乗誤差(RMSE)が低いサブセットに決める
         【工程2】
         ・工程1で決めた特徴量から意味的に似ている特徴量を選ぶ
         ・工程1で選ばれていない特徴量を選択する
         ・RMSEが低くなるなら、意味的に似ている特徴量を除外する
         ・改善しなくなるまで続ける
         【工程3】 
         ・工程1〜2で選ばれて意味的に直交(独立)しているかどうか考慮して、工程1で除外されたものの中から特徴量を選ぶ
         ・RMSEが低くなるなら、工程1の特徴量にその変数を加える
    • リンク
    • Predict Closed Questions on Stack Overflow

    • 目的
      • 質問が閉じられるかどうかを予測
    • どんなデータセット
      • ・質問者の質問のその当時の回答数
        ・タイトル
        ・bodyテキスト
        ・タグ
        ・閉じられたかどうか
    • どんな特徴量エンジニアリング
      • ・タイトル、bodyテキスト、タグをVowpal Wabbit formatに変換
        ・ユーザーの評価や投稿数なども利用
    • どんなアルゴリズム
      • Vowpal WabbitというMicrosoftやYahoo!が出資している機械学習ツールを使い、多クラス分類を行ったようです。カテゴリカルな変数をone-hotに変換する必要がなく、楽に分析できるようです。
    • リンク
    • Outbrain Click Prediction

    • 目的
      • ユーザーにレコメンドするコンテンツのクリック予測
    • どんなデータセット
      • ・ユニークユーザーID
        ・ドキュメントID
        ・デバイス
        ・流入経路
        ・クリック
        ・プロモーションしたコンテンツID
        ・ドキュメントの詳細情報
        ・ドキュメントのトピック情報
    • どんな特徴量エンジニアリング
      • 重要な特徴量
        ・表示されてからの1時間後、1日後、1日以降のコンテンツのページビュー
        ・FFM(Field-aware Factorization Machines)を用いて、おのおの競合している広告のデータを作成
        ・ユーザーごとのクリックした際の流入経路やドキュメントの組み合わせ
         80回よりも少ないイベントのデータは切り捨てている
        ・ユーザーごとのページビューしたドキュメント
        ・広告クリックの1時間以内にクリックしたドキュメント
        ・広告のカテゴリーとドキュメントのカテゴリーの相互作用項
        ・現在時刻とドキュメントが表示された時刻との差分の対数
        ・ユーザーが同じカテゴリーや同じトピックの広告ドキュメントを見たかどうか
        ・過去にその広告を見たかどうか、それをクリックしたかどうか(広告主、流入経路、カテゴリー、トピックも同様に)
        ・将来的にその広告や広告ドキュメントを見たかどうか、将来的に見てなくても同じキャンペーンの広告を見ているかどうか
    • どんなアルゴリズム
      • 用いたモデル
        ・LibFFM
        ・Vowpal Wabbit FTRL(ロジスティック回帰でのL1・L2正則化)
        ・Liblinear
        ・XGBoost
        ・Keras
        ・Logistic regression
        ・SVC
    • リンク
    • 感想

      調べてみて、複数の時系列モデルの予測結果の平均値で予測する手法、特徴量の選択をstepAICのようにランダムフォレストで行う手法、Vowpal Wabbit(今回の2つのソリューションで扱われていた)などを新たに知れました。Kaggleには他にもKernelという手法をシェアする場があるので、その情報も今後キャッチアップしていきたいと思います。

      参考情報

      機械学習コンペティションの進展と今後の展開

    SlideShareの機械学習に関するスライドを大量に集めてみた

    SlideShareの検索機能に満足できなかったので、Googleのsiteコマンド検索( 「機械学習 site:slideshare.net 」)で集めてき
    た、機械学習に関するスライド520件のURLに対して、タイトル・ビュー数・公開日をWebスクレイピングにより取得してみました。

    以下の表はビュー数の順番で並んでいます。WordPressのTablepressというプラグインを使っているので、簡単に検索ないし100件表示なども行えます。数の多いものから見ていこうと思います。

    (取得用の稚拙なPythonコードは最下部に載っています。)
    (URLがリンクになるように改良しました。)

    urlTitleViewsTime
    https://www.slideshare.net/unnonouno/jubatus-casual-talks機械学習チュートリアル@JubatusCasualTalks334921Jun 1 2013
    https://www.slideshare.net/kazoo04/deep-learning-15097274Deeplearning289024Nov 9 2012
    https://www.slideshare.net/pfi/deep-learning-22350063一般向けのDeepLearning274821Jun 2 2013
    https://www.slideshare.net/mrtc0/machine-learning-41005650機械学習入門以前196975Nov 1 2014
    https://www.slideshare.net/nlab_utokyo/deep-learning-40959442DeepLearningと画像認識   ~歴史・理論・実践~188530Oct 31 2014
    https://www.slideshare.net/mosa_siru/ss-40136577捗るリコメンドシステムの裏事情(ハッカドール)179295Oct 11 2014
    https://www.slideshare.net/canard0328/ss-44288984機械学習によるデータ分析まわりのお話176218Feb 4 2015
    https://www.slideshare.net/mmktakahashi/ss-13694313パターン認識と機械学習入門159331Jul 19 2012
    https://www.slideshare.net/hamadakoichi/randomforest-web「はじめてでもわかるRandomForest入門-集団学習による分類・予測-」-第7回データマイニング+WEB勉強会@東京145630Sep 25 2010
    https://www.slideshare.net/ToruUenoyama/tensorflow-gdgTensorFlowを使った 機械学習ことはじめ(GDG京都機械学習勉強会)145276Feb 27 2016
    https://www.slideshare.net/beam2d/deep-learning20140130DeepLearning技術の今124574Jan 30 2014
    https://www.slideshare.net/unnonouno/ss-43844132深層学習時代の自然言語処理122124Jan 23 2015
    https://www.slideshare.net/pfi/sacsis2013mlokanohara機械学習の理論と実践120039May 22 2013
    https://www.slideshare.net/mokemokechicken/pythondeep-learningPythonとdeeplearningで手書き文字認識114692Dec 19 2012
    https://www.slideshare.net/AtsushiKanaya/scikitlearnscikit-learnを用いた機械学習チュートリアル111808Mar 13 2014
    https://www.slideshare.net/TakeshiHasegawa1/20151016ssmjpikalog「スプラトゥーン」リアルタイム画像解析ツール「IkaLog」の裏側109745Oct 16 2015
    https://www.slideshare.net/yoshihisamaruya/dnn-deep-learningv10Deeplearningの軽い紹介105442Sep 19 2013
    https://www.slideshare.net/beam2d/deep-learningimplementationDeeplearning実装の基礎と実践85921Aug 26 2014
    https://www.slideshare.net/tkm2261/ss-42149384最適化超入門84516Nov 28 2014
    https://www.slideshare.net/tojimat/tokyor-41Tokyo.R41サポートベクターマシンで眼鏡っ娘分類システム構築78003Jul 12 2014
    https://www.slideshare.net/enakai/ss-46880120機械学習概論 講義テキスト76509Apr 11 2015
    https://www.slideshare.net/ShinyaShimizu/ss-11623505今さら聞けないカーネル法とサポートベクターマシン75008Feb 16 2012
    https://www.slideshare.net/tak9029/tensorflowaiTensorFlowで会話AIを作ってみた。73077Feb 15 2016
    https://www.slideshare.net/tsubosaka/tokyotextminingLDA入門67385Sep 25 2010
    https://www.slideshare.net/tkm2261/scikit-learnScikitlearnで学ぶ機械学習入門60375Dec 1 2014
    https://www.slideshare.net/enakai/it-numpy-pandasPython機械学習プログラミングデータ分析ライブラリー解説編59607Oct 25 2015
    https://www.slideshare.net/pfi/ss-57087522ディープラーニングの最新動向56849Jan 15 2016
    https://www.slideshare.net/pfi/interop2015okanoharaディープラーニングが活かすIoT54496Jun 12 2015
    http://www.slideshare.net/minoruchikamune/by-20150911172207「機械学習Byスタンフォード大学」勉強会2015.09.1151334Sep 15 2015
    https://www.slideshare.net/Kawamoto_Kazuhiko/ss-35483453グラフィカルモデル入門50993Jun 4 2014
    https://www.slideshare.net/teppeibaba5/ss-37143977機会学習ハッカソン:ランダムフォレスト49108Jul 18 2014
    https://www.slideshare.net/hamukazu/python-57875594Pythonによる機械学習の最前線47954Feb 4 2016
    https://www.slideshare.net/yasutomo57jp/python-deep-learningPythonによる機械学習入門~DeepLearningに挑戦~45699Jul 22 2016
    https://www.slideshare.net/yokkuns/ss-8425312時系列分析による異常検知入門45508Jun 25 2011
    https://www.slideshare.net/nishio/ss-53221829ルールベースから機械学習への道公開用43345Sep 26 2015
    https://www.slideshare.net/unnonouno/chainer-59664785深層学習フレームワークChainerの特徴42270Mar 17 2016
    https://www.slideshare.net/kouheinakaji/webmining-27353727SmartNewsを支える機械学習42215Oct 19 2013
    https://www.slideshare.net/chezou/2015-52286722クックパッドサマーインターン2015機械学習・自然言語処理実習課題40996Sep 1 2015
    https://www.slideshare.net/katsuhiromorishita/pythonrPythonとRによるデータ分析環境の構築と機械学習によるデータ認識40814Aug 31 2014
    https://www.slideshare.net/shoheihido/5-38372284あなたの業務に機械学習を活用する5つのポイント40791Aug 26 2014
    https://www.slideshare.net/send_/namebased-aggregationみんなビックデータビックデータって言ってるけど名寄せとかどうしてんの?40656Oct 5 2013
    https://www.slideshare.net/beam2d/deep-learning-22544096DeepLearningの技術と未来39836Jun 6 2013
    https://www.slideshare.net/shoheihido/ss-25510340さらば!データサイエンティスト38749Aug 23 2013
    https://www.slideshare.net/hamadakoichi/dena-46573694DeNAの大規模データマイニング活用したサービス開発38272Apr 2 2015
    https://www.slideshare.net/bollegala/ss-39065162深層学習入門37598Sep 14 2014
    https://www.slideshare.net/pfi/mapreduce-7022974MapReduceによる大規模データを利用した機械学習37136Feb 22 2011
    https://www.slideshare.net/mitsuoshimohata/ss-35949886決定木学習35383Jun 16 2014
    https://www.slideshare.net/takahirokubo7792/ss-46471269実戦投入する機械学習35250Mar 30 2015
    https://www.slideshare.net/issei_sato/deep-learning-41310617深層学習(DeepLearning)とベイズ的最適化(BayesianOptimization)による医用画像読影支援の試み34909Nov 9 2014
    https://www.slideshare.net/RyoNakamura3/ss-61945131機械学習と深層学習の数理34488May 12 2016
    https://www.slideshare.net/matsukenbook/ss-50545587「深層学習」第6章畳込みニューラルネット33618Jul 15 2015
    https://www.slideshare.net/pfi/bigdata2012ml-okanoharabigdata2012mlokanohara31396Dec 24 2012
    https://www.slideshare.net/holidayworking/ss-11948523アンサンブル学習31119Mar 10 2012
    https://www.slideshare.net/moa108/5-kknnはじめてのパターン認識第5章k最近傍法(k_nn法)30391Sep 13 2013
    https://www.slideshare.net/takumayagi/rbm-andlearningRBM、DeepLearningと学習(全脳アーキテクチャ若手の会第3回DL勉強会発表資料)30349Nov 16 2014
    https://www.slideshare.net/nowokay/ss-52481509ぼくの実装した最弱のディープラーニング30236Sep 7 2015
    https://www.slideshare.net/pfi/jubatus-10513468Jubatusにおける大規模分散オンライン機械学習29280Dec 8 2011
    https://www.slideshare.net/hamadakoichi/introduction-torandomforest-tokyor「R言語によるRandomForest徹底入門-集団学習による分類・予測-」-#TokyoR#1128709Jan 29 2011
    https://www.slideshare.net/nlab_utokyo/deep-learning-49182466DeepLearningによる画像認識革命 ー歴史・最新理論から実践応用までー28004Jun 9 2015
    https://www.slideshare.net/kisa12012/sgd-future-best-27314417SGD+α:確率的勾配降下法の現在と未来27180Oct 17 2013
    http://www.slideshare.net/devsumi/17e3【17-E-3】オンライン機械学習で実現する大規模データ処理26734Feb 20 2012
    https://www.slideshare.net/takahirokubo7792/ss-65413290機械学習で泣かないためのコード設計26379Aug 27 2016
    https://www.slideshare.net/FukushimaNorishige/opencv-67214568画像処理ライブラリOpenCVで出来ること・出来ないこと26247Oct 15 2016
    https://www.slideshare.net/hadoopxnttdata/spark-m-llib-nttdataSparkMLlibではじめるスケーラブルな機械学習25773Dec 18 2014
    https://www.slideshare.net/shoheihido/jubatus-casual2-anomalyJubatusCasualTalks#2異常検知入門25622Dec 13 2013
    https://www.slideshare.net/hamadakoichi/dena-deep-learningDeNAの機械学習・深層学習活用した 体験提供の挑戦25219Apr 28 2016
    https://www.slideshare.net/ngkry/ss-51045351機械学習を用いた東西日本の境界線決定25183Jul 29 2015
    https://www.slideshare.net/sfchaos/ss-33703018機械学習を用いた予測モデル構築・評価25137Apr 19 2014
    https://www.slideshare.net/motivic/machine-learning-causal-talk-2-lt素人がDeepLearningと他の機械学習の性能を比較してみた24349Aug 26 2014
    https://www.slideshare.net/imaifactory/amazon-machine-learning-47400147AmazonMachineLearning23949Apr 25 2015
    https://www.slideshare.net/sfchaos/ss-11307051不均衡データのクラス分類23343Jan 28 2012
    https://www.slideshare.net/nobu_k/elasticsearch-59627321Elasticsearchと機械学習を実際に連携させる23175Mar 16 2016
    https://www.slideshare.net/matsukenbook/rev012数学カフェ確率・統計・機械学習回「速習確率・統計」23148Apr 15 2017
    https://www.slideshare.net/yasuyukisugai/deep-learningcaffeDeepLearningハンズオン勉強会「Caffeで画像分類を試してみようの会」22847Jul 25 2015
    https://www.slideshare.net/nagayoshi3/2-23-8464248パターン認識と機械学習(PRML)第2章確率分布2.3ガウス分布22149Jun 29 2011
    https://www.slideshare.net/KentaOono/20141209sigmodjDeepLearning技術の最近の動向とPreferredNetworksの取り組み22118Dec 17 2014
    https://www.slideshare.net/iranainanimosuteteshimaou/ss-55173144ようやく分かった!最尤推定とベイズ推定21578Nov 16 2015
    https://www.slideshare.net/shuyo/introduction-to-active-learning-25787487ActiveLearning入門20963Aug 31 2013
    https://www.slideshare.net/sesejun/ss-24923282バイオインフォマティクスによる遺伝子発現解析20959Aug 4 2013
    https://www.slideshare.net/beam2d/learning-generator生成モデルのDeepLearning20489Feb 25 2016
    https://www.slideshare.net/yukaraikemiya/6-15415589パターン認識と機械学習6章(カーネル法)20451Nov 29 2012
    https://www.slideshare.net/stairlab/ss-61806151深層学習による自然言語処理の研究動向20086May 9 2016
    https://www.slideshare.net/metaps_JP/deep-learning-50383383Deeplearningを用いた画像から説明文の自動生成に関する研究の紹介19976Jul 10 2015
    https://www.slideshare.net/moa108/20130715-lt-scikitlearn2013.07.15はじパタltscikit-learnで始める機械学習19364Jul 16 2013
    https://www.slideshare.net/yasuyukisugai/io-t-deeplearningIoTとDeepLearningで自宅警備員を育ててみる19268Jun 18 2015
    https://www.slideshare.net/pfi/iibmp2016-okanohara-deep-generative-models-for-representation-learningIIBMP2016深層生成モデルによる表現学習19210Sep 29 2016
    https://www.slideshare.net/unnonouno/ss-21254386情報抽出入門〜非構造化データを構造化させる技術〜19004May 16 2013
    https://www.slideshare.net/ssusere55c63/variational-autoencoder-64515581猫でも分かるVariationalAutoEncoder18687Jul 29 2016
    http://www.slideshare.net/masakazusano75/sano-tokyowebmining-201625v04Sanotokyowebmining201625_v0418465Jun 24 2016
    https://www.slideshare.net/parosky0/av-ut-startup-gymAV画像認識とその周辺-UTStartupGym講演資料18233Feb 9 2013
    https://www.slideshare.net/atelierhide/tokyo-webmining42-slideshareディープラーニング徹底活用-画像認識編-18108Jan 23 2015
    https://www.slideshare.net/sleepy_yoshi/dsirnlp1DSIRNLP#1ランキング学習ことはじめ18060Jul 23 2011
    https://www.slideshare.net/at_grandpa/chapter5-50042838機械学習プロフェッショナルシリーズ輪読会#2Chapter5「自己符号化器」資料17877Jul 1 2015
    https://www.slideshare.net/KazukiFujikawa/dena-techcon-for-student-2016-64836562DeNAにおける機械学習・深層学習活用17786Aug 9 2016
    https://www.slideshare.net/lewuathe/auto-encoder-v2AutoEncoderで特徴抽出17582Jan 30 2015
    https://www.slideshare.net/shuyo/ss-6587177機械の代わりに人間が学習入門17532Jan 16 2011
    https://www.slideshare.net/hamadakoichi/tree-basedmodelsandrandomforests「樹木モデルとランダムフォレスト-機械学習による分類・予測-」-データマイニングセミナー17457Oct 8 2010
    https://www.slideshare.net/hamadakoichi/prml-3983027パターン認識と機械学習(PRML)第1章-「多項式曲線フィッティング」「確率論」17312May 5 2010
    https://www.slideshare.net/TakashiKato2/ss-57966067コンピュータ将棋・囲碁における機械学習活用16775Feb 7 2016
    https://www.slideshare.net/kazumakadomae/ss-58502369機械学習に取り組んでいる企業の紹介16662Feb 20 2016
    https://www.slideshare.net/kwp_george/ss-45978508全脳アーキテクチャ若手の会強化学習16613Mar 18 2015
    https://www.slideshare.net/shoheihido/cross-30115506機械学習CROSS前半資料16511Jan 16 2014
    https://www.slideshare.net/TokorotenNakayama/kpi-ab-cwt2016データ分析グループの組織編制とその課題マーケティングにおけるKPI設計の失敗例ABテストの活用と、機械学習の導入#CWT201616479Nov 9 2016
    https://www.slideshare.net/unnonouno/ss-59660836子供の言語獲得と機械の言語獲得16474Mar 17 2016
    https://www.slideshare.net/beam2d/chainer-64567959深層学習フレームワークChainerの開発と今後の展開16391Aug 1 2016
    https://www.slideshare.net/takanorig/storm-31157560デブサミ2014-Stormで実現するビッグデータのリアルタイム処理プラットフォーム~ストリームデータ処理から機械学習まで~16272Feb 13 2014
    https://www.slideshare.net/NVIDIAJapan/gpu-51812528なぜGPUはディープラーニングに向いているか16023Aug 19 2015
    https://www.slideshare.net/masayuki1986/azure-machine-learning-49034325推薦システムを構築する手順書withAzureMachineLearning15997Jun 5 2015
    https://www.slideshare.net/RecruitLifestyle/cet-capture-everythingCET(CaptureEveryThing)プロジェクトにおける機械学習・データマイニング最前線15988Dec 14 2015
    https://www.slideshare.net/unnonouno/20140606-mlctJubatusにおける機械学習のテスト@MLCT15881Jun 6 2014
    https://www.slideshare.net/syou6162/ss-3001118半教師あり学習15812Jan 27 2010
    https://www.slideshare.net/shakezo/mlct4プロトタイプで終わらせない死の谷を超える機械学習プロジェクトの進め方 #MLCT415399Dec 21 2015
    https://www.slideshare.net/trinmu/stochasticoptim2013機械学習におけるオンライン確率的最適化の理論15302Jul 3 2013
    https://www.slideshare.net/masayuki1986/recommendation-ml協調フィルタリングを利用した推薦システム構築14794Apr 22 2015
    https://www.slideshare.net/enakai/it-pandasPython機械学習プログラミングデータ分析演習編14743Nov 25 2015
    https://www.slideshare.net/YoshitakaUshiku/ss-57148161画像キャプションの自動生成14707Jan 17 2016
    https://www.slideshare.net/ryotat/20111128-10460799行列およびテンソルデータに対する機械学習(数理助教の会2011/11/28)14640Dec 4 2011
    https://www.slideshare.net/takmin/20141008-4001986120141008物体検出器14412Oct 8 2014
    https://www.slideshare.net/hajimexi/101813-hesitatefinal-fixedWEB閲覧時における無意識な行動のデータマイニングbyZenClerk14218Oct 19 2013
    https://www.slideshare.net/chezou/ruby-28923469Rubyと機械学習の現状14178Dec 5 2013
    https://www.slideshare.net/MasayukiIsobe/ss-35851169第二回機械学習アルゴリズム実装会-LDA14149Jun 13 2014
    https://www.slideshare.net/siritori/6-35685092正則化つき線形モデル(「入門機械学習第6章」より)14070Jun 10 2014
    https://www.slideshare.net/imaimasahiro/20130727-cv-machinelearning-2466957920130727cvmachine_learning@tokyowebmining14000Jul 26 2013
    https://www.slideshare.net/nishio/kaggle-otto実践多クラス分類KaggleOttoから学んだこと13565May 29 2015
    https://www.slideshare.net/irrrrr/2015-46395273機械学習とその理論(情報オリンピック2015春合宿講義資料)13427Mar 28 2015
    https://www.slideshare.net/seijitakahashi92/gunosy-44530766機械学習で大事なことをミニGunosyをつくって学んだ╭(・ㅂ・)و̑̑ 13415Feb 10 2015
    https://www.slideshare.net/pfi/ibis2016okanohara-69230358Ibis2016okanohara13400Nov 18 2016
    https://www.slideshare.net/SeiichiUchida/ss-71479583深層学習の非常に簡単な説明13377Jan 28 2017
    https://www.slideshare.net/TakashiKato2/ss-52335846コンピュータ将棋について~機械学習を用いた局面学習への道~13038Sep 2 2015
    https://www.slideshare.net/shuyo/ss-35785798猫に教えてもらうルベーグ可測12889Jun 12 2014
    https://www.slideshare.net/enakai/machine-learning-theroy-handson-20150420ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド12833Apr 24 2015
    https://www.slideshare.net/takahirokubo7792/ss-63166784「人工知能」をあなたのビジネスで活用するには12830Jun 17 2016
    http://www.slideshare.net/MapR_Japan/mahoutsolr-hadoop-conference-japan-2014実践機械学習—MahoutとSolrを活用したレコメンデーションにおけるイノベーション-2014/07/08HadoopConferenceJapan201412317Jul 8 2014
    https://www.slideshare.net/ssuserb5817c/python-66169435Pythonで動かして学ぶ機械学習入門_予測モデルを作ってみよう12307Sep 19 2016
    https://www.slideshare.net/tottokug/azure-ml-43641782AzureMLで機械学習をやってみよう12297Jan 18 2015
    https://www.slideshare.net/shima__shima/2011-mtokyoscipy1Pythonによる機械学習実験の管理12228Oct 27 2011
    https://www.slideshare.net/hamukazu/python-62836565Pythonで機械学習入門以前12125Jun 8 2016
    https://www.slideshare.net/nobu_k/ss-56810268機械学習を利用したちょっとリッチな検索11763Jan 8 2016
    https://www.slideshare.net/canard0328/ss-51632037機械学習によるデータ分析実践編11515Aug 14 2015
    https://www.slideshare.net/shotarosano5/chapter7-50542830再帰型ニューラルネットin機械学習プロフェッショナルシリーズ輪読会11443Jul 15 2015
    https://www.slideshare.net/NVIDIAJapan/ss-71043984これから始める人の為のディープラーニング基礎講座11424Jan 16 2017
    https://www.slideshare.net/sesejun/ss-10104027次世代シーケンサが求める機械学習11333Nov 10 2011
    https://www.slideshare.net/TokorotenNakayama/mlctプロダクション環境でオンラインで機械学習を動かすにあたってツライ話#MLCT11189May 1 2015
    http://www.slideshare.net/maruyama097/ss-53314018機械学習技術の現在11181Sep 29 2015
    https://www.slideshare.net/hamukazu/python-62212519Pythonによる機械学習11136May 20 2016
    https://www.slideshare.net/JubatusOfficial/20140629-36495050Jubatusで始める機械学習10969Jul 1 2014
    https://www.slideshare.net/myui/hdj2014-myuiHcj2014myui10926Jul 7 2014
    https://www.slideshare.net/yamakatu/aws-casual-talks2ltSpotInstance+Spark+MLlibで実現する簡単低コスト機械学習10887Apr 18 2014
    https://www.slideshare.net/torotoki/ss-14069592質問応答システム入門10805Aug 25 2012
    https://www.slideshare.net/hayatomaki9/litmachinelearning機械学習入門10769Nov 27 2015
    https://www.slideshare.net/mmktakahashi/ss-15231807機械学習の応用例にみる認知症診断と将来の発症予測10585Nov 18 2012
    https://www.slideshare.net/syou6162/ss-63417714今日からできる構造学習(主に構造化パーセプトロンについて)10524Jun 24 2016
    https://www.slideshare.net/pfi/session4-14461913Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平10429Sep 25 2012
    https://www.slideshare.net/pfi/jubatus-16050975Jubatus:分散協調をキーとした大規模リアルタイム機械学習プラットフォーム10417Jan 18 2013
    https://www.slideshare.net/Cloudera_jp/data-science-toward-big-data-cwt2016大規模データに対するデータサイエンスの進め方#CWT201610409Nov 9 2016
    https://www.slideshare.net/TokorotenNakayama/mlbussinessヒューレットパッカード社の 社員の離職リスク予測第一回機械学習ビジネス研究会#ml_business10317Aug 28 2016
    https://www.slideshare.net/keisukeosone/ss-64685474いまさら聞けない機械学習の評価指標10206Aug 4 2016
    https://www.slideshare.net/shima__shima/mldm-relatedconferences2014データマイニング・機械学習関連の国際会議10079Feb 5 2015
    http://www.slideshare.net/recruitcojp/ss-42745505「機械学習:技術的負債の高利子クレジットカード」のまとめ9956Dec 16 2014
    https://www.slideshare.net/takahirokubo7792/python-openai-gymPythonではじめるOpenAIGymトレーニング9852Sep 22 2016
    https://www.slideshare.net/ashitanoken/machine-learning-apache-mahoutmachinelearning&apachemahout9821Nov 30 2010
    https://www.slideshare.net/yukinoi/python-auto-sklearnPythonで機械学習を自動化autosklearn9750Oct 24 2015
    https://www.slideshare.net/pfi/pfi-seminar-20120315PFISeminar2012/03/15カーネルとハッシュの機械学習9697Mar 15 2012
    https://www.slideshare.net/JunichiNoda/spark-mllib機械学習ライブラリ「SparkMLlib」で作るアニメレコメンドシステム9596Feb 27 2016
    https://www.slideshare.net/tak9029/tensorflow-67483532深層学習とTensorFlow入門9526Oct 21 2016
    https://www.slideshare.net/issei_sato/ss-12125104統計的機械学習における量子アニーリング9357Mar 23 2012
    https://www.slideshare.net/hirsoshnakagawa3/kernel1aクラシックな機械学習の入門  5.サポートベクターマシン9334Mar 13 2014
    https://www.slideshare.net/masayuki1986/azure-ml-46562993AzureMachineLearning gettingstarted9094Apr 1 2015
    https://www.slideshare.net/NorihikoNakabayashi/ss-64497195JupyterNotebookでscikit-learnを使った機械学習・画像処理の基本9089Jul 29 2016
    https://www.slideshare.net/JSUXDesign/2-51367666ジャストシステムの形態素解析技術その2機械学習編9083Aug 7 2015
    https://www.slideshare.net/ww24jp/ss-57975202機械学習を用いたパターンロック認証の強化手法8779Feb 7 2016
    https://www.slideshare.net/palloc/ss-68285327機械学習を用いた異常検知入門8746Nov 7 2016
    https://www.slideshare.net/kermit123/45-web45分で理解するwebクローリング入門斉藤之雄8547Jul 2 2012
    https://www.slideshare.net/unnonouno/ss-75153601予測型戦略を知るための機械学習チュートリアル8425Apr 19 2017
    https://www.slideshare.net/hamadakoichi/cross2012-11646114データマイニングCROSS第2部-機械学習・大規模分散処理8334Feb 18 2012
    https://www.slideshare.net/ttpooh/tokyo-data-night-tokyodnアドテクにおける機械学習技術@TokyoDataNight#tokyodn8189Jul 24 2015
    https://www.slideshare.net/pfi/ipab2017-72723336IPAB2017深層学習を使った新薬の探索から創造へ8171Mar 2 2017
    https://www.slideshare.net/piroyoung/ss-42686014自然言語処理のための機械学習入門1章8140Dec 14 2014
    https://www.slideshare.net/yokkuns/ss-12901795異常行動検出入門(改)8100May 11 2012
    https://www.slideshare.net/langstat/tokyowebmining16-10346267TokyoWebmining_16:機械学習を使った英語習熟度の推定8098Nov 26 2011
    https://www.slideshare.net/pika_shi/machine-learning-13446072機械学習8087Jun 25 2012
    https://www.slideshare.net/minoruchikamune/20160325-60094117有名論文から学ぶディープラーニング2016.03.258065Mar 28 2016
    https://www.slideshare.net/hoxo_m/ss-66381190シンギュラリティを知らずに機械学習を語るな7942Sep 24 2016
    https://www.slideshare.net/sady_nitro/ss-17680859みんな大好き機械学習7836Mar 25 2013
    https://www.slideshare.net/YuyaKato3/tensorflow-58795721TensorFlowを使ってテキストをクラス分類してみた7827Feb 27 2016
    https://www.slideshare.net/kazoo04/ss-56821735自然言語処理の仕組みと手順7814Jan 8 2016
    https://www.slideshare.net/unnonouno/ella-24077958ICML2013読み会ELLA:AnEfficientLifelongLearningAlgorithm7688Jul 9 2013
    https://www.slideshare.net/takahirokubo7792/ss-48083463機械学習技術の紹介7515May 13 2015
    https://www.slideshare.net/hagino_3000/2-59125622スパース性に基づく機械学習2章データからの学習7460Mar 5 2016
    https://www.slideshare.net/sleepy_yoshi/prm11-715計算論的学習理論入門-PAC学習とかVC次元とか-7441Jun 23 2013
    https://www.slideshare.net/shoheihido/nips2013NIPS2013読み会:MoreEffectiveDistributedMLviaaStaleSynchronousParallelParameterServer7366Jan 22 2014
    https://www.slideshare.net/yasutomo57jp/pythondeep-learning-60544586Pythonによる機械学習入門〜基礎からDeepLearningまで〜7297Apr 6 2016
    https://www.slideshare.net/shotayasui/ss-67818872計量経済学と機械学習の交差点入り口(公開用)7289Oct 29 2016
    https://www.slideshare.net/katsuhiromorishita/ss-57762976初めての機械学習7273Feb 2 2016
    https://www.slideshare.net/mooopan/a3c-62170605A3Cという強化学習アルゴリズムで遊んでみた話7195May 19 2016
    https://www.slideshare.net/nishio/ss-66840545勾配降下法の 最適化アルゴリズム7187Oct 7 2016
    https://www.slideshare.net/masakazusano75/sano-hmm-20150512Sanohmm201505127186May 15 2015
    https://www.slideshare.net/issei_sato/ppmlBayesianNonparametrics入門-点過程と統計的機械学習の接点-7139Jul 5 2013
    https://www.slideshare.net/codeblue_jp/by-clarence-chio-code-blue-2015現実世界での機械学習によるアノマリ検知システムの構築と回避byClarenceChio-CODEBLUE20157051Mar 18 2016
    https://www.slideshare.net/JubatusOfficial/jubatus-59619986Jubatusハンズオン機械学習はじめてみた7031Mar 16 2016
    https://www.slideshare.net/hamadakoichi/10-web-tokyowebmining10回開催記念「データマイニング+WEB~データマイニング・機械学習活用による継続進化~」ー第10回データマイニング+WEB勉強会@東京ー#TokyoWebmining6980Feb 27 2011
    https://www.slideshare.net/TokorotenNakayama/ss-63521614機械学習ビジネス研究会(未踏研究会)6957Jun 28 2016
    https://www.slideshare.net/yuukiiwabuchi9/mathematica-57969027Mathematicaで 機械学習してみた6881Feb 7 2016
    https://www.slideshare.net/pfi/ss-75251599エッジヘビーコンピューティングと機械学習6876Apr 21 2017
    https://www.slideshare.net/x1ichi/spark-51164327広告配信現場で使うSpark機械学習6757Aug 1 2015
    https://www.slideshare.net/hirsoshnakagawa3/ss-32275026クラシックな機械学習の入門  11.評価方法6757Mar 13 2014
    https://www.slideshare.net/shoheihido/pmmlpfa機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA6702Oct 20 2016
    https://www.slideshare.net/ffri/mr201306-machine-learningforcomputersecurityjpnMr201306機械学習のセキュリティ技術応用6682Oct 7 2013
    https://www.slideshare.net/hirsoshnakagawa3/ss-32274390クラシックな機械学習の入門  8.クラスタリング6672Mar 13 2014
    https://www.slideshare.net/dsuket/ss-57488780いまさら聞けない機械学習のキホン6666Jan 26 2016
    http://www.slideshare.net/bonprosoft/ss-60197661それっぽく感じる機械学習6649Mar 30 2016
    https://www.slideshare.net/KMC_JP/p-45994744Topologicaldataanalysis6602Mar 18 2015
    https://www.slideshare.net/recruitcojp/hadoop-sourcecodereading-20150521Spark/MapReduceの機械学習ライブラリ比較検証6546Jun 4 2015
    https://www.slideshare.net/unnonouno/ss-72070828深層学習による機械とのコミュニケーション6465Feb 13 2017
    https://www.slideshare.net/enakai/tensorflow-69157740TensorFlowによるニューラルネットワーク入門6443Nov 17 2016
    https://www.slideshare.net/KeisukeSugawara/slide0629PRML第6章「カーネル法」6179Jun 29 2015
    https://www.slideshare.net/issei_sato/ss-37837949点過程と統計的機械学習の数理20146119Aug 9 2014
    https://www.slideshare.net/hamadakoichi/mobage-ibis-2012『Mobageの大規模データマイニング活用と意思決定』-#IBIS2012-ビジネスと機械学習の接点-6111Jan 23 2014
    https://www.slideshare.net/id774net/web-14142819Webシステムにおける自動分類器を利用した機械学習と顧客購買行動の予測6094Sep 2 2012
    https://www.slideshare.net/enakai/tensorflowdqnTensorFlowで学ぶDQN6064Jun 20 2016
    https://www.slideshare.net/JunichiNoda/2015-ai-azureml-amazonml最新!2015年クラウドAIプラットフォーム比較AzureML&AmazonML6008Sep 29 2015
    https://www.slideshare.net/at_grandpa/5-chapter-1-2機械学習プロフェッショナルシリーズ輪読会#5異常検知と変化検知Chapter1&2資料5994Aug 21 2015
    https://www.slideshare.net/alembert2000/prml-at-1PRML上巻勉強会at東京大学 資料 第1章前半5975Nov 20 2013
    https://www.slideshare.net/shoheihido/cross-ml-kouhen機械学習CROSS後半資料5959Jan 19 2014
    https://www.slideshare.net/hoxo_m/perplexityトピックモデルの評価指標Perplexityとは何なのか?5955Mar 29 2016
    https://www.slideshare.net/yutakashino/01-65431175機械学習ビジネス研究会第01回5849Aug 28 2016
    https://www.slideshare.net/TokorotenNakayama/vector-converter特徴ベクトル変換器を作った話5834Jan 21 2015
    https://www.slideshare.net/hirsoshnakagawa3/ss-32274089クラシックな機械学習の入門7.オンライン学習5790Mar 13 2014
    https://www.slideshare.net/hirsoshnakagawa3/intro1-32159425クラシックな機械学習入門 1 導入5735Mar 11 2014
    https://www.slideshare.net/enakai/web-65150969Webアプリケーションにおける機械学習活用の基礎5723Aug 19 2016
    https://www.slideshare.net/ssuser4b29b7/ss-66793390ディープラーニングで株価予測をやってみた5713Oct 6 2016
    https://www.slideshare.net/yuishikawa/20151117-apache-spark2015-11-17きちんと知りたいApacheSpark~機械学習とさまざまな機能群5663Nov 16 2015
    https://www.slideshare.net/satonaoki/20161219teratail[teratailStudy~機械学習編#2~]MicrosoftAzureのAI関連サービス5613Dec 19 2016
    https://www.slideshare.net/akira_11/r-01-48529517R実践機械学習による異常検知015495May 24 2015
    https://www.slideshare.net/dcubeio/hr-tech-xHRTechx機械学習導入事例紹介5466Feb 27 2017
    https://www.slideshare.net/eguchiakifumi/qsar-57118213子どもたちの未来を支える機械学習:定量的構造活性相関(QSAR)による有機ハロゲン化合物の母子間移行率予測5423Jan 16 2016
    https://www.slideshare.net/chezou/hajipata-juliaJuliaを使った機械学習5417Feb 18 2014
    https://www.slideshare.net/recruitcojp/ai-69855582リクルートテクノロジーズが語る企業における、「AI/ディープラーニング」活用のリアル5409Dec 6 2016
    https://www.slideshare.net/levelfour/shrift文字認識システムShrift5388Aug 29 2014
    https://www.slideshare.net/satonaoki/20151201dev-festaazureml[DevelopersFestaSapporo2015]AzureMachineLearningで機械学習を始めよう5375Dec 1 2015
    http://www.slideshare.net/yaju88/shizu-dev-r静岡Developers勉強会 入門機械学習5325Oct 20 2013
    https://www.slideshare.net/hirsoshnakagawa3/linea-r1クラシックな機械学習の入門3.線形回帰および識別5301Mar 13 2014
    https://www.slideshare.net/techblogyahoo/devsumi-58688249ヤフオク!における機械学習~深層学習、分散表現~#devsumi5266Feb 25 2016
    https://www.slideshare.net/shiraco/techcirclepepperTech-CirclePepperで機械学習体験ハンズオン勉強会inアトリエ秋葉原5217Jul 23 2015
    https://www.slideshare.net/Shiroyagicorp/19d1-58461598【19-D-1】人間と機械学習のはざま:どこまでアルゴリズムに任せるか5194Feb 19 2016
    https://www.slideshare.net/KazufumiOhkawa/12-20049278入門機械学習1,2章5125Apr 26 2013
    https://www.slideshare.net/matsukenbook/4-53640134異常検知と変化検知第4章近傍法による異常検知5017Oct 7 2015
    https://www.slideshare.net/hatenatech/ss-4942250はてなインターン「機械学習」5010Aug 11 2010
    https://www.slideshare.net/hijiki_s/20150418-tokyo-webminingLHCにおける素粒子ビッグデータの解析とROOTライブラリ(BigDataAnalysisatLHCandROOT)4885Apr 18 2015
    https://www.slideshare.net/issei_sato/big-datastochastic-gradient-langevin-dynamicsBigData時代の大規模ベイズ学習 -StochasticGradientLangevinDynamics を中心として4883Aug 9 2014
    https://www.slideshare.net/TakeshiHasegawa1/ikalog20161125nsstudy#IkaLogによるスプラトゥーンの画像解析と機械学習4818Nov 25 2016
    https://www.slideshare.net/cloretsblack/ss-58917656機械学習によるリモートネットワークの異常検知4809Mar 1 2016
    https://www.slideshare.net/beeEaMa/chapter-02-49488411Chapter02#ml-professional4789Jun 17 2015
    https://www.slideshare.net/Prunus1350/prml-62パターン認識と機械学習§6.2カーネル関数の構成4786Mar 9 2013
    https://www.slideshare.net/HirokazuNishio/ss-65620579機械学習アルゴリズムの絵本4727Sep 2 2016
    https://www.slideshare.net/KojiSekiguchi/ss-13451390自然言語処理における機械学習による曖昧性解消入門4711Jun 25 2012
    https://www.slideshare.net/HitoshiHabe/ss-58784126機械学習とコンピュータビジョン入門4690Feb 27 2016
    https://www.slideshare.net/nkjm/iot-58447760鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る4683Feb 19 2016
    https://www.slideshare.net/shirakiya/web-67545440経験ゼロのWeb企業が機械学習に取り組んだ話4658Oct 23 2016
    https://www.slideshare.net/masakazuishihata/ishihata-koudaisai121006forpdf機械学習でお小遣いを稼ぐ!-本推薦Twitterbotの紹介-4649Oct 9 2012
    https://www.slideshare.net/haradaatsea4/web-66507955普通のwebエンジニアでも出来る、ド素人からの機械学習のはじめ方4611Sep 28 2016
    https://www.slideshare.net/DATAHOTEL/ss-55804225機械学習を学ぶための準備 その3(行列について)試験問題4590Dec 4 2015
    https://www.slideshare.net/ttpooh/ss-64890255セレンディピティと機械学習4582Aug 11 2016
    https://www.slideshare.net/TeruyukiSakaue/ss-63441067機械学習による積極的失業〜オウンドメディアの訪問予測4551Jun 25 2016
    https://www.slideshare.net/pfi/security-ml-20130628kashiharaJubatusで始める機械学習/セキュリティと機械学習4534Aug 19 2014
    https://www.slideshare.net/maruyama097/ss-42587994エンタープライズと機械学習技術4531Dec 10 2014
    https://www.slideshare.net/satonaoki/microsoft-azure-machine-learning-69700998MicrosoftAzureの機械学習サービス(AzureMachineLearning/MicrosoftCognitiveServices)4518Nov 30 2016
    https://www.slideshare.net/shoheihido/kdd-25788780今年のKDDベストペーパーを実装・公開しました4509Sep 1 2013
    https://www.slideshare.net/takahirokubo7792/machine-learningbootstrap-47179613MachineLearningBootstrap4425Apr 20 2015
    https://www.slideshare.net/rakutentech/ecommerce-15078624E-commerce企業におけるビッグデータへの挑戦と課題‐機械学習への期待について‐4345Nov 8 2012
    https://www.slideshare.net/from2001/ss-29919349勉強会資料:プログラムもアルゴリズム理解も不要な機械学習テキストマイニング4243Jan 11 2014
    http://www.slideshare.net/nowokay/20151121-55359989機械学習プロ生201511214175Nov 21 2015
    https://www.slideshare.net/babaroa/code-blue-2016-webCODEBLUE2016-機械学習でWebアプリケーションの脆弱性を見つける方法4059Oct 23 2016
    https://www.slideshare.net/itakigawa/ss-69269618科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性4058Nov 18 2016
    https://www.slideshare.net/softlayerjp/ibm-bluemix-siosSIOSiQ:機械学習ITOAVMware仮想環境の性能問題の原因分析迅速な問題解決と未然防止を実現3940Sep 9 2015
    https://www.slideshare.net/AmazonWebServicesJapan/aws-70254977データレイクを基盤としたAWS上での機械学習サービス構築3876Dec 19 2016
    https://www.slideshare.net/shuyo/ai-vsmlpublic-72939220人工知能と機械学習の違いって?3814Mar 8 2017
    https://www.slideshare.net/mamoruk/ss-24918858ウェブマイニングを用いた英語学習支援3808Aug 4 2013
    https://www.slideshare.net/oxy919/yyoshida-20150611forslideshareGreedisGood:劣モジュラ関数最大化とその発展3785Jun 12 2015
    https://www.slideshare.net/nkjm/database-cloud実はDatabasecloudだけで実現できる巷で噂の機械学習とは?3776Mar 15 2016
    https://www.slideshare.net/tamushun/sirok-4【SIROK技術勉強会#4】機械学習と線形代数の基礎3774Aug 19 2015
    https://www.slideshare.net/hirsoshnakagawa3/ss-32274787クラシックな機械学習の入門  10.マルコフ連鎖モンテカルロ法3744Mar 13 2014
    https://www.slideshare.net/pecorarista/prml04PRML第4章3739May 15 2015
    http://www.slideshare.net/DATAHOTEL/ss-56039579機械学習を学ぶための準備 その3(行列について)試験問題 解答3725Dec 11 2015
    https://www.slideshare.net/Erika_Fujita/ss-50118591全脳アーキテクチャ若手の会機械学習勉強会ベイジアンネットワーク3715Jul 3 2015
    http://www.slideshare.net/DATAHOTEL/ss-56039864機械学習を学ぶための準備 その4(行列について)試験問題3702Dec 11 2015
    https://www.slideshare.net/pjxiao/php-37624749PHPによる機械学習3682Aug 3 2014
    https://www.slideshare.net/hagino_3000/9-55242143異常検知と変化検知9章部分空間法による変化点検知3653Nov 18 2015
    https://www.slideshare.net/yoheinaruse3/java-37147537Javaで始める機械学習3636Jul 19 2014
    https://www.slideshare.net/mp_mrk/rtoaster6-dmpRtoaster特徴6最先端の機械学習アルゴリズム3613Feb 17 2015
    https://www.slideshare.net/YoshitakaUshiku/20150530-kantocv-curriculumlearningCurriculumLearning(関東CV勉強会)3608May 30 2015
    https://www.slideshare.net/maraigue/ss-59765112関数の最小値を求めることから機械学習へ3602Mar 19 2016
    https://www.slideshare.net/hijiki_s/akira-shibata-at-developer-summit-2016-58449436Akirashibataatdevelopersummit20163551Feb 19 2016
    https://www.slideshare.net/hirsoshnakagawa3/bias-variance1aクラシックな機械学習の入門4.学習データと予測性能3442Mar 13 2014
    https://www.slideshare.net/y-ken/real-estate-tech-with-hivemallHivemallで始める不動産価格推定サービス3398Oct 21 2015
    https://www.slideshare.net/ryokuta/deep-learning-64339091DeepLearningを用いたロボット制御3379Jul 25 2016
    https://www.slideshare.net/unnonouno/20130518-twitterTwitter分析のためのリアルタイム分析基盤@第4回Twitter研究会3329May 16 2013
    https://www.slideshare.net/ItaruOtomaru/prml-45271788[PRML勉強会資料]パターン認識と機械学習第3章線形回帰モデル(章頭-3.1.5)(p.135-145)3306Feb 28 2015
    https://www.slideshare.net/takahirokubo7792/ss-71453093画像認識モデルを作るための鉄板レシピ3290Jan 27 2017
    https://www.slideshare.net/akira_11/r-02-48529612R実践機械学習による異常検知023286May 24 2015
    https://www.slideshare.net/junya100/jubatus-18540677機械学習とJubatus3225Apr 10 2013
    https://www.slideshare.net/takumahatano18/tokyo-r-06201億5000万円欲しい(ロト6のデータで遊ぶ)3138Jun 20 2015
    https://www.slideshare.net/suzuki333333333/ss-55355797とりあえず機械学習をやってみた3102Nov 21 2015
    https://www.slideshare.net/aknow3373/ss-55841517「お手軽な機械学習サービス」で、ルーティンワークに立ち向かおう!3092Dec 5 2015
    https://www.slideshare.net/AmazonWebServicesJapan/amazonaws-67527573Amazonでのレコメンド生成における深層学習とAWS利用について3043Oct 22 2016
    https://www.slideshare.net/hirsoshnakagawa3/opt-algorithm1クラシックな機械学習の入門6.最適化と学習アルゴリズム3027Mar 13 2014
    https://www.slideshare.net/hirsoshnakagawa3/bayes1クラシックな機械学習の入門 2.ベイズ統計に基づく推論2994Mar 12 2014
    https://www.slideshare.net/jaisalmer992/cd-driveprml2-4-d0703C:\DDrive\Prml\プレゼン\パターン認識と機械学習24章D07032939Jul 7 2010
    https://www.slideshare.net/takashijozaki1/ss-56464495直感的な単変量モデルでは予測できない「ワインの味」を多変量モデルで予測する2902Dec 27 2015
    https://www.slideshare.net/TsuyoshiHirayama/ibm-watson-machine-learning-and-watson-knowledge-stuido-20160827Ibmwatsonmachinelearningandwatsonknowledgestuido201608272787Aug 27 2016
    https://www.slideshare.net/hirsoshnakagawa3/ss-33841006クラシックな機械学習入門:付録:よく使う線形代数の公式2782Apr 23 2014
    https://www.slideshare.net/kiyoshi_iwabuchi/20150329-final-ver1020150329SAPInfiniteInsight(SAPが提供する機械学習エンジン)2774Mar 31 2015
    https://www.slideshare.net/takahirokubo7792/ss-47094972機械学習を用いた会議診断システムの開発2695Apr 16 2015
    https://www.slideshare.net/uesaka/azure-machine-learning-52041107AzureMachineLearningによるレコメンデーションの設計&実装を公開!~朝日カルチャーセンターの事例から~2685Aug 25 2015
    https://www.slideshare.net/maruyama097/tensolflow-white-paper機械学習技術の現在+TensolFlowWhitePaper2624Dec 23 2015
    https://www.slideshare.net/KatsukiOhto/ss-66400465大富豪に対する機械学習の適用+α2616Sep 25 2016
    https://www.slideshare.net/TeppeiMurakami/chainer-keras-68860442機械学習フレームワーク横断、Chainer,Keras2604Nov 14 2016
    https://www.slideshare.net/MasatoNakai1/4-70284613機械学習の全般について42559Dec 19 2016
    https://www.slideshare.net/unnonouno/jubatus-21133522Jubatusにおける大規模分散オンライン機械学習@先端金融テクノロジー研究会2544May 13 2013
    http://www.slideshare.net/maruyama097/ss-39731666人間の思考、機械の思考2524Sep 30 2014
    https://www.slideshare.net/enakai/google-73393814Googleにおける機械学習の活用とクラウドサービス2494Mar 21 2017
    https://www.slideshare.net/techblogyahoo/yahoo-japan-streamctjpYahoo!JAPANにおけるオンライン機械学習実例#streamctjp2494Jul 25 2016
    https://www.slideshare.net/hirsoshnakagawa3/9-32274608クラシックな機械学習の入門  9.モデル推定2477Mar 13 2014
    http://www.slideshare.net/ToshihikoYamasaki/ss-66138771【FIT2016チュートリアル】ここから始める情報処理~機械学習編~2461Sep 18 2016
    https://www.slideshare.net/TakeshiHasegawa1/ikalog-data-collector-for-splatoon-and-machine-learning-jan-2017-softbankIkaLog:DataCollectorforSplatoon andMachineLearning (Jan2017@Softbank)2446Jan 16 2017
    https://www.slideshare.net/yuishikawa/2016-0615-spark2016-06-15Sparkの機械学習の開発と活用の動向2438Jun 15 2016
    https://www.slideshare.net/mogiken1/ss-46833284実践:今日から使えるビックデータハンズオンあなたはタイタニック号で生き残れるか?知的生産性UPのための機械学習超入門2438Apr 9 2015
    https://www.slideshare.net/hamukazu/python-71462844Pythonを使った機械学習の学習2422Jan 27 2017
    https://www.slideshare.net/kivantium/ss-49738333機械学習勉強会資料2377Jun 23 2015
    https://www.slideshare.net/shoheihido/software-for-edge-heavy-computing-interop-2016-tokyoSoftwareforEdgeHeavyComputing@INTEROP2016Tokyo2342Jun 9 2016
    https://www.slideshare.net/AtsuoAoki/microsoftaiMicrosoft機械学習の簡単な紹介2332Apr 27 2016
    https://www.slideshare.net/mitsukioga/ss-36876390パターン認識と機械学習〜指数型分布族とノンパラメトリック〜2229Jul 11 2014
    https://www.slideshare.net/sfchaos/julia-47433829Juliaによる予測モデル構築・評価2218Apr 26 2015
    https://www.slideshare.net/junsakuma/ss-47311911キノコ狩りで収穫100倍増を 機械学習で実現する方法2125Apr 22 2015
    https://www.slideshare.net/ToshihikoYamakami/2017-71233526サルでもわかるディープラーニング入門(2017年) (InJapanese)2045Jan 20 2017
    https://www.slideshare.net/biatunky/azure-machine-learning-45549499AzureMachineLearningを触ってみた!2003Mar 7 2015
    https://www.slideshare.net/tnoborio/grcarry-ver2GR-CARRYでジェスチャーの機械学習-かぎーぱみゅぱみゅVer.21963Oct 15 2015
    https://www.slideshare.net/yasuyukisugai/3nnkeras第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-1916Jul 6 2016
    https://www.slideshare.net/MasatoTaruishi/tfug3-retty-2200-72489223TFUG#3Retty流「2200万ユーザさんを支える機械学習基盤」の作り方1884Feb 23 2017
    https://www.slideshare.net/babaroa/web-reflected-xss機械学習でWebアプリの脆弱性を見つける-ReflectedXSS編-1874Jul 25 2016
    https://www.slideshare.net/tetutaro/rco-62374167機械学習向けプログラミング言語の使い分け-RCOの場合1874May 25 2016
    https://www.slideshare.net/Prunus1350/prml-834パターン認識と機械学習§8.3.4有向グラフとの関係1848Jul 21 2013
    https://www.slideshare.net/YutaKoga/coursera-machine-learning-week2CourseraMachineLearningWeek2まとめ 1835Jan 7 2016
    https://www.slideshare.net/satonaoki/20161126ml15minazureml[第6回MachineLearning15minutes!]機械学習サービス「AzureMachineLearning」(+MicrosoftCognitiveToolkit(CNTK)も少しだけ)1807Nov 26 2016
    http://www.slideshare.net/shotarosano5/in-54205735サポートベクトルデータ記述法による異常検知in機械学習プロフェッショナルシリーズ輪読会1789Oct 21 2015
    https://www.slideshare.net/jaisalmer992/14-d0912-5345854パターン認識と機械学習14章d09121784Oct 3 2010
    https://www.slideshare.net/jimaoka/einsteinherokupredictionioEinsteinってどんなもの?Heroku+PredictionIOを使って機械学習をわかった気になってみよう!1772Oct 25 2016
    https://www.slideshare.net/techblogyahoo/yjdsw1-56331419ヤフートップページでの機械学習#yjdsw11763Dec 21 2015
    https://www.slideshare.net/owllearnbiz/lagrange-50543837機械学習を理解するための数学テクニック勉強会Lagrange未定乗数法1752Jul 15 2015
    https://www.slideshare.net/IchiroMaruta/ss-72903584データでみる機械学習と制御理論の類似点と相違点1749Mar 7 2017
    https://www.slideshare.net/KazufumiOhkawa/ss-21870268入門機械学習読書会二回目1748May 24 2013
    https://www.slideshare.net/takahirokubo7792/2016-ncm対話破綻検出チャレンジ2016:NCMを用いた対話と破綻の同時学習1656Oct 5 2016
    https://www.slideshare.net/SASJapan/sas-enterprise-miner-51897950SASEnterpriseMinerを使用した機械学習1648Aug 21 2015
    https://www.slideshare.net/kenjioda/prml-48807374PRML 機械学習超入門 使える教材まとめ1612May 31 2015
    https://www.slideshare.net/ToruUenoyama/tensorflowsummer-editionTensorFlowで機械学習ことはじめ(summeredition)1601Aug 27 2016
    https://www.slideshare.net/nishio/01-68382174機械学習キャンバス0.11573Nov 8 2016
    https://www.slideshare.net/optim_internship/optim-66539382Optimインターンシップ機械学習による画像の領域分割1567Sep 29 2016
    https://www.slideshare.net/__john_smith__/5-481565365分でわかる怖くない機械学習1528May 14 2015
    https://www.slideshare.net/stealthinu/gcetensorflowGCEをTensorFlowの「計算エンジン」にする1516Jul 26 2016
    https://www.slideshare.net/cancolle/lt-2-65972250機械学習するな機会学習しろ-データサイエンスLT祭り2夜目1471Sep 13 2016
    https://www.slideshare.net/kazuakitanida/kerasKerasで深層学習を実践する1457Oct 27 2016
    https://www.slideshare.net/rumisbern/ss-58901767機械学習基礎(2)(パラメータ推定)1447Mar 1 2016
    https://www.slideshare.net/rumisbern/ss-58028512機械学習基礎(1)(基礎知識編-最適化問題)1446Feb 8 2016
    https://www.slideshare.net/utatakiyoshi/2013-joi-62013JOI春合宿講義6機械学習入門1437Mar 23 2013
    https://www.slideshare.net/kazk1018/ml-pipelineMLPipelineで実践機械学習1398Jun 23 2015
    https://www.slideshare.net/NaoyukiSakai/short-ver-47316085ブラックボックスなアドテクを機械学習で推理してみたShortver1392Apr 22 2015
    https://www.slideshare.net/hirokiyamamoto969/tpot面倒くさいこと考えたくないあなたへ〜Tpotと機械学習〜1376Sep 7 2016
    https://www.slideshare.net/tmprcd12345/machine-learning-15minutes新事業で目指す自然言語処理ビジネス、その未来MachineLearning15minutes! 発表資料1333Dec 18 2016
    https://www.slideshare.net/babaroa/introduce-stealing-machine-learning-models-via-prediction-apisintroduce"StealingMachineLearningModelsviaPredictionAPIs"1323Dec 6 2016
    https://www.slideshare.net/Gushi/step-by-step-62972831StepbyStepで学ぶ自然言語処理における深層学習の勘所1308Jun 12 2016
    http://www.slideshare.net/xushengbo/ss-56078407でも、機械学習ってお難しいんでしょ?1302Dec 12 2015
    https://www.slideshare.net/babaroa/ss-69560578機械学習を使ったハッキング手法1290Nov 27 2016
    https://www.slideshare.net/cimadai/it81ITエンジニアのための機械学習理論入門8.1ベイズ推定1275Jun 26 2016
    https://www.slideshare.net/enakai/prlm-432-436第12回機械学習勉強会・説明用ノート1238Feb 22 2015
    https://www.slideshare.net/yukaraikemiya/ss-62735812音声にまつわる技術の基礎1235Jun 5 2016
    https://www.slideshare.net/DATAHOTEL/hadoop-x-spark-xHadoopxsparkx機械学習を利用した実践的活用術最新1220Oct 27 2016
    https://www.slideshare.net/k_yone/machine-learning-40067037Machinelearning1216Oct 9 2014
    http://www.slideshare.net/masuwo3/amazon-machine-learingAmazonMachineLearingと機械学習1189Oct 28 2015
    https://www.slideshare.net/krk85/pythonhelloworldPython&機械学習にHelloWorldして旦那候補を探す1155May 22 2016
    https://www.slideshare.net/techblogyahoo/yjdsw1-56331439ヤフオク!と機械学習#yjdsw11150Dec 21 2015
    https://www.slideshare.net/nowokay/netbeans-72028561NetBeansのメモリ使用ログから機械学習できしだが働いてるかどうか判定する1141Feb 11 2017
    https://www.slideshare.net/MasayukiTanaka2/ss-43095436機械学習で名古屋っぽいを判定する1140Dec 30 2014
    https://www.slideshare.net/MasayukiIsobe/ss-37144237第三回機械学習アルゴリズム実装会イントロダクション1137Jul 18 2014
    https://www.slideshare.net/ShutoSuzuki/1azuremachinelearningtweetかんたん機械学習はじめの1歩AzureMachineLearningでTweetをレコメンド1120Apr 15 2016
    https://www.slideshare.net/enakai/prlm-533546第15回機械学習勉強会・説明用ノート1120Jun 29 2015
    https://www.slideshare.net/kagamiwari/nseg39NSEG#39将棋ソフトと機械学習1113Jun 8 2013
    https://www.slideshare.net/hiroakikudo77/1-56144834機械学習・自然言語処理の今年1年間を振り返ってみて1104Dec 15 2015
    https://www.slideshare.net/zakktakk/chapter3-62337101機械学習プロフェッショナルシリーズ深層学習chapter3確率的勾配降下法1103May 24 2016
    https://www.slideshare.net/ooyabuy/pp080パターン認識と機械学習 pp0801100Dec 13 2012
    https://www.slideshare.net/tmprcd12345/ss-66361547最近の機械学習テクノロジーとビジネスの応用先 自然言語処理を中心に1097Sep 24 2016
    https://www.slideshare.net/yappy0625/ss-55124683ゲームと機械学習1082Nov 15 2015
    http://www.slideshare.net/takemiohama/x-ietty-64095981実践的!人工知能X機械学習〜iettyの場合〜1050Jul 17 2016
    https://www.slideshare.net/KazufumiOhkawa/6-24670662入門機械学習6章1041Jul 26 2013
    https://www.slideshare.net/stairlab/4-63932628群衆の知を引き出すための機械学習(第4回ステアラボ人工知能セミナー)1034Jul 12 2016
    https://www.slideshare.net/ssuser1adf7f/de-60161483タコスDe機械学習~パーセプトロンを実装してみよう~1015Mar 29 2016
    https://www.slideshare.net/kazunaritakaki/aitc-57510657AITCオープンラボ_機械学習の為の事前準備1012Jan 26 2016
    https://www.slideshare.net/sum1kawa/dsirnlp5コード最適化と機械学習. DSIRNLP5 2014/1/11996Jan 12 2014
    https://www.slideshare.net/TakeshiAkutsu/s06-t1-python4S06t1python学習奮闘記#4994Nov 10 2015
    https://www.slideshare.net/KazukiHarada/bluemix-travelbot-52190289Bluemix&Azureで機械学習する自動応答チャットで旅行提案するアプリをAPIフル活用で実装してみた993Aug 29 2015
    https://www.slideshare.net/ttpooh/2015autumn機械学習でデジタル広告を変える!@デブサミ2015autumn971Oct 15 2015
    https://www.slideshare.net/kumadasu/ss-59125948ディープラーニングを活用したジェスチャー認識955Mar 5 2016
    https://www.slideshare.net/SORACOM/ifup-2017-b1if-up2017|B1:エッジヘビーコンピューティングと機械学習955Apr 20 2017
    https://www.slideshare.net/__john_smith__/ss-65778297初心者向けに機械学習のハンズオンセミナーをしてわかったこと907Sep 7 2016
    https://www.slideshare.net/yuki0116/20160408-lt20160408機械学習lt大会902Apr 20 2016
    https://www.slideshare.net/YuusukeIwasawa/dl-hacks-unifying-distillation-and-privileged-informationDlhacks輪読:"Unifyingdistillationandprivilegedinformation"898Mar 18 2016
    http://www.slideshare.net/KazufumiOhkawa/9-25539906入門機械学習読書会9章874Aug 23 2013
    https://www.slideshare.net/utsuro_lab/20151203-reversi-for-slideshare機械学習による球面リバーシ(オセロ)AIの開発864Dec 3 2015
    https://www.slideshare.net/ShutoYano/ss-62380794機械学習+ニューラルネット入門855May 25 2016
    https://www.slideshare.net/hirokiyamamoto969/python-64288862「Python機械学習プログラミング」 の挫折しない読み方837Jul 22 2016
    https://www.slideshare.net/updateitjp/crossnote-64698777crossnoteの機械学習で文章から作者を判別する814Aug 4 2016
    https://www.slideshare.net/keikurakawa/ipsj-annual75slideskurakawa機械学習を用いたWeb上の産学連携関連文書の抽出808Mar 7 2013
    https://www.slideshare.net/shinyorke/hackpython-bpstudy野球Hack!(続き)~Pythonを用いた野球サービス構築#bpstudy804Nov 30 2015
    https://www.slideshare.net/hiromu1996/ss-38476138機械学習コン講評797Aug 28 2014
    https://www.slideshare.net/takahirokubo7792/kintone-cafe-japan-2016-kintone-xkintoneCafeJapan2016:kintonex機械学習で実現する簡単名刺管理787Nov 11 2016
    http://www.slideshare.net/shiraco/techcircle007welcomeTech-CirclePepperで機械学習体験ハンズオン勉強会inアトリエ秋葉原764Jul 23 2015
    https://www.slideshare.net/updateitjp/crossnotewikipediacrossnoteの機械学習でWikipediaの記事を分類する744Aug 4 2016
    https://www.slideshare.net/updateitjp/crossnotecrossnoteの機械学習でパブリックコメントを分類する744Aug 4 2016
    https://www.slideshare.net/ssuserc768a6/ss-51188324入門パターン認識と機械学習 1章 2章728Aug 2 2015
    http://www.slideshare.net/KosukeFujimoto1/teratail-study-1TeratailStudy  ~機械学習編#1~719Nov 12 2016
    https://www.slideshare.net/ooyabuy/108-15623744パターン認識と機械学習 演習1.08713Dec 13 2012
    http://www.slideshare.net/techblogyahoo/yjdsw4-60944543「これはヤフオク!に機械学習を導入する男たちの戦いの物語である」#yjdsw4668Apr 15 2016
    https://www.slideshare.net/satonaoki/20161218dotsbigdataazureai[ビッグデータオールスターズ]クラウドサービス最新情報機械学習/AIでこんなことまでできるんです!(Microsoft編)657Dec 18 2016
    https://www.slideshare.net/JunIio1/ss-71706122社会科学研究者からみた機械学習655Feb 3 2017
    https://www.slideshare.net/taikaitakeda/mlp-svm-chapter-7-decomposingMLPSVMChapter7分割法648Sep 5 2015
    https://www.slideshare.net/techblogyahoo/yjdsw1-56331336爆速機械学習サービス応用:実践編#yjdsw1645Dec 21 2015
    https://www.slideshare.net/tdev1/243-697873002値分類・多クラス分類629Dec 3 2016
    https://www.slideshare.net/ssuser77b8c6/1-71256266劣モジュラ最適化と機械学習1章626Jan 22 2017
    http://www.slideshare.net/HirokiKitano1/azure-machine-learning-64111017/6機械学習はじめの一歩!AzureMachineLearningで気軽に始めよう!626Jul 18 2016
    https://www.slideshare.net/HirokiKitano1/azure-machine-learning-64111017機械学習はじめの一歩!AzureMachineLearningで気軽に始めよう!625Jul 18 2016
    https://www.slideshare.net/halueda/spark-58539319自動的なビッグデータ機械学習技術:Spark上で複数の学習アルゴリズムの自動選択が可能に617Feb 22 2016
    https://www.slideshare.net/yutosuzu/lt-32333948統計勉強会LT機械学習とは596Mar 14 2014
    https://www.slideshare.net/rumisbern/ss-58902081機械学習基礎(3)(クラスタリング編)583Mar 1 2016
    https://www.slideshare.net/ShunsukeNakamura2/ss-65575087データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで569Sep 1 2016
    https://www.slideshare.net/TakeshiIshita/ss-35153703第一回機械学習アルゴリズム実装会559May 27 2014
    https://www.slideshare.net/MikaFukushige/ss-52450500気楽に等身大☆初めての機械学習558Sep 5 2015
    https://www.slideshare.net/takahirokatagiri58/a-tand-bigdata201507hp2自動チューニングとビックデータ:機械学習の適用の可能性554Jul 23 2015
    https://www.slideshare.net/dena_tech/gameai-denatechcon強化学習を利用した自律型GameAIの取り組み~高速自動プレイによるステージ設計支援~#denatechcon553Feb 27 2017
    https://www.slideshare.net/businessanalytics/ba-frd20140516機械学習の枠組みによる不正アカウント検知552May 22 2014
    https://www.slideshare.net/DDBJslide/ddbj-challenge-2016[DDBJChallenge2016]機械学習と予測モデルコンペティション538Jul 13 2016
    https://www.slideshare.net/itakigawa/ss-72983543道具としての機械学習:直感的概要とその実際532Mar 9 2017
    https://www.slideshare.net/s-cubism-recruit/tensorflow-60654000機械学習ライブラリ:TensorFlow520Apr 8 2016
    https://www.slideshare.net/MasatoNakai1/ss-66579130機械学習の全般について511Sep 29 2016
    https://www.slideshare.net/ketancho/3-38282577機械学習勉強会#3508Aug 23 2014
    https://www.slideshare.net/techblogyahoo/yjdsw4「なぜビッグデータが選挙の予測を可能にするのか」#yjdsw4498Apr 15 2016
    https://www.slideshare.net/ssuser0d6ccf/rss-40140703機械学習を取り入れたRSS拡張489Oct 11 2014
    https://www.slideshare.net/ssuserc768a6/ss-53648197入門パターン認識と機械学習3章471Oct 7 2015
    https://www.slideshare.net/f-hasegawa/ss-58416740[機械学習]文章のクラス分類467Feb 18 2016
    https://www.slideshare.net/businessanalytics/rank20140729機械学習の枠組みによる検索表示ランク最適化464Jul 31 2014
    https://www.slideshare.net/DDBJslide/ddbj-challenge-2016-63977094[DDBJChallenge2016]機械学習コンペティションにおける予測モデリング手法の傾向461Jul 13 2016
    https://www.slideshare.net/Club86_Startup_School/1it-iot-fintech【新春特別無料セミナー】【学生も歓迎】1時間でITの流行を理解する!機械学習IoT人工知能ビッグデータFinTechてんこ盛り448Jan 27 2016
    https://www.slideshare.net/tomohirogoya1/ss-64208475レゴと機械学習を組み合わせた438Jul 20 2016
    https://www.slideshare.net/ErikoNomoto/4-71020209続・わかりやすいパターン認識4章(関西機械学習勉強会発表スライド)437Jan 14 2017
    https://www.slideshare.net/katsuhiromorishita/ss-73022699機械学習と主成分分析436Mar 10 2017
    https://www.slideshare.net/KosukeNakago/seranetSeRanet433Jun 23 2016
    http://www.slideshare.net/DaikiHiraoka1/ss-63662351より身近になった機械学習427Jul 2 2016
    https://www.slideshare.net/Ysumie/dotslt-63122025dots.女子部 機械学習勉強会LT427Jun 16 2016
    https://www.slideshare.net/palloc/ss-75386701機械学習×セキュリティ425Apr 25 2017
    https://www.slideshare.net/HadoopSummit/business-innovation-cases-driven-by-ai-and-bigdata-technologiesBusinessInnovationcasesdrivenbyAIandBigDatatechnologies420Oct 31 2016
    https://www.slideshare.net/ssuser77b8c6/1-70932963スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ)1章411Jan 12 2017
    https://www.slideshare.net/taichinishimura2/ss-66913521初心者機械学習:アーティスト推薦システム382Oct 9 2016
    http://www.slideshare.net/ooyabuy/107-15623664パターン認識と機械学習 演習1.07369Dec 13 2012
    http://www.slideshare.net/ooyabuy/208-15623821パターン認識と機械学習 演習2.08364Dec 13 2012
    https://www.slideshare.net/HirotoYamatsuka/python-60161853タコスで機械学習Python編337Mar 29 2016
    https://www.slideshare.net/kz-takahashi/aws-cloudtrail機械学習を用いたAWSCloudTrailログの積極的活用327Jul 25 2016
    https://www.slideshare.net/dcubeio/x86-64-20170212機械学習を支えるX8664の拡張命令セットを読む会20170212319Feb 20 2017
    http://www.slideshare.net/ooyabuy/224-15623862パターン認識と機械学習 演習2.24318Dec 13 2012
    https://www.slideshare.net/ooyabuy/206-15623801パターン認識と機械学習 演習2.06306Dec 13 2012
    https://www.slideshare.net/NAIST_IS/2016-63635391サマーセミナー2016:機械学習入門と脳インターフェイスへの応用304Jul 1 2016
    http://www.slideshare.net/ooyabuy/117-15623768パターン認識と機械学習 演習1.17301Dec 13 2012
    https://www.slideshare.net/ssuser77b8c6/2325-71012245スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ)2.3節〜2.5節296Jan 14 2017
    https://www.slideshare.net/codeblue_jp/cb16-takaesu-ja[CB16]機械学習でWebアプリケーションの脆弱性を見つける方法by高江須勲293Nov 8 2016
    https://www.slideshare.net/ssuser77b8c6/3334-71005251スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ)3.3節と3.4節287Jan 14 2017
    https://www.slideshare.net/babaroa/it5-68198572ITエンジニアのための機械学習理論入門 第5章284Nov 4 2016
    https://www.slideshare.net/ssuserc768a6/12-56401037入門パターン認識と機械学習12章284Dec 23 2015
    https://www.slideshare.net/hajimesaito35728/dtm-58812236メタデータを活用した機械学習によるDTMでの音色づくりの効率化282Feb 28 2016
    https://www.slideshare.net/moguranosenshi/ss-46207887機械学習を用いたニ格深層格の自動付与の検討269Mar 24 2015
    https://www.slideshare.net/ssuser77b8c6/42-71005279スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ)4.2節267Jan 14 2017
    https://www.slideshare.net/LaboratoryOfHiThinkCorporation/ss-72262849機械学習とこれを支える並列計算:ディープラーニング・スーパーコンピューターの応用について257Feb 17 2017
    https://www.slideshare.net/takaoleparadoxe/tensor-flow-lt20170118Tensorflowと機械学習に必要な数学を基礎から学ぶ会lt_20170118246Jan 24 2017
    https://www.slideshare.net/s-cubism-recruit/azure-57647604Azureで動いている機械学習のいろいろについて236Jan 29 2016
    https://www.slideshare.net/HidetoMasuoka/deep-learning-72184817「機械学習とは?」から始めるDeeplearning実践入門220Feb 15 2017
    https://www.slideshare.net/ssuserc768a6/15-57009319入門パターン認識と機械学習15章219Jan 13 2016
    https://www.slideshare.net/ssuser77b8c6/3-71715148劣モジュラ最適化と機械学習3章212Feb 3 2017
    https://www.slideshare.net/myui/7bdi機械学習のデータ並列処理@第7回BDI研究会196Mar 30 2017
    https://www.slideshare.net/ShinobuKimura/20161028-6777994820161028_最近流行りの機械学習を紹介してみる184Oct 28 2016
    https://www.slideshare.net/hajimesaito35728/dtm-58812092メタデータを活用した機械学習によるDTMでの音色づくりの効率化180Feb 28 2016
    https://www.slideshare.net/jimaoka/1-661967341日で分かった気になる機械学習179Sep 20 2016
    https://www.slideshare.net/ssuserc768a6/13-57823208入門パターン認識と機械学習13章169Feb 3 2016
    https://www.slideshare.net/shouheitai/web-62652426Webエンジニアが初めて機械学習に触れてみた話168Jun 2 2016
    https://www.slideshare.net/ItaruOtomaru/ss-69828781勉強会資料 トピック紹介「音楽と機械学習」167Dec 5 2016
    https://www.slideshare.net/ssuser77b8c6/1-69496657【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章163Nov 24 2016
    http://www.slideshare.net/ssuser77b8c6/25-71714920劣モジュラ最適化と機械学習2.5節158Feb 3 2017
    https://www.slideshare.net/babaroa/ss-72616162機械学習関連情報の収集方法156Feb 27 2017
    https://www.slideshare.net/ShintaroNomura/2-70023698言語処理のための機械学習入門#2155Dec 11 2016
    http://www.slideshare.net/ssuser77b8c6/24-71715085劣モジュラ最適化と機械学習2.4節144Feb 3 2017
    https://www.slideshare.net/LaboratoryOfHiThinkCorporation/ss-72123769機械学習とこれを支える並列計算:並列計算の現状と産業応用について137Feb 14 2017
    https://www.slideshare.net/yuukinakajima794/machine-learning-studiojazug1Machinelearningstudioで機械学習にトライ!(jazug信州1周年記念)137Feb 3 2016
    https://www.slideshare.net/1yamakyo/rss-63683063機械学習を取り入れたRss拡張135Jul 3 2016
    https://www.slideshare.net/hajimesaito35728/dtmfor-fit2016DTMでの音色検索を対象とした機械学習アルゴリズムの提案(forFIT2016)131Sep 2 2016
    https://www.slideshare.net/kitora/ss-68054431機械学習とデータ分析プロセス123Nov 2 2016
    https://www.slideshare.net/ssuserb20aae/python-62351332Python機械学習入門106May 24 2016
    https://www.slideshare.net/itakigawa/94-71669875多数のグラフからの統計的機械学習(人工知能学会第94回人工知能基本問題研究会招待講演)96Feb 2 2017
    https://www.slideshare.net/KosukeSugahara/wacker-8-69308235Wacker8機械学習85Nov 20 2016
    https://www.slideshare.net/ayatoshimada/4-71715916『劣モジュラ最適化と機械学習』4章83Feb 3 2017
    https://www.slideshare.net/Hironsan/kintone-handsonkintonex機械学習で実現する簡単名刺管理81Nov 14 2016
    https://www.slideshare.net/y-uti/python-3-75891881分類問題-機械学習ライブラリscikit-learnの活用73May 11 2017
    https://www.slideshare.net/ekaminuma/20161201-ddbj[2016-12-01]DDBJデータ解析チャレンジ報告:機械学習コンペティションのタスク設計とルール設定64Dec 2 2016
    https://www.slideshare.net/ubilab_naist/dicomo20160704-70952804通行量センシングと機械学習に基づく飲食店用不動産賃料推定61Jan 12 2017
    https://www.slideshare.net/dasoran/ss-70256483現場で機械学習を使うまで58Dec 19 2016
    https://www.slideshare.net/hajimesaito35728/dtm-72482125機械学習を利用したDTM音色検索フィルタの提案と音色づくり支援システムへの適用46Feb 23 2017
    https://www.slideshare.net/ssuser77b8c6/ss-70016485【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章37Dec 10 2016
    https://www.slideshare.net/AtsuhiroNarita/rtb-73451331RTBにおける機械学習システムの実装と運用16Mar 22 2017
    http://pt.slideshare.net/hamukazu/python-62212519?nomobile=truePythonによる機械学習NA20 de mai de 2016
    http://pt.slideshare.net/SASJapan/sas-51892130?nomobile=trueSASによる機械学習入門NA21 de ago de 2015
    https://pt.slideshare.net/shotarosano5/in-62843951ディリクレ過程に基づく無限混合線形回帰モデルin機械学習プロフェッショナルシリーズ輪読会NA8 de jun de 2016
    https://pt.slideshare.net/mobile/techblogyahoo/devsumi-58688249ヤフオク!における機械学習~深層学習、分散表現~#devsumiNA25 de fev de 2016
    https://fr.slideshare.net/issei_sato/bayesian-nonparametrics?ref=“基礎”からのBayesianNonparametrics-点過程と機械学習の数理-NA21 déc. 2012
    https://pt.slideshare.net/ssuserb5817c/python-66169435Pythonで動かして学ぶ機械学習入門_予測モデルを作ってみようNA19 de set de 2016
    https://pt.slideshare.net/mobile/tkm2261/scikit-learnScikitlearnで学ぶ機械学習入門NA1 de dez de 2014
    http://pt.slideshare.net/devsumi/17e3?smtNoRedir=1【17-E-3】オンライン機械学習で実現する大規模データ処理NA20 de fev de 2012

    一応、SlideShareのURLのCSVファイル(N行1列のデータ)があれば取得できるPythonコード(2系)を載せておきます。

    Japan.R 2016のスライドまとめ

    まだ手に入れていないスライドもあるので随時更新しますが、Japan.R 2016(connpass)のスライドをまとめています。後日、登場したパッケージなどのサンプルコードも載せていく予定です。

    目次

    ・石田基広さんのキーノート
    ・ホクソエムとは何だったのか(ホクソエムさん)
    ・Rと探索的データ分析で、国連での日本の立ち位置を可視化する(安田洋介さん)
    ・マウス操作でかんたん予測分析(鈴木了太さん)
    ・高速・省メモリにlibsvm形式でダンプする方法を研究してみた(@hskksk)
    ・Rでてんしょくかつどう(@Med_KU)
    ・RStudio vs Emacs(@y__mattu)
    ・randomforestで高次元の変数重要度見る(@siero5335)
    ・Rで本を作りたい(前田和寛さん)
    ・28歳でプログラミングを始めた話(市川太祐さん)
    ・LDA-Visパッケージのご紹介(@doradora09)
    ・【e2d3R】E2D3からDot-Bar-Chartのご紹介(楠本一哲さん)
    ・このIRのグラフがすごい!上場企業2016(@ito_yan)
    ・Rでカルマンフィルタをしたい(@tetsuroito)
    ・PPAP(仮)(@yutannihilation)
    ・スライド未公開、ユーザーの状態遷移に関する分析のお話(@sanoche16)
    ・私とR(高栁慎一さん)
    ・めくってもめくってもサンプル画像(服部恵美さん)
    ・木と電話と選挙(causalTree)(安井翔太さん)
    ・スライド未公開、dplyrの話(@tomomoto)
    ・てかLINEやってる?(仮)(@wonder_zone)
    ・心理学における「再現性」の問題とBayes Factor(@NSushi)

    ・石田基広さんのキーノート

    スライド未公開です。

    ・Linux使い
    ・ヘブライ語の意味構造を代数学でやっていた
    ・S/R言語の生みの親はJohn Chambers
     以下の二つは最近書かれた本だそうです。
     Software for Data Analysis: Programming with R (Statistics and Computing)
     Extending R (Chapman & Hall/CRC The R Series)
    ・S→S-plus→Rの順番で発展
    ・purrrを最近使い始めたそうです。
    ・XLConnectパッケージを使って、大学教員の採点活動を効率化しているそうです。

    ・ホクソエムとは何だったのか(ホクソエムさん)

    匿名技術者集団ホクソエムの2016年の成果
    ・densratio( densratio: Density Ratio Estimation
    ・githubinstall
    githubinstall: A Helpful Way to Install R Packages Hosted on GitHub
    ・healthplanet( Wrapper package for healthplanet api
    ・RODBCDBI
    RODBCDBI: Provides Access to Databases Through the ODBC Interface
    ・jpmesh( jpmesh: Utilities for Japanese Mesh Code

    起業されたとのことです。懸命に頑張って下さい!
    株式会社ホクソエム

    awesomeな人材が必要とのことで、awesomeな方はアプライしてみてはいかがでしょうか。

    ・Rと探索的データ分析で、国連での日本の立ち位置を可視化する(安田洋介さん)

    スライド未公開です。
    国連のデータを使って、Exploratoryを用いた探索的データ分析の実演をされていました。

    ・マウス操作でかんたん予測分析(鈴木了太さん)

    R AnalyticFlow
    Rで実践!データサイエンス~初めの一歩から高度な応用まで~

    ・高速・省メモリにlibsvm形式でダンプする方法を研究してみた(@hskksk)

    ・Rでてんしょくかつどう(@Med_KU)

    Rmd でreveal.js のhtml スライドプレゼンテーション

    ・RStudio vs Emacs(@y__mattu)

    RStudio vs Emacs Japan.R 2016

    ・randomforestで高次元の変数重要度見る(@siero5335)

    ・Rで本を作りたい(前田和寛さん)

    Rで本を作りたい

    ・28歳でプログラミングを始めた話(市川太祐さん)

    ・医療関連のアプリ開発でデータサイエンスを駆使しようとしているそうです。

    スライド未公開です。
    スライドがシェアされ次第載せます。

    ・LDA-Visパッケージのご紹介(@doradora09)

    ・【e2d3R】E2D3からDot-Bar-Chartのご紹介(楠本一哲さん)

    スライドは未公開です。
    E2D3をRで表示する試みのようです。
    Experiments with e2d3 in R

    ・このIRのグラフがすごい!上場企業2016(@ito_yan)

    スライド未公開です。後日シェアしていただけるようです。

    ・Rでカルマンフィルタをしたい(@tetsuroito)

    ・PPAP(仮)(@yutannihilation)

    ・スライド未公開、ユーザーの状態遷移に関する分析のお話(@sanoche16)

    スライドがシェアされ次第載せます。

    ・私とR(高栁慎一さん)

    RjpWiki
    統計・データ解析
    統計解析フリーソフト R の備忘録頁 ver.3.1
    seekR(R限定の検索エンジン)
    からだにいいもの
    アブラタニブログってなんでしょう。油谷さんのブログ?

    ・めくってもめくってもサンプル画像(服部恵美さん)

    Rのサンプルコードはあるけれども、どんな図ができるのかはわからない。そこで、サンプルコードとグラフを大量にまとめているサイトを作ったそうです。検索性は未知数ですが、暇なときに眺めておきたいですね。
    R Graphical Manual

    ・木と電話と選挙(causalTree)(安井翔太さん)

    ・スライド未公開、dplyrの話(@tomomoto)

    スライドがシェアされ次第載せます。

    ・てかLINEやってる?(仮)(@wonder_zone)

    ・心理学における「再現性」の問題とBayes Factor(@NSushi)

    スライドは後日公開とのことです。

    scikit-learnのモジュールのGitHubでの利用頻度を調べてみた

    『Python機械学習プログラミング』を読んで、scikit-learnのモジュールは充実しているなぁと感じたんですが、実際にWebサイトでUser Guide( http://scikit-learn.org/stable/user_guide.html )を見た所、この本に載り切らないような数多くの機械学習手法に応じたモジュールが用意されていました。そこで、世のデータサイエンティストはどのモジュールを良く使っているのだろうと気になったので、GitHubのSearchでヒットしたCodeの数を各モジュール単位で集計してみました。検索クエリは「scikit-learn + モジュール名」なので、正確なものではないのですが、相対的な利用頻度を見るぶんには使えるのではないかと思われます。

    データ集計方法

    ・User Guideに登場するscikit-learnのモジュール名を集めています。
    ・教師付き学習か教師無し学習かどうかの判断は、User Guideで紹介されているモジュールかどうかで判断しています。
    ・GitHubのSearchで「scikit-learn + モジュール名」でヒットした件数をそのまま使っています。(2016年9月22日時点)

    可視化コード

    Jupyterで実行しています。

    教師付き学習編

    圧倒的に多いのがSVM(Support Vector Machine)を扱っているSVCモジュールで、続いて定番のロジスティック回帰やRandom Forestが使われているようです。統計解析ではメジャーなはずの線形回帰が5位なのは、初歩的なのであまりコードがアップされていないのかもしれません。GBDTのモジュールももう少し上位にくるかと思ったんですが15位でした。DMLCのXGBoostモジュールを使っているのかもしれませんね。私も実際のところXGBoostを使ってますし。

    supervised_module_barplot

    教師無し学習編

    主成分分析やK-mean法など因子分解などのモジュールが上位を占めています。LDA(Latent Dirichlet Allocation)がもっと上位に来ると思ったんですが、思えばGensimの方が充実しているなぁと思うので、このランキングは妥当なのかもしれません。私もLDAなどはGensimを使っていますし。

    unsupervised_module_barplot

    収集を終えて

    ・社内だとデータサイエンティストの方がいないので、scikit-learnのモジュールの利用状況を知れてマニアックな共感をすることができた。
    ・SVMは実践例が豊富そうなので分析事例を探せば良い発見があるかもしれない。
    ・scikit-learnのUser Guideは充実していたので、時間を作って向き合ってみたいと思った。