avatar of 发明者量化-小小梦 发明者量化-小小梦
フォロー ダイレクトメッセージ
4
フォロー
1271
フォロワー

機械学習とデータマイニングに関する一般的な用語

作成日:: 2017-03-20 09:58:22, 更新日::
comments   0
hits   2015

機械学習とデータマイニングに関する一般的な用語

  • サンプリング:

    • シンプル・ランダム・サンプリング (Simple Random Sampling) とは,
    • オフライン・サンプリング (OFFLINE SAMPLING) とは,
    • オンラインサンプリング (オンラインサンプリング) は,
    • Ratio-based Sampling (比率ベースのサンプリング)
    • 採集は,受容と拒絶の間で行われます.
    • 重要なサンプリング
    • MCMC ((MarkovChain Monte Carlo マルコフ・モンテカルロ サンプリングアルゴリズム:Metropolis-Hasting& Gibbs) について
  • クラスタリング:

    • K-Means,
    • K-Mediods,
    • “K-Means”は”K-Means”の2分の1です
    • FK-Means,
    • Canopy,
    • ゲノム解析の分野では,
    • GMM-EM (混合ガースモデル) - 最大化アルゴリズムで解決したい)
    • “K-Pototypes,CLARANS”は”分類に基づいた”と書かれています.
    • BIRCH (階層による)
    • CURE (階層による)
    • DBSCANでは,
    • CLIQUE ((密度ベースとグリッドベース) 〜)
  • Classification&Regression (分類と回帰) について

    • 線形回帰は 線形回帰で 線形回帰は線形回帰で
    • 論理回帰は,論理的な回帰であり,論理的な回帰は,論理的な回帰である.
    • SR (Softmax Regression) は,リグレーションの論理回帰のクラスで,
    • GLM (Generalized Linear Model) は,一般化された線形モデルであり,
    • RR (リッジ回帰回帰/L2正の最小二乗回帰)
    • LASSO ((Least Absolute Shrinkage andSelectionator Operator L1 正則最小二乗回帰) は,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOは,LASSOとLASSOの両方から,
    • 森林の森は,自然に生息する
    • ブログの記事では,DTは,
    • GBDT (グラデーション・ブースト・ディシジョン・ツリー) は,
    • CART (ClassificationAnd Regression Tree) は,ClassificationAnd RegressionTree (分類と回帰木) と呼ばれ,CARTは,ClassificationAnd RegressionTree (分類と回帰木) と呼ばれている.
    • “K-Nearest Neighbor K”は”K-Nearest Neighbor K”の”K”と”K”の”K”の”K”の”K”の”K”の”K”の”K”の”K”の”K”と”K”の”K”を意味する.
    • SVM(Support VectorMachine),
    • KF ((KernelFunction) カーネル関数 ポリノミアルカーネル関数 多項式カーネル関数
    • Guassian KernelFunction ガーシアン・カーネル・ファンクション/ラディアル・ベース・ファンクション RBF 径向基関数
    • String KernelFunction (ストリング・カーネル・ファンクション)
    • NB ((Naive Bayes) 素朴なベイス),BN ((Bayesian Network/Bayesian Belief Network/Belief Network ベイスネットワーク/ベイス信条ネットワーク/信念ネットワーク) は,ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス)
    • LDA ((Linear Discriminant Analysis/Fisher 線形差別分析/フィッシャー 線形差別分析) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれている.
    • “Ensemble Learning”は”Boosting,Bagging,Stacking”を統合した学習システムであり,
    • Adaptive Boosting (アダプティブ・ブースト) は,自主的に強化されたシステムです.
    • MEM (最大エントロピーモデル最大モデル)
  • 効果評価 (Effectiveness Evaluation): 効果評価の分類について

    • 混乱のマトリックス (Confusion Matrix) は
    • “Precision”は”精度” “Recall”は”リコール”で
    • “F-score” (F-スコア) は”精度 (精度) “と”F-score (Fスコア) “で表されています.
    • ROC カーブ,AUC,AUC面積,
    • LiftCurve (リフトカーブ),KS Curve (KSカーブ) について
  • PGM ((Probabilistic Graphical Models) 確率グラフモデル: 確率グラフモデルとは,確率グラフモデルのモデルである.

    • BN ((Bayesian Network/Bayesian Belief Network/BeliefNetwork ベイジアンネットワーク/ベイジアン信念ネットワーク/信念ネットワーク ベイジアンネットワーク/ベイジアン信念ネットワーク/BeliefNetwork ベイジアンネットワーク/ベイジアン信念ネットワーク/BeliefNetwork ベイジアンネットワーク/ベイジアン信念ネットワーク/BeliefNetwork ベイジアン信念ネットワーク/ベイジアン信念ネットワーク)
    • マルコフ・チェーンは,マルコフ・チェーンは,マルコフ・チェーンは,マルコフ・チェーンは.
    • HMM (隠されたマルコフモデル) は,
    • MEMM (最大エントロピーマルコフモデル) は,
    • CRF (Conditional Random Field) は,コンディショナルのランダムフィールド (Conditional Random Field) と呼ばれる.
    • MRF (マーコフランダムフィールド)
  • ニューラルネットワーク:

    • ANN (人工ニューラルネットワーク) は,インターネット上で,インターネット上で,インターネット上で,インターネット上で,インターネット上で,
    • BP ((Error BackPropagation バックプロパガンダの誤差の逆伝播) でした.
  • DeepLearning

    • 自動エンコーダー (Auto-encoder) とは,
    • SAE (Stacked Auto-encoders) は,スタックされたAuto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,
    • スパース・オート・エンコーダー (Sparse Auto-encoders) は 自動エンコーダーを稀に扱っている.
    • Denoising Auto-encodersは,自動エンコーダーの騒音を消し去ります.
    • Contractive Auto-encoders (コントラクティブ・オート・エンコーダー) は,インターネット上で最も広く利用されている
    • RBM (制限ボルトスマンマシン) は,RBM (制限ボルトスマンマシン) と呼ばれる.
    • DBN (ディープ・ビリーフ・ネットワーク) は,
    • ニューロンのネットワークは,そのネットワークの構成要素を構成する.
    • Word2Vec (ワードベクトル学習モデル)
  • サイズを減らす:

    • LDA LinearDiscriminant Analysis/Fisher Linear Discriminant 線形判別分析/フィッシャー線形判別は,LDAの線形判別分析とフィッシャー線形判別を組み合わせたものです.
    • PCA (Principal Component Analysis) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は
    • 独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,
    • SVD (単数値分解) とは,単数値分解の単数値分解を意味する.
    • FA (ファクター分析法)
  • テキスト・マイニング (テキスト・マイニング):

    • VSM (ベクトル空間モデル)
    • Word2Vec (ワードベクトル・ラーニング・モデル) は
    • “Term Frequency”は”頻度”という用語で,
    • TF-IDF (Term Frequency-Inverse DocumentFrequency) は,インターネット上で利用できる,
    • MI (MutualInformation) は,インターネット上で,
    • ECEは”予想されるクロスエントロピー”と”予想されるクロスエントロピー”を定義しています.
    • QEMI (二次情報マップ) は,
    • IG (インフォメーション・ゲイン)
    • IGR (情報獲得比率) は,インターネットの利用率を比較すると,
    • グラフの上の数字は,
    • x2 統計 (x2 統計量)
    • TEW (テキストエビデンス・ウェイト) は,
    • オーダーレート (Odds Ratio) の優位率は,
    • N-Gram Model,
    • LSAは”潜在的セマンティック分析”で,LSAは”潜在的セマンティック分析”で,LSAは”潜在的セマンティック分析”で,LSAは”潜在的セマンティック分析”で,
    • PLSA (ProbabilisticLatent Semantic Analysis) は,概率に基づく潜在的意味論分析であり,PSA (Probabilistic Latent Semantic Analysis) は,PSA (Probilistic Latent Semantic Analysis) と呼ばれている.これは,PSA (Probabilistic Latent Semantic Analysis) は,PSA (Probabilistic Latent Semantic Analysis) と呼ばれている.
    • LDA ((Latent DirichletAllocation潜在ディリクレールモデル) について.
  • アソシエーション・マイニング:

    • Apriori,
    • FP-growth (FP-growth) は,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,
    • AprioriAll,
    • Spade。
  • Recommendation Engine (推奨エンジン) は

    • DBR (人口統計に基づく推薦) は,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で)
    • CBR (コンテクストベース・レコメンデーション) は,コンテクストベース・レコメンデーション (コンテクストベース・レコメンデーション) であり,コンテクストベース・レコメンデーション (コンテクストベース・レコメンデーション) は,コンテクストベース・レコメンデーション (コンテクストベース・レコメンデーション) である.
    • CF (コラボレーション・フィルタリング)
    • UCF (ユーザーベースの協同フィルタリング推奨) は,
    • ICF (アイテムベースのコラボレーションフィルタリング勧告)
  • Similarity Measure&Distance Measure (類似性と距離の測定): 類似性と距離の測定

    • ユークリッドの距離は
    • マンハッタン・ディスタンス (ManhattanDistance) は,
    • チェビシェフ距離 (チェビシェフ距離) は,チェビシェフの近隣にある
    • ミンコフスキー距離 (MinkowskiDistance) とは,ミンコフスキー距離 (MinkowskiDistance) とは,ミンコフスキー距離 (MinkowskiDistance) とは,
    • 標準化されたユークリッド距離 (Standardized Euclidean Distance) は,標準化されたユークリッド距離 (Standardized Euclidean Distance) と呼ばれる.
    • マハラノビスの距離は
    • コーセインの余弦
    • ハミングディスタンス/エディットディスタンス
    • ジャッカード・ディスタンス (ジャッカード・ディスタンス) は,
    • 関連系数距離は,
    • “情報エントロピー”は
    • KL ((Kullback-Leibler Divergence KL散度/Relative Entropyは相対的にである)
  • Feature Selection (特徴選択アルゴリズム):

    • 相互情報 (Mutual Information) について
    • “ドキュメントの頻度”は”ドキュメントの頻度”と定義されています.
    • “情報獲得”は,
    • 千平方テストは,
    • 基ニ系数 (ギニ系数)
  • アウトリアー検出:

    • 統計に基づく (統計に基づく)
    • 遠隔地から,
    • 密度ベースで
    • Clustering-based (クラスタリングベースの) 。
  • ランク付けの学習 (Learning to Rank):

    • Pointwise:McRank;
    • Pairwise:RankingSVM,RankNet,Frank,RankBoost;
    • Listwise:AdaRank,SoftRank,LamdaMART。