ホーム
ストラテジー
ライブラリ
コミュニティ
APIドキュメント
ログイン
今すぐ登録
发明者量化-小小梦
フォロー
ダイレクトメッセージ
4
フォロー
1271
フォロワー
コミュニティ
Quantpedia
機械学習とデータマイニングに関する一般的な用語
機械学習とデータマイニングに関する一般的な用語
作成日:: 2017-03-20 09:58:22, 更新日::
0
2015
機械学習とデータマイニングに関する一般的な用語
サンプリング:
シンプル・ランダム・サンプリング (Simple Random Sampling) とは,
オフライン・サンプリング (OFFLINE SAMPLING) とは,
オンラインサンプリング (オンラインサンプリング) は,
Ratio-based Sampling (比率ベースのサンプリング)
採集は,受容と拒絶の間で行われます.
重要なサンプリング
MCMC ((MarkovChain Monte Carlo マルコフ・モンテカルロ サンプリングアルゴリズム:Metropolis-Hasting& Gibbs) について
クラスタリング:
K-Means,
K-Mediods,
“K-Means”は”K-Means”の2分の1です
FK-Means,
Canopy,
ゲノム解析の分野では,
GMM-EM (混合ガースモデル) - 最大化アルゴリズムで解決したい)
“K-Pototypes,CLARANS”は”分類に基づいた”と書かれています.
BIRCH (階層による)
CURE (階層による)
DBSCANでは,
CLIQUE ((密度ベースとグリッドベース) 〜)
Classification&Regression (分類と回帰) について
線形回帰は 線形回帰で 線形回帰は線形回帰で
論理回帰は,論理的な回帰であり,論理的な回帰は,論理的な回帰である.
SR (Softmax Regression) は,リグレーションの論理回帰のクラスで,
GLM (Generalized Linear Model) は,一般化された線形モデルであり,
RR (リッジ回帰回帰/L2正の最小二乗回帰)
LASSO ((Least Absolute Shrinkage andSelectionator Operator L1 正則最小二乗回帰) は,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOの両方から,LASSOとLASSOは,LASSOとLASSOの両方から,
森林の森は,自然に生息する
ブログの記事では,DTは,
GBDT (グラデーション・ブースト・ディシジョン・ツリー) は,
CART (ClassificationAnd Regression Tree) は,ClassificationAnd RegressionTree (分類と回帰木) と呼ばれ,CARTは,ClassificationAnd RegressionTree (分類と回帰木) と呼ばれている.
“K-Nearest Neighbor K”は”K-Nearest Neighbor K”の”K”と”K”の”K”の”K”の”K”の”K”の”K”の”K”の”K”の”K”と”K”の”K”を意味する.
SVM(Support VectorMachine),
KF ((KernelFunction) カーネル関数 ポリノミアルカーネル関数 多項式カーネル関数
Guassian KernelFunction ガーシアン・カーネル・ファンクション/ラディアル・ベース・ファンクション RBF 径向基関数
String KernelFunction (ストリング・カーネル・ファンクション)
NB ((Naive Bayes) 素朴なベイス),BN ((Bayesian Network/Bayesian Belief Network/Belief Network ベイスネットワーク/ベイス信条ネットワーク/信念ネットワーク) は,ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス・ベイス)
LDA ((Linear Discriminant Analysis/Fisher 線形差別分析/フィッシャー 線形差別分析) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれ,LDA (Linear Discriminant Analysis/Fisher) は,LDA (Linear Discriminant Analysis/Fisher) とも呼ばれている.
“Ensemble Learning”は”Boosting,Bagging,Stacking”を統合した学習システムであり,
Adaptive Boosting (アダプティブ・ブースト) は,自主的に強化されたシステムです.
MEM (最大エントロピーモデル最大モデル)
効果評価 (Effectiveness Evaluation): 効果評価の分類について
混乱のマトリックス (Confusion Matrix) は
“Precision”は”精度” “Recall”は”リコール”で
“F-score” (F-スコア) は”精度 (精度) “と”F-score (Fスコア) “で表されています.
ROC カーブ,AUC,AUC面積,
LiftCurve (リフトカーブ),KS Curve (KSカーブ) について
PGM ((Probabilistic Graphical Models) 確率グラフモデル: 確率グラフモデルとは,確率グラフモデルのモデルである.
BN ((Bayesian Network/Bayesian Belief Network/BeliefNetwork ベイジアンネットワーク/ベイジアン信念ネットワーク/信念ネットワーク ベイジアンネットワーク/ベイジアン信念ネットワーク/BeliefNetwork ベイジアンネットワーク/ベイジアン信念ネットワーク/BeliefNetwork ベイジアンネットワーク/ベイジアン信念ネットワーク/BeliefNetwork ベイジアン信念ネットワーク/ベイジアン信念ネットワーク)
マルコフ・チェーンは,マルコフ・チェーンは,マルコフ・チェーンは,マルコフ・チェーンは.
HMM (隠されたマルコフモデル) は,
MEMM (最大エントロピーマルコフモデル) は,
CRF (Conditional Random Field) は,コンディショナルのランダムフィールド (Conditional Random Field) と呼ばれる.
MRF (マーコフランダムフィールド)
ニューラルネットワーク:
ANN (人工ニューラルネットワーク) は,インターネット上で,インターネット上で,インターネット上で,インターネット上で,インターネット上で,
BP ((Error BackPropagation バックプロパガンダの誤差の逆伝播) でした.
DeepLearning
自動エンコーダー (Auto-encoder) とは,
SAE (Stacked Auto-encoders) は,スタックされたAuto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,Auto-encodersは,Auto-encodersで,
スパース・オート・エンコーダー (Sparse Auto-encoders) は 自動エンコーダーを稀に扱っている.
Denoising Auto-encodersは,自動エンコーダーの騒音を消し去ります.
Contractive Auto-encoders (コントラクティブ・オート・エンコーダー) は,インターネット上で最も広く利用されている
RBM (制限ボルトスマンマシン) は,RBM (制限ボルトスマンマシン) と呼ばれる.
DBN (ディープ・ビリーフ・ネットワーク) は,
ニューロンのネットワークは,そのネットワークの構成要素を構成する.
Word2Vec (ワードベクトル学習モデル)
サイズを減らす:
LDA LinearDiscriminant Analysis/Fisher Linear Discriminant 線形判別分析/フィッシャー線形判別は,LDAの線形判別分析とフィッシャー線形判別を組み合わせたものです.
PCA (Principal Component Analysis) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は,PCA (PCA) は
独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,独立コンポーネント分析 (ICA) とは,
SVD (単数値分解) とは,単数値分解の単数値分解を意味する.
FA (ファクター分析法)
テキスト・マイニング (テキスト・マイニング):
VSM (ベクトル空間モデル)
Word2Vec (ワードベクトル・ラーニング・モデル) は
“Term Frequency”は”頻度”という用語で,
TF-IDF (Term Frequency-Inverse DocumentFrequency) は,インターネット上で利用できる,
MI (MutualInformation) は,インターネット上で,
ECEは”予想されるクロスエントロピー”と”予想されるクロスエントロピー”を定義しています.
QEMI (二次情報マップ) は,
IG (インフォメーション・ゲイン)
IGR (情報獲得比率) は,インターネットの利用率を比較すると,
グラフの上の数字は,
x2 統計 (x2 統計量)
TEW (テキストエビデンス・ウェイト) は,
オーダーレート (Odds Ratio) の優位率は,
N-Gram Model,
LSAは”潜在的セマンティック分析”で,LSAは”潜在的セマンティック分析”で,LSAは”潜在的セマンティック分析”で,LSAは”潜在的セマンティック分析”で,
PLSA (ProbabilisticLatent Semantic Analysis) は,概率に基づく潜在的意味論分析であり,PSA (Probabilistic Latent Semantic Analysis) は,PSA (Probilistic Latent Semantic Analysis) と呼ばれている.これは,PSA (Probabilistic Latent Semantic Analysis) は,PSA (Probabilistic Latent Semantic Analysis) と呼ばれている.
LDA ((Latent DirichletAllocation潜在ディリクレールモデル) について.
アソシエーション・マイニング:
Apriori,
FP-growth (FP-growth) は,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,FP-growth (FP-growth) と呼ばれる,
AprioriAll,
Spade。
Recommendation Engine (推奨エンジン) は
DBR (人口統計に基づく推薦) は,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で,人口統計学に基づく推薦で)
CBR (コンテクストベース・レコメンデーション) は,コンテクストベース・レコメンデーション (コンテクストベース・レコメンデーション) であり,コンテクストベース・レコメンデーション (コンテクストベース・レコメンデーション) は,コンテクストベース・レコメンデーション (コンテクストベース・レコメンデーション) である.
CF (コラボレーション・フィルタリング)
UCF (ユーザーベースの協同フィルタリング推奨) は,
ICF (アイテムベースのコラボレーションフィルタリング勧告)
Similarity Measure&Distance Measure (類似性と距離の測定): 類似性と距離の測定
ユークリッドの距離は
マンハッタン・ディスタンス (ManhattanDistance) は,
チェビシェフ距離 (チェビシェフ距離) は,チェビシェフの近隣にある
ミンコフスキー距離 (MinkowskiDistance) とは,ミンコフスキー距離 (MinkowskiDistance) とは,ミンコフスキー距離 (MinkowskiDistance) とは,
標準化されたユークリッド距離 (Standardized Euclidean Distance) は,標準化されたユークリッド距離 (Standardized Euclidean Distance) と呼ばれる.
マハラノビスの距離は
コーセインの余弦
ハミングディスタンス/エディットディスタンス
ジャッカード・ディスタンス (ジャッカード・ディスタンス) は,
関連系数距離は,
“情報エントロピー”は
KL ((Kullback-Leibler Divergence KL散度/Relative Entropyは相対的にである)
Feature Selection (特徴選択アルゴリズム):
相互情報 (Mutual Information) について
“ドキュメントの頻度”は”ドキュメントの頻度”と定義されています.
“情報獲得”は,
千平方テストは,
基ニ系数 (ギニ系数)
アウトリアー検出:
統計に基づく (統計に基づく)
遠隔地から,
密度ベースで
Clustering-based (クラスタリングベースの) 。
ランク付けの学習 (Learning to Rank):
Pointwise:McRank;
Pairwise:RankingSVM,RankNet,Frank,RankBoost;
Listwise:AdaRank,SoftRank,LamdaMART。