機械学習とデータマイニングに関する用語

作者: リン・ハーン小さな夢作成日: 2017-03-20 09:58:22, 更新日:

機械学習とデータマイニングに関する用語

  • サンプリング (サンプリング):

    • 簡単なランダムサンプリング (Simple Random Sampling)
    • OfflineSampling (オフラインのKサンプルなど)
    • オンライン・サンプリング (オンライン・サンプリングなど可能)
    • Ratio-based Sampling (比率ベースのサンプリング)
    • アクセプション・リジェクション・サンプリング
    • 重要なサンプリング
    • MCMC ((MarkovChain Monte Carlo マルコフ・モンテカーロサンプリングアルゴリズム:Metropolis-Hasting&Gibbs) 』
  • クラスタリング (クラスタ):

    • K-は,
    • Kメディオッド
    • 2分Kは意味しています
    • FK-Means は
    • カノピー
    • ゲノム解析の分野では,
    • GMM-EM (混合ガースモデル - 最大化アルゴリズムが解決されることを期待する)
    • K-Pototypes,CLARANS (区分に基づく) は,K-PototypesとK-Pototypesを比較した.
    • BIRCH (レベルによって)
    • CURE (階層による) は,
    • DBSCAN (密度による)
    • CLIQUE (密度ベース,格子ベース) 〜
  • Classification&Regression (分類&回帰) は,次のとおりです.

    • LR (リニアリグレッション)
    • LR (ロジスティック・レグレッション・ロジカル・レグレーション)
    • SR (ソフトマックス回帰,おそらくクラス論理回帰)
    • GLM (Generalized Linear Model) とは,一般的線形モデルを意味する.
    • RR (リッジ回帰回転/L2正規最小二乗回転)
    • LASSO (最小絶対縮小と選択演算子 L1 規則最小二乗回帰)
    • ランダムな森
    • DT (DecisionTree) は,インターネット上で,
    • GBDT (Gradient Boosting Decision Tree) は,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を,グラデントブーシングの決定樹を) と呼ばれる.
    • CART (ClassificationAnd Regression Tree) は,Classification and Regression Tree (分類と回帰の樹) と呼ばれ,CART (Classification and Regression Tree) は,CART (分類と回帰の樹) と呼ばれています.
    • KNN (K-Nearest Neighbor K近隣の隣人)
    • SVM (Support VectorMachine) サポートする
    • KF ((KernelFunction) 核関数 PolynomialKernel Function 多項式核関数,
    • Guassian KernelFunction ガース核関数/ラディアルベース関数 RBF径向基関数
    • 文字列のカーネル関数 (String KernelFunction)
    • NB (ナイブ・ベイズ・朴素・ベイズ),BN (ベイジアン・ネットワーク/ベイジアン・信念ネットワーク/信念ネットワーク)
    • LDA (Linear Discriminant Analysis/FisherLinear Discriminant Analysis/フィッシャー線形差別分析) は,線形差別分析を指す.
    • EL (Ensemble Learning) は,Boosting,Bagging,Stackingの学習を統合しています.
    • アダプティブ・ブーシング (Adaptive Boosting) は,アダプティブ・ブーシング (Adaptive Boosting) と呼ばれ,
    • MEM (最大エントロピーモデル最大模型) 〔MEM〕
  • 効果評価:

    • 混乱マトリックス (Confusion Matrix) とは
    • 精度 (精度),リコール (リコール率)
    • 精度 (精度),Fスコア (Fスコア)
    • ROC曲線 (ROC曲線),AUC (AUC面積)
    • リフト・カーブ,KS・カーブ.
  • PGM (Probabilistic Graphical Models の確率グラフモデル) は,

    • BN (Bayesian Network/Bayesian Belief Network/BeliefNetwork) バイエスネットワーク/バイエス信念ネットワーク/信念ネットワーク)
    • マルコフ・チェーン (Markov Chain) とは
    • HMM (Hidden Markov Model) は,マルコフモデルについて説明しています.
    • MEMM (最大エントロピーマルコフモデル)
    • CRF (条件付きランダムフィールド)
    • MRF (マルコフ・ランダム・フィールド,マルコフ・ランダム・空港)
  • NN (ニューラルネットワーク):

    • アリフィシャルニューラルネットワーク (ANN) は,
    • BP (Error BackPropagation) は,バクプロパケーションの誤りである.
  • ディープラーニング

    • オートエンコーダー (自動エンコーダー)
    • SAE (Stacked Auto-encoders) は,自動エンコーダーをスタックし,
    • スパース・オート・エンコーダーは,自動エンコーダを稀にする.
    • 自動エンコーダーを騒音化させるAuto-encodersを否定する
    • 契約型自動エンコーダー (Contractive Auto-encoders) は,
    • RBM (Restricted Boltzmann Machine) は,ボルトツマンの制限されたマシンで,
    • ディープ・ベリーフ・ネットワーク (DBN) は,
    • CNN (CNN) は,このニューロンの"つである"コンボリュショナル・ニューラル・ネットワーク"について,
    • Word2Vec (ワードベクトル学習モデル) ー
  • DimensionalityReduction (次元縮小) とは

    • LDA Linear Discriminant Analysis/フィッシャー線形差別分析/フィッシャー線形差別分析
    • PCA (プリンシパルコンポーネント・アナリスト)
    • ICA (Independent Component Analysis) とは,独立成分分析 (Independent Component Analysis) と呼ばれ,独立成分分析 (Independent Component Analysis) と呼ばれている.
    • SVD (単数値分解)
    • FA (因子分析法)
  • テキスト・マイニング (テキスト・マイニング)

    • VSM (ベクトル空間モデル)
    • Word2Vec (ワードベクトル学習モデル) は,
    • TF (Term Frequency) は,英語の英語の英語の英語の英語の英語の英語の英語です.
    • TF-IDF (Term Frequency-Inverse Document Frequency) は,文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す文字の周波数 (文字の周波数) を表す) を表
    • MI (MutualInformation) は,この記事で,
    • ECE (Expected Cross Entropy) とは, 期待される交差エントロピー (ECE) と呼ばれるものです.
    • QEMI (二次情報局) は,
    • IG (InformationGain) は,情報獲得に関するサイトです.
    • メディアの情報獲得率 (IGR) は,
    • ゲニ (ギニ系数)
    • x2 Statistic (x2統計量) は,x2の統計値が,x2の統計値が,x2の統計値が,x2の統計値が,x2の統計値が,x2の統計値が,x2の統計値が,x2の統計値が
    • TEW (TextEvidence Weight) は,テキストの証拠権について,
    • OR (オッズ比率) 優位性
    • Nグラムモデル
    • LSA (潜在語義解析) は,言語言語の言語言語の言語言語の言語の言語の言語の言語の言語の言語の言語である.
    • PLSA (Probabilistic Latent Semantic Analysis) は,確率に基づいた潜在的な意味分析を指しています.
    • LDA (潜伏 Dirichlet Allocation 潜在ディリクレモデル)
  • アソシエーション・マイニング (関連採掘):

    • 先ずは
    • FP-growth (Frequency Pattern Tree Growth) とは,Frequency Pattern Tree Growth (Frequency Pattern Tree Growth) とは,Frequency Pattern Tree Growth (Frequency Pattern Tree Growth) とは,Frequency Pattern Tree Growth (FPG) とは,Frequency Pattern Tree Growth (FPG) とは,Frequency Pattern Tree Growth (FPG) とは,Frequency Pattern Tree Growth (FPG) とは,
    • 初めまして
    • スケード
  • 推薦エンジン:

    • DBR (Demographic-based Recommendation) は,人口統計学に基づく推奨事項として,
    • CBR (Context-basedRecommendation) は,本文に基づく推薦で,本文による推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文に基づく推薦で,本文の推薦が,本文に掲載されている.
    • CF (コラボレーションフィルタリング)
    • UCF (User-based Collaborative Filtering Recommendation) は,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリングの推薦を,ユーザーによる共同フィルタリング
    • ICF (Item-based Collaborative Filtering Recommendation) は,プロジェクトによる共同フィルタリングの推奨事項である.
  • 類似度測定&距離測定 (類似度と距離測定)

    • ユークリッド距離
    • マンハッタン・ディスタンス
    • チェビシェフ距離 (チェビシェフ距離)
    • ミンコフスキー距離 (ミンスキー距離)
    • 標準化されたユークリッド距離 (Standardized Euclidean Distance)
    • マハラノビス距離 (火星距離)
    • コス (Cosine 余弦)
    • HammingDistance/Edit Distance (ハミングディスタンス/編集距離) は,ハミングディスタンス/編集ディスタンスで,
    • ジャッカード距離 (ジャッカード距離)
    • 関連系数距離 (correlation coefficient distance) とは,
    • メディアの情報源は,
    • KL (Kullback-Leibler Divergence KL散乱/相対エントロピー相対)
  • 機能選択 (機能選択アルゴリズム):

    • 相互情報
    • 文書の頻度 (Document Frequence) は,
    • メディアの情報獲得は
    • カート・サイドテストは,
    • キニ系数 (Gini coefficient) は,
  • アウトリアー検出 (Outlier Detection)

    • 統計に基づいた
    • 遠隔に基づく (距離に基づく)
    • 密度ベースで
    • クラスタリングベースの.
  • ランク付けを学ぶ (学習に基づく順序):

    • マクランク
    • ランキングSVM,ランクネット,フランク,ランクブースト
    • アダランク,ソフトランク,ラムダマート.

もっと