This is an English-Japanese lexicon for Machine Learning and Deep Learning terminology, based on the translation work for the Machine Learning and Deep Learning cheatsheets created by @afshinea for Stanford's CS 229 Machine Learning and CS 230 Deep Learning. We have included the Japanese cheat sheet translations that were created and reviewed by a team of MLT members for each topic.
Yoshiyuki Nakai, Yuta Kanzawa, Hideaki Hamano, Tran Tuan Anh, Takatoshi Nao, Kamuela Lau, Rob Altena, Wataru Oniki and Suzana Ilic.
English | 日本語 |
---|---|
Adaptive learning rates | 適応学習率 |
Analytical gradient | 解析的勾配 |
Architecture | アーキテクチャ |
Backpropagation | 誤差逆伝播法 |
Batch normalization | バッチ正規化 |
Binary classification | 二項分類 |
Calculation | 計算 |
Chain rule | 連鎖律 |
Coefficients | 係数 |
Color shift | カラーシフト |
Contrast change | コントラスト(鮮やかさ)の修正 |
Convolution layer | 畳み込み層 |
Cross-entropy loss | 交差エントロピー誤差 |
Dampens oscillations | 振動を抑制する |
Data augmentation | データ拡張 |
Data processing | データ処理 |
Deep learning | 深層学習 |
Derivative | 微分 |
Dropout | Dropout (ドロップアウト) |
Early stopping | Early stopping (学習の早々な終了) |
Epoch | エポック |
Error | 損失 |
Evaluation | 評価 |
Finding optimal weights | 最適な重みの探索 |
Flip | 反転 |
Forward propagation | 順伝播 |
Fully connected layer | 全結合層 |
Gradient checking | 勾配チェック |
Gradient descent | 勾配降下法 |
Gradient of the loss | 損失の勾配 |
Hyperparameter | ハイパーパラメータ |
Improvement to SGD | SGDの改良 |
Information loss | 情報損失 |
Learning algorithm | 学習アルゴリズム |
Learning rate | 学習率 |
Loss function | 損失関数 |
Mini-batch | ミニバッチ |
Momentum | Momentum(運動量) |
Neural network training | ニューラルネットワークの学習 |
Noise addition | ノイズの付加 |
Non-linear layer | 非線形層 |
Numerical gradient | 数値的勾配 |
Optimizing convergence | 収束の最適化 |
Output | 出力 |
Overfitting | 過学習 |
Parameter tuning | パラメータチューニング |
Parametrize | パラメータ化する |
Pre-trained weights | 学習済みの重み |
Prevent overfitting | 過学習を避けるために |
Random crop | ランダムな切り抜き |
Regularization | 正規化 |
Root Mean Square propagation | 二乗平均平方根のプロパゲーション |
Rotation | 回転 |
Transfer learning | 転移学習 |
Type | 種類 |
Updating weights | 重み更新 |
Validation loss | バリデーションの損失 |
Weight regularization | 重みの正規化 |
Weights initialization | 重みの初期化 |
Xavier initialization | Xavier初期化 |
English | 日本語 |
---|---|
Activation | 活性化 |
Activation functions | 活性化関数 |
Activation map | 活性化マップ |
Anchor box | アンカーボックス |
Architecture | アーキテクチャ |
Average pooling | 平均プーリング |
Bias | バイアス |
Bounding box | バウンディングボックス |
Computational trick architectures | 計算トリックアーキテクチャ |
Convolution | 畳み込み |
Convolution layer | 畳み込み層 |
Convolutional Neural Networks | 畳み込みニューラルネットワーク |
Deep Learning | 深層学習 |
Detection | 検出 |
Dimensions | 次元 |
Discriminative model | 識別モデル |
Face verification/recognition | 顔認証/認識 |
Feature map | 特徴マップ |
Filter hyperparameters | フィルタハイパーパラメタ |
Fine tuning | ファインチューニング |
Flatten | 平滑化 |
Fully connected | 全結合 |
Generative Adversarial Net | 敵対的生成ネットワーク |
Generative model | 生成モデル |
Gram matrix | グラム行列 |
Image classification | 画像分類 |
Inception Network | インセプションネットワーク |
Intersection over Union | 和集合における共通部分の割合 (IoU) |
Layer | 層 |
Localization | 位置特定 |
Max pooling | 最大プーリング |
Model complexity | モデルの複雑さ |
Neural style transfer | ニューラルスタイル変換 |
Noise | ノイズ |
Non-linearity | 非線形性 |
Non-max suppression | 非極大抑制 |
Object detection | オブジェクト検出 |
Object recognition | 物体認識 |
One Shot Learning | One Shot学習 |
Padding | パディング |
Parameter compatibility | パラメータの互換性 |
Pooling | プーリング |
R-CNN | R-CNN |
Receptive field | 受容野 |
Rectified Linear Unit | 正規化線形ユニット (ReLU) |
Residual Network (ResNet) | 残差ネットワーク (ResNet) |
Segmentation | セグメンテーション |
Siamese Network | シャムネットワーク |
Softmax | ソフトマックス |
Stride | ストライド |
Style matrix | スタイル行列 |
Style/content cost function | スタイル/コンテンツコスト関数 |
Training set | 学習セット |
Triplet loss | トリプレット損失 |
Tuning hyperparameters | ハイパーパラメータの調整 |
You Only Look Once (YOLO) | YOLO |
English | 日本語 |
---|---|
1-hot representation | 1-hot 表現 |
A Conditional language model | 条件付き言語モデル |
A language model | 言語モデル |
Amount of attention | 注意量 |
Attention model | アテンションモデル |
Beam search | ビームサーチ |
Bidirectional RNN | 双方向 RNN |
Binary classifiers | バイナリ分類器 |
Bleu score | ブルースコア(機械翻訳比較スコア) |
Brevity penalty | 簡潔さへのペナルティ |
CBOW | CBOW |
Co-occurence matrix | 共起行列 |
Conditional probabilities | 条件付き確率 |
Cosine similarity | コサイン類似度 |
Deep RNN | ディープ RNN |
Embedding Matrix | 埋め込み行列 |
Exploding gradient | 勾配爆発 |
Forget gate | 忘却ゲート |
GloVe | グローブ |
Gradient clipping | 勾配クリッピング |
GRU | ゲート付き回帰型ユニット |
Length normalization | 言語長正規化 |
Length normalization | 文章の長さの正規化 |
Likelihood | 可能性 |
Long term/ dependencies | 長期依存性関係 |
LSTM | 長・短期記憶 |
Machine translation | 機会翻訳 |
Motivation and notations | 動機と表記 |
Multiplicative gradien | 掛け算の勾配 |
N-gram | n-gram |
Naive greedy search | 単純な貪欲法 |
Negative sampling | ネガティブサンプリング |
Notations | ノーテーション |
Output gate | 出力ゲート |
Perplexity | パープレキシティ |
Relevance gate | 関連ゲート |
Skip-gram | スキップグラム |
Skip-gram | スキップグラム |
Softener | 緩衝パラメータ |
t-SNE | t-SNE |
Target/context likelihood model | ターゲット/コンテキスト尤度モデル |
Update gate | 更新ゲート |
Vanishing gradient | 勾配喪失 |
Weighting function | 重み関数 |
Word Embedding | 単語埋め込み |
Word2vec | Word2vec |
English | 日本語 |
---|---|
Adaptive boosting | 適応的ブースティング |
Batch gradient descent | バッチ勾配降下法 |
Bayes' rule | ベイズの定理 |
Bernoulli | ベルヌーイ |
Bernoulli distribution | ベルヌーイ分布 |
Bias | バイア |
Binary trees | 二分木 |
Boosting | ブースティング |
Boosting step | ブースティングステップ |
Canonical parameter | 正準パラメータ |
Categorical variable | カテゴリ変数 |
Chernoff bound | チェルノフ上界 |
Class | クラス |
Classification | 分類 |
Classification and Regression Trees (CART) | 分類・回帰ツリー (CART) |
Classifier | 分類器 |
Closed form solution | 閉形式の解 |
Coefficients | 係数 |
Confusion matrix | 混同行列 |
Continuous values | 連続値 |
Cost function | コスト関数 |
Cross-entropy | クロスエントロピー |
Cross validation | 交差検証 / クロスバリデーション |
Decision boundary | 決定境界 |
Decision trees | 決定ツリー |
Discriminative model | 判別モデル |
Distribution | 分布 |
Empirical error | 経験誤差 |
Ensemble methods | アンサンブル学習 |
Error rate | 誤答率 |
Estimation | 推定 |
Exponential distributions | 般的な指数分布族 |
Exponential family | 指数分布族 ― 正準パラメータ |
Feature engineering | 特徴量エンジニアリング |
Feature mapping | 特徴写像 |
Features | 特徴 |
Framework | フレームワーク |
Function | 関数 |
Gaussian | ガウス |
Gaussian Discriminant Analysis | ガウシアン判別分析 |
Gaussian kernel | ガウシアンカーネル |
Generalized Linear Models | 一般化線形モデル |
Generative Learning | 生成学習 |
Generative model | 生成モデル |
Geometric | 幾何 |
Good performance | 的に良い性能 |
Gradient boosting | 勾配ブースティング |
Gradient descent | 勾配降下法 |
Highly uninterpretable | 解釈しにくい |
Hinge loss | ヒンジ損失 |
Hoeffding inequality | ヘフディング不等式 |
Hold out | ホールドアウト |
Hypothesis | 仮説 |
Independent | 独立 |
Input | 入力 |
Interpretable | 解釈しやすい |
k-nearest neighbors (k-NN) | k近傍法 (k-NN) |
Kernel | カーネル |
Kernel mapping | カーネル写像 |
Kernel trick | カーネルトリック |
Lagrange multipliers | ラグランジュ乗数 |
Lagrangian | ラグランジアン |
Learning Theory | 学習理論 |
Least Mean Squares | 最小2乗法 |
Least squared error | 最小2乗誤差 |
Likelihood | 尤度 |
Linear classifier | 線形分類器 |
Linear discriminant analysis | 線形判別分析(LDA) |
Linear models | 線形モデル |
Linear regression | 線形回帰 |
Link function | リンク関数 |
Locally Weighted Regression | 局所重み付き回帰 |
Log-likelihood | 対数尤度 |
Logistic loss | ロジスティック損失 |
Logistic regression | ロジスティック回帰 |
Loss function | 損失関数 |
Matrix | 行列 |
Maximizing the likelihood | 尤度を最大にする |
Minimum distance | 最短距離 |
Misclassification | 誤分類 |
Missing value | 欠損値 |
Multi-class logistic regression | 多クラス分類ロジスティック回帰 |
Multi-label classification | 多ラベル分類 / マルチラベル分類 |
Multidimensional generalization | 高次元正則化 |
Naive Bayes | ナイーブベイズ |
Natural parameter | 自然パラメータ |
Non-linear separability | 非線形分離問題 |
Non-parametric approaches | ノン・パラメトリックな手法 |
Normal equations | 正規方程式 |
Normalization parameter | 正規化定数 |
Numerical variable | 数値変数 |
Optimal margin classifier | 最適マージン分類器 |
Optimal parameters | 最適なパラメータ |
Optimization | 最適化 |
Optimization problem | 最適化問題 |
Ordinary least squares | 最小2乗回帰 |
Output | 出力 |
Parameter | パラメータ |
Parameter update | パラメータ更新 |
Poisson | ポワソン |
Prediction | 予測 |
Probability | 確率 |
Probability distributions of the data | データの確率分布 |
Probably Approximately Correct (PAC) | 確率的に近似的に正しい (PAC) |
Random forest | ランダムフォレスト |
Random variable | ランダムな変数 |
Randomly selected features | ランダムに選択された特徴量 |
Recommendation | レコメンデーション |
Regression | 回帰 |
Sample mean | 標本平均 |
Shattering | 細分化 |
Sigmoid function | シグモイド関数 |
Softmax regression | ソフトマックス回帰 |
Spam detection | スパム検知 |
Stochastic gradient descent | 確率的勾配降下法 |
Supervised Learning | 教師あり学習 |
Support Vector Machine (SVM) | サポートベクターマシン |
Text classification | テキスト分類 |
To maximize | 最大化する |
To minimize | 最小化する |
To predict | 予測する |
Training data | 学習データ |
Training error | 学習誤差 |
Tree-based methods | ツリーベース学習 |
Union bound | 和集合上界 |
Update rule | 更新ルール |
Upper bound theorem | 上界定理 |
Vapnik-Chervonenkis (VC) dimension | ヴァプニク・チェルヴォーネンキス次元 (VC) |
Variables | 変数 |
Variance | 分散 |
Weights | 重み |
English | 日本語 |
---|---|
Agglomerative hierarchical | 凝集階層 |
Average linkage | 平均リンケージ |
Bell and Sejnowski ICA algorithm | ベルとシノスキーのICAアルゴリズム |
Calinski-Harabaz index | Calinski-Harabazインデックス |
Centroids | 重心 |
Clustering | クラスタリング |
Clustering assessment metrics | クラスタリング評価指標 |
Complete linkage | 完全リンケージ |
Convergence | 収束 |
Diagonal | Diagonal |
Dimension reduction | 次元削減 |
Dispersion matrices | 分散行列 |
Distortion function | ひずみ関数 |
E-step | E-ステップ |
Eigenvalue | 固有値 |
Eigenvector | 固有ベクトル |
Expectation-Maximization | 期待値最大化法 |
Factor analysis | 因子分析 |
Gaussians initialization | ガウス分布初期化 |
Hierarchical clustering | 階層的クラスタリング |
Independent component analysis (ICA) | 独立成分分析 |
Jensen's inequality | イェンセンの不等式 |
K-means clustering | K平均法 |
Latent variables | 潜在変数 |
M-step | M-ステップ |
Means initialization | 平均の初期化 |
Orthogonal matrix | 実直交行列 |
Posterior probabilities | 事後確率 |
Principal components | 主成分 |
Principal component analysis (PCA) | 主成分分析 |
Random variables | ランダムな変数 |
Silhouette coefficient | シルエット係数 |
Spectral theorem | スペクトル定理 |
Unmixing matrix | 非混合行列 |
Unsupervised learning | 教師なし学習 |
Ward linkage | ウォードリンケージ |
English | 日本語 |
---|---|
Axiom | 公理 |
Bayes' rule | ベイズの定理 |
Boundary | 境界 |
Characteristic function | 特性関数 |
Chebyshev's inequality | チェビシェフの不等式 |
Chi-square statistic | カイ二乗統計量 |
Combinatorics | 組合せ |
Conditional Probability | 条件付き確率 |
Continuous | 連続 |
Cumulative distribution function (CDF) | 累積分布関数 |
Cumulative function | 累積関数 |
Discrete | 離散 |
Distribution | 分布 |
Event | 事象 |
Expected value | 期待値 |
Generalized expected value | 一般化した期待値 |
Jointly Distributed Random Variables | 同時分布の確率変数 |
Leibniz integral rule | ライプニッツの積分則 |
Marginal density | 周辺密度 |
Mutual information | 相互情報量 |
Mutually exclusive events | 互いに排反な事象 |
Order | 順番 |
Partition | 分割 |
Pearson correlation coefficient | 相関係数 (ピアソンの積率相関係数) |
Permutation | 順列 |
Probability | 確率 |
Probability density function (PDF) | 確率密度関数 |
Probability distribution | 確率分布 |
Random variable | 確率変数 |
Result | 結果 |
Sample space | 標本空間 |
Sequence | 数列 |
Spearman's rank correlation coefficient | スピアマンの順位相関係数 |
Standard deviation | 標準偏差 |
Standard error | 標準誤差 |
Statistics | 統計 |
Subset | 部分集合 |
Type | 種類 |
Variance | 分散 |
Weighted mean | 加重平均 |
English | 日本語 |
---|---|
Antisymmetric | 反対称 |
Calculus | 微積分 |
Column | 列 |
Column-vector | 列ベクトル |
Diagonal | 対角成 |
Element | 要素 |
Function | 関数 |
Invertible | 可逆 |
Linear Algebra | 線形代数 |
Matrix | 行列 |
Norm | ノルム |
Notation | 表記法 |
Row | 行 |
Scalar | スカラー |
Square matrix | 正方行列 |
Sum | 和 |
Symmetric | 対称 |
Symmetric decomposition | 対称分解 |
Trace | 跡 |
Vector | ベクトル |
Vector space | ベクトル空間 |