Machine Learning and Deep Learning: EN-JP Lexicon
This is an English-Japanese lexicon for Machine Learning and Deep Learning terminology, based on the translation work for the Machine Learning and Deep Learning cheatsheets created by @afshinea for Stanford's CS 229 Machine Learning and CS 230 Deep Learning. We have included the Japanese cheat sheet translations that were created and reviewed by a team of MLT members for each topic.
Translation, review work and lexicon creation done by:
Yoshiyuki Nakai, Yuta Kanzawa, Hideaki Hamano, Tran Tuan Anh, Takatoshi Nao, Kamuela Lau, Rob Altena, Wataru Oniki and Suzana Ilic.
Deep Learning
DL tips and tricks
| English |
日本語 |
| Adaptive learning rates |
適応学習率 |
| Analytical gradient |
解析的勾配 |
| Architecture |
アーキテクチャ |
| Backpropagation |
誤差逆伝播法 |
| Batch normalization |
バッチ正規化 |
| Binary classification |
二項分類 |
| Calculation |
計算 |
| Chain rule |
連鎖律 |
| Coefficients |
係数 |
| Color shift |
カラーシフト |
| Contrast change |
コントラスト(鮮やかさ)の修正 |
| Convolution layer |
畳み込み層 |
| Cross-entropy loss |
交差エントロピー誤差 |
| Dampens oscillations |
振動を抑制する |
| Data augmentation |
データ拡張 |
| Data processing |
データ処理 |
| Deep learning |
深層学習 |
| Derivative |
微分 |
| Dropout |
Dropout (ドロップアウト) |
| Early stopping |
Early stopping (学習の早々な終了) |
| Epoch |
エポック |
| Error |
損失 |
| Evaluation |
評価 |
| Finding optimal weights |
最適な重みの探索 |
| Flip |
反転 |
| Forward propagation |
順伝播 |
| Fully connected layer |
全結合層 |
| Gradient checking |
勾配チェック |
| Gradient descent |
勾配降下法 |
| Gradient of the loss |
損失の勾配 |
| Hyperparameter |
ハイパーパラメータ |
| Improvement to SGD |
SGDの改良 |
| Information loss |
情報損失 |
| Learning algorithm |
学習アルゴリズム |
| Learning rate |
学習率 |
| Loss function |
損失関数 |
| Mini-batch |
ミニバッチ |
| Momentum |
Momentum(運動量) |
| Neural network training |
ニューラルネットワークの学習 |
| Noise addition |
ノイズの付加 |
| Non-linear layer |
非線形層 |
| Numerical gradient |
数値的勾配 |
| Optimizing convergence |
収束の最適化 |
| Output |
出力 |
| Overfitting |
過学習 |
| Parameter tuning |
パラメータチューニング |
| Parametrize |
パラメータ化する |
| Pre-trained weights |
学習済みの重み |
| Prevent overfitting |
過学習を避けるために |
| Random crop |
ランダムな切り抜き |
| Regularization |
正規化 |
| Root Mean Square propagation |
二乗平均平方根のプロパゲーション |
| Rotation |
回転 |
| Transfer learning |
転移学習 |
| Type |
種類 |
| Updating weights |
重み更新 |
| Validation loss |
バリデーションの損失 |
| Weight regularization |
重みの正規化 |
| Weights initialization |
重みの初期化 |
| Xavier initialization |
Xavier初期化 |
Convolutional Neural Nets
| English |
日本語 |
| Activation |
活性化 |
| Activation functions |
活性化関数 |
| Activation map |
活性化マップ |
| Anchor box |
アンカーボックス |
| Architecture |
アーキテクチャ |
| Average pooling |
平均プーリング |
| Bias |
バイアス |
| Bounding box |
バウンディングボックス |
| Computational trick architectures |
計算トリックアーキテクチャ |
| Convolution |
畳み込み |
| Convolution layer |
畳み込み層 |
| Convolutional Neural Networks |
畳み込みニューラルネットワーク |
| Deep Learning |
深層学習 |
| Detection |
検出 |
| Dimensions |
次元 |
| Discriminative model |
識別モデル |
| Face verification/recognition |
顔認証/認識 |
| Feature map |
特徴マップ |
| Filter hyperparameters |
フィルタハイパーパラメタ |
| Fine tuning |
ファインチューニング |
| Flatten |
平滑化 |
| Fully connected |
全結合 |
| Generative Adversarial Net |
敵対的生成ネットワーク |
| Generative model |
生成モデル |
| Gram matrix |
グラム行列 |
| Image classification |
画像分類 |
| Inception Network |
インセプションネットワーク |
| Intersection over Union |
和集合における共通部分の割合 (IoU) |
| Layer |
層 |
| Localization |
位置特定 |
| Max pooling |
最大プーリング |
| Model complexity |
モデルの複雑さ |
| Neural style transfer |
ニューラルスタイル変換 |
| Noise |
ノイズ |
| Non-linearity |
非線形性 |
| Non-max suppression |
非極大抑制 |
| Object detection |
オブジェクト検出 |
| Object recognition |
物体認識 |
| One Shot Learning |
One Shot学習 |
| Padding |
パディング |
| Parameter compatibility |
パラメータの互換性 |
| Pooling |
プーリング |
| R-CNN |
R-CNN |
| Receptive field |
受容野 |
| Rectified Linear Unit |
正規化線形ユニット (ReLU) |
| Residual Network (ResNet) |
残差ネットワーク (ResNet) |
| Segmentation |
セグメンテーション |
| Siamese Network |
シャムネットワーク |
| Softmax |
ソフトマックス |
| Stride |
ストライド |
| Style matrix |
スタイル行列 |
| Style/content cost function |
スタイル/コンテンツコスト関数 |
| Training set |
学習セット |
| Triplet loss |
トリプレット損失 |
| Tuning hyperparameters |
ハイパーパラメータの調整 |
| You Only Look Once (YOLO) |
YOLO |
Recurrent Neural Nets
| English |
日本語 |
| 1-hot representation |
1-hot 表現 |
| A Conditional language model |
条件付き言語モデル |
| A language model |
言語モデル |
| Amount of attention |
注意量 |
| Attention model |
アテンションモデル |
| Beam search |
ビームサーチ |
| Bidirectional RNN |
双方向 RNN |
| Binary classifiers |
バイナリ分類器 |
| Bleu score |
ブルースコア(機械翻訳比較スコア) |
| Brevity penalty |
簡潔さへのペナルティ |
| CBOW |
CBOW |
| Co-occurence matrix |
共起行列 |
| Conditional probabilities |
条件付き確率 |
| Cosine similarity |
コサイン類似度 |
| Deep RNN |
ディープ RNN |
| Embedding Matrix |
埋め込み行列 |
| Exploding gradient |
勾配爆発 |
| Forget gate |
忘却ゲート |
| GloVe |
グローブ |
| Gradient clipping |
勾配クリッピング |
| GRU |
ゲート付き回帰型ユニット |
| Length normalization |
言語長正規化 |
| Length normalization |
文章の長さの正規化 |
| Likelihood |
可能性 |
| Long term/ dependencies |
長期依存性関係 |
| LSTM |
長・短期記憶 |
| Machine translation |
機会翻訳 |
| Motivation and notations |
動機と表記 |
| Multiplicative gradien |
掛け算の勾配 |
| N-gram |
n-gram |
| Naive greedy search |
単純な貪欲法 |
| Negative sampling |
ネガティブサンプリング |
| Notations |
ノーテーション |
| Output gate |
出力ゲート |
| Perplexity |
パープレキシティ |
| Relevance gate |
関連ゲート |
| Skip-gram |
スキップグラム |
| Skip-gram |
スキップグラム |
| Softener |
緩衝パラメータ |
| t-SNE |
t-SNE |
| Target/context likelihood model |
ターゲット/コンテキスト尤度モデル |
| Update gate |
更新ゲート |
| Vanishing gradient |
勾配喪失 |
| Weighting function |
重み関数 |
| Word Embedding |
単語埋め込み |
| Word2vec |
Word2vec |
Machine Learning
Supervised Learning
| English |
日本語 |
| Adaptive boosting |
適応的ブースティング |
| Batch gradient descent |
バッチ勾配降下法 |
| Bayes' rule |
ベイズの定理 |
| Bernoulli |
ベルヌーイ |
| Bernoulli distribution |
ベルヌーイ分布 |
| Bias |
バイア |
| Binary trees |
二分木 |
| Boosting |
ブースティング |
| Boosting step |
ブースティングステップ |
| Canonical parameter |
正準パラメータ |
| Categorical variable |
カテゴリ変数 |
| Chernoff bound |
チェルノフ上界 |
| Class |
クラス |
| Classification |
分類 |
| Classification and Regression Trees (CART) |
分類・回帰ツリー (CART) |
| Classifier |
分類器 |
| Closed form solution |
閉形式の解 |
| Coefficients |
係数 |
| Confusion matrix |
混同行列 |
| Continuous values |
連続値 |
| Cost function |
コスト関数 |
| Cross-entropy |
クロスエントロピー |
| Cross validation |
交差検証 / クロスバリデーション |
| Decision boundary |
決定境界 |
| Decision trees |
決定ツリー |
| Discriminative model |
判別モデル |
| Distribution |
分布 |
| Empirical error |
経験誤差 |
| Ensemble methods |
アンサンブル学習 |
| Error rate |
誤答率 |
| Estimation |
推定 |
| Exponential distributions |
般的な指数分布族 |
| Exponential family |
指数分布族 ― 正準パラメータ |
| Feature engineering |
特徴量エンジニアリング |
| Feature mapping |
特徴写像 |
| Features |
特徴 |
| Framework |
フレームワーク |
| Function |
関数 |
| Gaussian |
ガウス |
| Gaussian Discriminant Analysis |
ガウシアン判別分析 |
| Gaussian kernel |
ガウシアンカーネル |
| Generalized Linear Models |
一般化線形モデル |
| Generative Learning |
生成学習 |
| Generative model |
生成モデル |
| Geometric |
幾何 |
| Good performance |
的に良い性能 |
| Gradient boosting |
勾配ブースティング |
| Gradient descent |
勾配降下法 |
| Highly uninterpretable |
解釈しにくい |
| Hinge loss |
ヒンジ損失 |
| Hoeffding inequality |
ヘフディング不等式 |
| Hold out |
ホールドアウト |
| Hypothesis |
仮説 |
| Independent |
独立 |
| Input |
入力 |
| Interpretable |
解釈しやすい |
| k-nearest neighbors (k-NN) |
k近傍法 (k-NN) |
| Kernel |
カーネル |
| Kernel mapping |
カーネル写像 |
| Kernel trick |
カーネルトリック |
| Lagrange multipliers |
ラグランジュ乗数 |
| Lagrangian |
ラグランジアン |
| Learning Theory |
学習理論 |
| Least Mean Squares |
最小2乗法 |
| Least squared error |
最小2乗誤差 |
| Likelihood |
尤度 |
| Linear classifier |
線形分類器 |
| Linear discriminant analysis |
線形判別分析(LDA) |
| Linear models |
線形モデル |
| Linear regression |
線形回帰 |
| Link function |
リンク関数 |
| Locally Weighted Regression |
局所重み付き回帰 |
| Log-likelihood |
対数尤度 |
| Logistic loss |
ロジスティック損失 |
| Logistic regression |
ロジスティック回帰 |
| Loss function |
損失関数 |
| Matrix |
行列 |
| Maximizing the likelihood |
尤度を最大にする |
| Minimum distance |
最短距離 |
| Misclassification |
誤分類 |
| Missing value |
欠損値 |
| Multi-class logistic regression |
多クラス分類ロジスティック回帰 |
| Multi-label classification |
多ラベル分類 / マルチラベル分類 |
| Multidimensional generalization |
高次元正則化 |
| Naive Bayes |
ナイーブベイズ |
| Natural parameter |
自然パラメータ |
| Non-linear separability |
非線形分離問題 |
| Non-parametric approaches |
ノン・パラメトリックな手法 |
| Normal equations |
正規方程式 |
| Normalization parameter |
正規化定数 |
| Numerical variable |
数値変数 |
| Optimal margin classifier |
最適マージン分類器 |
| Optimal parameters |
最適なパラメータ |
| Optimization |
最適化 |
| Optimization problem |
最適化問題 |
| Ordinary least squares |
最小2乗回帰 |
| Output |
出力 |
| Parameter |
パラメータ |
| Parameter update |
パラメータ更新 |
| Poisson |
ポワソン |
| Prediction |
予測 |
| Probability |
確率 |
| Probability distributions of the data |
データの確率分布 |
| Probably Approximately Correct (PAC) |
確率的に近似的に正しい (PAC) |
| Random forest |
ランダムフォレスト |
| Random variable |
ランダムな変数 |
| Randomly selected features |
ランダムに選択された特徴量 |
| Recommendation |
レコメンデーション |
| Regression |
回帰 |
| Sample mean |
標本平均 |
| Shattering |
細分化 |
| Sigmoid function |
シグモイド関数 |
| Softmax regression |
ソフトマックス回帰 |
| Spam detection |
スパム検知 |
| Stochastic gradient descent |
確率的勾配降下法 |
| Supervised Learning |
教師あり学習 |
| Support Vector Machine (SVM) |
サポートベクターマシン |
| Text classification |
テキスト分類 |
| To maximize |
最大化する |
| To minimize |
最小化する |
| To predict |
予測する |
| Training data |
学習データ |
| Training error |
学習誤差 |
| Tree-based methods |
ツリーベース学習 |
| Union bound |
和集合上界 |
| Update rule |
更新ルール |
| Upper bound theorem |
上界定理 |
| Vapnik-Chervonenkis (VC) dimension |
ヴァプニク・チェルヴォーネンキス次元 (VC) |
| Variables |
変数 |
| Variance |
分散 |
| Weights |
重み |
Unsupervised Learning
| English |
日本語 |
| Agglomerative hierarchical |
凝集階層 |
| Average linkage |
平均リンケージ |
| Bell and Sejnowski ICA algorithm |
ベルとシノスキーのICAアルゴリズム |
| Calinski-Harabaz index |
Calinski-Harabazインデックス |
| Centroids |
重心 |
| Clustering |
クラスタリング |
| Clustering assessment metrics |
クラスタリング評価指標 |
| Complete linkage |
完全リンケージ |
| Convergence |
収束 |
| Diagonal |
Diagonal |
| Dimension reduction |
次元削減 |
| Dispersion matrices |
分散行列 |
| Distortion function |
ひずみ関数 |
| E-step |
E-ステップ |
| Eigenvalue |
固有値 |
| Eigenvector |
固有ベクトル |
| Expectation-Maximization |
期待値最大化法 |
| Factor analysis |
因子分析 |
| Gaussians initialization |
ガウス分布初期化 |
| Hierarchical clustering |
階層的クラスタリング |
| Independent component analysis (ICA) |
独立成分分析 |
| Jensen's inequality |
イェンセンの不等式 |
| K-means clustering |
K平均法 |
| Latent variables |
潜在変数 |
| M-step |
M-ステップ |
| Means initialization |
平均の初期化 |
| Orthogonal matrix |
実直交行列 |
| Posterior probabilities |
事後確率 |
| Principal components |
主成分 |
| Principal component analysis (PCA) |
主成分分析 |
| Random variables |
ランダムな変数 |
| Silhouette coefficient |
シルエット係数 |
| Spectral theorem |
スペクトル定理 |
| Unmixing matrix |
非混合行列 |
| Unsupervised learning |
教師なし学習 |
| Ward linkage |
ウォードリンケージ |
Probabilities and Statistics
| English |
日本語 |
| Axiom |
公理 |
| Bayes' rule |
ベイズの定理 |
| Boundary |
境界 |
| Characteristic function |
特性関数 |
| Chebyshev's inequality |
チェビシェフの不等式 |
| Chi-square statistic |
カイ二乗統計量 |
| Combinatorics |
組合せ |
| Conditional Probability |
条件付き確率 |
| Continuous |
連続 |
| Cumulative distribution function (CDF) |
累積分布関数 |
| Cumulative function |
累積関数 |
| Discrete |
離散 |
| Distribution |
分布 |
| Event |
事象 |
| Expected value |
期待値 |
| Generalized expected value |
一般化した期待値 |
| Jointly Distributed Random Variables |
同時分布の確率変数 |
| Leibniz integral rule |
ライプニッツの積分則 |
| Marginal density |
周辺密度 |
| Mutual information |
相互情報量 |
| Mutually exclusive events |
互いに排反な事象 |
| Order |
順番 |
| Partition |
分割 |
| Pearson correlation coefficient |
相関係数 (ピアソンの積率相関係数) |
| Permutation |
順列 |
| Probability |
確率 |
| Probability density function (PDF) |
確率密度関数 |
| Probability distribution |
確率分布 |
| Random variable |
確率変数 |
| Result |
結果 |
| Sample space |
標本空間 |
| Sequence |
数列 |
| Spearman's rank correlation coefficient |
スピアマンの順位相関係数 |
| Standard deviation |
標準偏差 |
| Standard error |
標準誤差 |
| Statistics |
統計 |
| Subset |
部分集合 |
| Type |
種類 |
| Variance |
分散 |
| Weighted mean |
加重平均 |
Algebra and Calculus
| English |
日本語 |
| Antisymmetric |
反対称 |
| Calculus |
微積分 |
| Column |
列 |
| Column-vector |
列ベクトル |
| Diagonal |
対角成 |
| Element |
要素 |
| Function |
関数 |
| Invertible |
可逆 |
| Linear Algebra |
線形代数 |
| Matrix |
行列 |
| Norm |
ノルム |
| Notation |
表記法 |
| Row |
行 |
| Scalar |
スカラー |
| Square matrix |
正方行列 |
| Sum |
和 |
| Symmetric |
対称 |
| Symmetric decomposition |
対称分解 |
| Trace |
跡 |
| Vector |
ベクトル |
| Vector space |
ベクトル空間 |