한국어 |
영어 |
비고
|
A/B 테스트 |
A/B testing |
|
AdaGrad |
AdaGrad |
|
AUC |
AUC |
ROC 곡선 아래 영역
|
k-중앙값 |
k-median |
|
k-평균 |
k-means |
|
NaN 트랩 |
NaN trap |
|
Numpy |
Numpy |
|
scikit-learn |
scikit-learn |
|
TF Example |
TF Example |
tf.Example
|
TF 데이터셋 API |
TF Dataset API |
tf.data
|
TF 레이어 API |
TF Layers API |
tf.layers
|
TF 메트릭 API |
TF Metrics API |
tf.metrics
|
TF 세션 |
TF session |
tf.session
|
TF 특성 열 |
TF Feature column |
tf.feature_column
|
가중치 |
weight |
|
거짓긍정 |
false positive (FP) |
|
거짓긍정률 |
false positive rate (FP rate) |
|
거짓부정 |
false negative (FN) |
|
검증세트 |
validation set |
|
결정 경계 |
decision boundary |
|
경사 제한 |
gradient clipping |
|
경사 |
gradient |
|
경사하강법 |
gradient descent |
|
경험적 위험 최소화 |
empirical risk minimization (ERM) |
|
공간 풀링 |
spatial pooling |
|
과적합 |
overfitting |
|
교차 엔트로피 |
cross-entropy |
|
구조적 위험 최소화 |
structural risk minimization (SRM) |
|
그래프 |
graph |
|
극소수 학습 |
few-shot learning |
|
기기 |
device |
|
기준(baseline) |
baseline |
|
네거티브 클래스 |
negative class |
|
노드 |
node |
|
뉴런 |
neuron |
|
다중 클래스 분류 |
multi-class classification |
|
다항 분류 |
multinomial classification |
|
단계 |
step |
|
대기열 |
queue |
|
데이터 분석 |
data analysis |
|
데이터 세트 |
data set |
|
데이터 프레임 |
DataFrame |
|
독립적이고 동일한 분포 |
independently and identically distributed (i.i.d) |
|
동적 모델 |
dynamic model |
|
드롭아웃 정칙화 |
dropout regularization |
|
라벨 |
label |
|
라벨이 없는 예 |
unlabeled example |
|
라벨이 있는 예 |
labeled example |
|
람다 |
lambda |
|
레이어 |
layer |
|
로그 손실 |
Log Loss |
|
로그 오즈 |
log-odds |
|
로지스틱 회귀 |
logistic regression |
|
로지트 |
logit |
|
루트 디렉토리 |
root directory |
|
맞춤 에스티메이터 |
custom Estimator |
|
매개변수 서버 |
Parameter Server (PS) |
|
매개변수 업데이트 |
parameter update |
|
매개변수 |
parameter |
|
머신러닝 |
machine learning (ML) |
|
모델 훈련 |
model training |
|
모델 함수 |
model function |
|
모델 |
model |
|
모멘텀 |
Momentum |
|
목표 |
objective |
|
미니 배치 확률적 경사하강법 |
SGD, mini-batch stochastic gradient descent |
|
미니 배치 |
mini-batch |
|
밀집 레이어 |
dense layer |
|
밀집 특성 |
dense feature |
|
반복 |
iteration |
|
배치 크기 |
batch size |
|
배치 |
batch |
|
버케팅 |
bucketing |
|
범주형 데이터 |
categorical data |
|
병진 불변 |
translational invariance |
|
보폭 |
step size |
|
볼록 집합 |
convex set |
|
볼록 최적화 |
convex optimization |
|
볼록 함수 |
convex function |
|
분류 모델 |
classification model |
|
분류 임계값 |
classification threshold |
|
분할 전략 |
partitioning strategy |
|
불연속 특성 |
discrete feature |
|
비닝 |
binning |
|
비용 |
cost |
|
비지도 머신러닝 |
unsupervised machine learning |
|
사전 믿음 |
prior belief |
|
사전 제작된 에스티메이터 |
pre-made Estimator |
|
서브 샘플링 |
subsampling |
|
선행 학습된 모델 |
pre-trained model |
|
선형 회귀 |
linear regression |
|
성능 |
performance |
|
세대 (머신러닝) |
epoch |
|
세이버 |
Saver |
|
세이브드모델 |
SavedModel |
|
소프트맥스 |
softmax |
|
손실 |
loss |
|
수렴 |
convergence |
|
수신자 조작 특성 곡선 |
Receiver Operating Characteristic curve (ROC curve) |
|
수치 데이터 |
numerical data |
|
순위 |
rank |
|
스트라이드 |
stride |
|
시계열 데이터 |
temporal data |
|
시계열 분석 |
time series analysis |
|
시그모이드 함수 |
sigmoid function |
|
시퀀스 모델 |
sequence model |
|
신경망 |
neural network |
|
심층 모델 |
deep model |
|
앙상블 |
ensemble |
|
에스티메이터 |
Estimator |
|
역전파 |
backpropagation |
|
연속 특성 |
continuous feature |
|
예 |
example |
|
예측 편향 |
prediction bias |
|
예측 |
prediction |
|
오프라인 추론 |
offline inference |
|
온라인 추론 |
online inference |
|
옵티마이저 |
optimizer |
|
와이드 모델 |
wide model |
|
완전 연결 레이어 |
fully connected layer |
|
요약 |
summary |
|
원샷 학습 |
one-shot learning |
|
원-핫 인코딩 |
one-hot encoding |
|
이상점 |
outliers |
|
이진 분류 |
binary classification |
|
인스턴스 |
instance |
|
일대다 |
one-vs.-all |
|
일반화 선형 모형 |
generalized linear model |
|
일반화 |
generalization |
|
임베딩 |
embeddings |
|
입력 레이어 |
input layer |
|
입력 함수 |
input function |
|
작업 |
Operation, op |
|
재현율 |
recall |
|
전이 학습 |
transfer learning |
|
전체 소프트맥스 |
full softmax |
|
정규화 |
normalization |
|
정칙화 |
regularization |
|
정칙화율 |
regularization rate |
|
정류 선형 유닛 |
Rectified Linear Unit (ReLU) |
|
정밀도 |
precision |
|
정상성 |
stationarity |
|
정적 모델 |
static model |
|
정확성 |
accuracy |
|
제곱 손실 |
squared loss |
|
제곱 힌지 손실 |
squared hinge loss |
|
조기 중단 |
early stopping |
|
조정 |
scaling |
|
준지도 학습 |
semi-supervised learning |
|
중심 |
centroid |
|
지도 머신러닝 |
supervised machine learning |
|
참긍정 |
true positive (TP) |
|
참긍정률 |
true positive rate (TP rate) |
|
참음성 |
true negative (TN) |
|
체크포인트 |
checkpoint |
|
초매개변수 |
hyperparameter |
|
초평면 |
hyperplane |
|
최소 제곱 회귀 |
least squares regression |
|
추론 |
inference |
|
출력 레이어 |
output layer |
|
측정항목 |
metric |
|
캘리브레이션 레이어 |
calibration layer |
|
커널 서포트 벡터 머신 |
Kernel Support Vector Machine (KSVM) |
|
컨볼루셔널 레이어 |
convolutional layer |
|
컨볼루셔널 신경망 |
convolutional neural network |
|
컨볼루셔널 연산 |
convolutional operation |
|
컨볼루셔널 필터 |
convolutional filter |
|
컨볼루션 |
convolution |
|
케라스 |
Keras |
|
크기 불변 |
size invariance |
|
클래스 불균형 데이터 세트 |
class-imbalanced data set |
|
클래스 |
class |
|
클러스터링 |
clustering |
|
타겟 |
target |
|
테스트 세트 |
test set |
|
텐서 차수 |
Tensor rank |
|
텐서 처리 장치 |
Tensor Processing Unit (TPU)]] |
|
텐서 크기 |
Tensor size |
|
텐서 형태 |
Tensor shape |
|
텐서 |
Tensor |
|
텐서보드 |
TensorBoard |
|
텐서플로우 서빙 |
TensorFlow Serving |
|
텐서플로우 플레이그라운드 |
TensorFlow Playground |
|
텐서플로우 |
TensorFlow |
|
특성 교차 |
feature cross |
|
특성 사양 |
feature spec |
|
특성 세트 |
feature set |
|
특성 추출 |
feature engineering |
|
특성 (머신러닝) |
feature |
|
파이프라인 |
pipeline |
|
판다스 |
Pandas |
|
퍼플렉시티 |
perplexity |
|
편미분 |
partial derivative |
|
편향 |
bias |
|
평가자 간 동의 |
inter-rater agreement |
|
평가자 |
rater |
|
평균 제곱 오차 |
Mean Squared Error (MSE) |
|
평균 제곱근 오차 |
Root Mean Squared Error (RMSE) |
|
포지티브 클래스 |
positive class |
|
표현 |
representation |
|
풀링 |
pooling |
|
훈련 세트 |
training set |
|
훈련 (머신러닝) |
training |
|
학습률 |
learning rate |
|
합성 특성 |
synthetic feature |
|
해석 가능성 |
interpretability |
|
협업 필터링 |
collaborative filtering |
|
혼동행렬 |
confusion matrix |
|
홀드아웃 데이터 |
holdout data |
|
확률적 경사하강법 |
stochastic gradient descent (SGD) |
|
활성화 함수 |
activation function |
|
회귀 모형 |
regression model |
|
회전 불변 |
rotational invariance |
|
후보 샘플링 |
candidate sampling |
|
휴리스틱 |
heuristic |
|
희소 특성 |
sparse feature |
|
희소 표현 |
sparse representation |
|
희소성 |
sparsity |
|
히든 레이어 |
hidden layer |
|
힌지 손실 |
hinge loss |
|