Supervised learning
지도 학습(Supervised learning)은 입출력 관계의 쌍을 사용하여 매핑(mapping)을 학습한다.
<example>
표본이 n개인 데이터 집합 '(x1, y1, y1,…(xn, yn)'을 고려할 때, 예시는 "만약 집의 평방 피트가 x 평방피트라면 가격을 예측하라"이다.
-> 목표 함수(빨간색 그래프)와 가설(주황색 그래프)의 차이를 최소화하고자 함 = 오류 함수( error function)
-> Regression(회귀-회귀 분석 입력을 연속 출력으로 매핑) : 어떤 데이터들의 특징(feature)을 토대로 값을 예측하는 것. 결과 값은 실수 값을 가질 수 있다.
-> classification(분류 - 입력 내용을 클래스 집합 중 하나로 매핑) : 어떤 데이터에 대해 두 가지 중 하나로 분류할 수 있는 것.
MLE ( Maximum likelihood estimation)
최대우 도법(Maximum Likelihood Estimation, 이하 MLE)은 모수적인 데이터 밀도 추정 방법으로써 파라미터 θ=(θ1,⋯,θm)으로 구성된 어떤 확률 밀도 함수 P(x|θ)에서 관측된 표본 데이터 집합을 x2,⋯, xn) x=(x1, x2,⋯, xn)이라 할 때, 이 표본들에서 파라미터 θ=(θ1,⋯,θm)를 추정하는 방법이다.
<example>
Task: rolling coins
Data: observed set D of P(x = h) = θ and P(x = t) = 1- θ
if Data D : h, t, t, h, h (binomial trial)
Learning (estimating) of θ by MLE : 관측 데이터의 확률을 최대화하는 θ 선택
unsupervised learning
->비지도 학습
->패턴을 찾기 위해 데이터를 입력한다.
->비슷한 데이터들을 군집화 시킨다.
'AI > Machine Learning' 카테고리의 다른 글
[머신 러닝] 가우시안 혼합 모델(Gaussian Mixture models) - 컴도리돌이 (0) | 2020.10.23 |
---|---|
[머신 러닝] EM(Expectation-Maximization) vs MLE(Maximum likelihood estimation) soft clustering , k-means clustering - 컴도리돌이 (0) | 2020.10.22 |
[머신 러닝] performance evaluation(precision,recall) - 컴도리돌이 (0) | 2020.10.22 |
[머신 러닝] Overfiting - 컴도리돌이 (0) | 2020.10.21 |
[머신러닝] Introduction to Machine Learning - 컴도리돌이 (0) | 2020.10.19 |