Andrew Ng 4일차-mean normalization과 feature scaling 헷갈린다
이제 보니 mean normalization과 feature scaling이 다른 것이었다...?!
강의에서는 mean normalization에 대한 설명을 잘 해주지 않았다. 그저 feature scaling 에 대한 설명만 있었을 뿐. 그저 내가 아는 단어인 mean normalization을 보고 흥분하여 freidberg 책을 들춰본 셈이다. 하지만 궁극적인 목표는 '보다 쉽고 빠른 예측'으로 똑같다고 볼 수 있을 테다.
feature scaling 이란 단순히, 해당 데이터에서 데이터의 평균을 뺀 후에 데이터의 범위로 나누어 준 값이다.
이렇게 한다면 새로이 정의된 데이터 x(i)들은 일정 범위 내에서 존재하게 될 것이다. -1과 1 사이일 것이라는 생각이 강하게 들지만 꼭 그러리라는 보장은 없다.
또한 위에서 말하는, Θ값이 작은 범위에서는 빠르게 작아지고 큰 범위에서는 느리게 작아지기 때문에 불필요하게 불균일한 범위들로 이루어진 경우에는 진동하게 될 것이라는 말도 사실 무슨 말인지 잘 모르겠다. 문장 간 주어 서술어 관계가 모호한 것인지, 내 지식이 모자라 주어 서술어 사이를 채워 넣을 수가 없는 것인지 헷갈린다. 후자라는 생각이 강하게 들지만 꼭 그러리라는 보장은 없다.
댓글
댓글 쓰기