Machine Learning 6 – Practical Advices

이 글은 Coursera 에서 제공하는 Machine Learning 수업의 6 번째 챕터입니다. 지난시간엔 back propagation 구현해 보고 여기에 적용할 수 있는 소소한 것들 random initialization 과 gradient checking 등도 알아 보았다. 머신러닝을 단순히 아는것과, 실전에서 사용할 수 있다는 건 큰 차이가 있다. 이번 시간에는 실전에서 필요한 여러가지 팁들에 대해 설명한다. 후반부에서는 스팸 분류기를 통해 간단한 머신러닝 … Continue reading Machine Learning 6 – Practical Advices

Machine Learning 5 – Back Propagation

이 글은 Coursera 에서 제공하는 Machine Learning 수업의 5 번째 챕터입니다. 지난시간엔 왜 neural network 를 사용하는지 알아보았다. 데이터의 차수가 매우 클 때 logistic regression 으로는 성능이 떨어지거나 overfitting 의 문제가 발생할 수 있다는 사실을 알게 되었고, 마지막엔 multi class 문제를 어떻게 해결할지도 잠깐 논의 해봤다. 이번에는 back propagation, gradient checking 에 대해서 배워보자. Cost … Continue reading Machine Learning 5 – Back Propagation

Machine Learning 4 – Neural Network

이 글은 Coursera 에서 제공하는 Machine Learning 수업의 4 번째 챕터입니다. 지난 시간에는 실리콘 밸리의 머신러닝 개발자들이 귀한대접을 받는다는 훈훈한 덕담으로 강의가 끝났다. 이번시간에는 뜬금없이 Neural Network (신경망) 을 건들다가 놀랍게도 그것이 logistic regression 과 연관이 있으며 n 이 매우 클 경우의 classification 문제를 해결할 수 있다는 것을 배운다. Non-Linear Hypotheses 다음과 같은 트레이닝 셋이 … Continue reading Machine Learning 4 – Neural Network

Machine Learning 3 – Logistic Regression

이 글은 Coursera 에서 제공하는 Machine Learning 수업의 3 번째 챕터입니다. 지난 시간엔 Regression 을 해결하기 위해 graident descent 알고리즘을 도입했었다. learning rate, vectorization 등에 대해서 알아 보기도 했고. 이번시간엔 classification 과 regulrzation 에 대해서 배워 본다. 이 수업이 재밌는 이유는 수식을 증명하는 것보다 수식속에 숨겨진 내용들을 직관적으로 이해할 수 있게 설명하기 때문이다. 그러나 교수님 … Continue reading Machine Learning 3 – Logistic Regression

Machine Learning 2 – Gradient Descent

이 글은 Coursera 에서 제공하는 Machine Learning 수업의 2 번째 챕터입니다. Linear Regression with Multiple Variables Mutiple Features 변수가 적을때는 Hypothesis 가 간단하다. 많으면 어떻게 될까? Feature 가 N+1 개라면, http://bt22dr.wordpress.com 편의상 x_0 = 1 이라 두면, Hypothesis 는 Zero-based index 인 n+1 벡터 h 와 x 의 곱이다. 따라서 h(x) = h_t * x … Continue reading Machine Learning 2 – Gradient Descent