본문 바로가기

머신러닝,딥러닝

(5)
혼공머신 챕터7 ch 07-1 ch 07-2
혼공머신 챕터5 결정트리: 예/ 아니요에 대한 질문을 이어나가면서 정답을 찾아 학습하는 알고리즘 비교적 예측 과정을 이해하기 쉽고 성능도 뛰어난 편 불순도: 결정 트리가 최적의 질문을 찾기 위한 기준. 사이킷런은 지니 불순도와 엔트로피 불순도 제공 정보이득: 부모 노드와 자식 노드의 불순도 차이. 결정 트리 알고리즘은 정보 이득이 최대화 되도록 학습 가지치기: 결정 트리의 성장을 제한하는 방법. 결정트리가 제한 없이 성장하면 훈련세트에 과대적합 되기 쉬움 특성 중요도: 결정 트리에 사용된 특성이 불순도 감소하는게 기여한 정도 ->특성 중요도를 계산할 수 있다는 것이 결정 트리의 또 다른 장점 info() : 데이터 프레임의 요약된 정보를 출력 인덱스와 컬럼 타입을 출력하고 널이 아닌 값의 개수, 메모리 사용량 제공 누락..
혼공머신 챕터4 이번주 요약은 생략 기본미션 Ch. 04-1 2번 문제 선택미션 Ch.04-2 과대적합/과소적합 손코딩 코랩 화면
혼공머신 챕터3 지도학습 알고리즘은 크게 회귀와 분류로 나누어진다. 변수 사이의 상관관계를 분석하는 방법 -> 회귀 사이킷런에서 사용할 훈련 세트는 2차원 배열이어야한다. reshape(-1,1)를 적극 활용하자 회귀의 경우 R^2로 값을 평가하는데 이 점수를 결정계수라고 한다 R^2 = 1- ( (타깃-예측)^2의 합) / ((타깃-평균)^2의합) 훈련세트에서 점수 굉장히 좋았는데 테스트세트에서 점수가 굉장히 나쁨 -> 모델이 훈련 세트에 과대 적합 훈련세트보다 테스트 세트의 점수가 높거나, 두 점수 모두 낮은 경우 -> 훈련세트에 과소적합 과대적합일 경우 모델을 덜 복잡하게 과소적합일 경우 모델을 더 복잡하게 만들어여한다. --------- K-최근접 이웃 회귀 사용 시 문제: 훈련 세트 범위 밖의 샘플을 예측 할 ..
혼공머신 챕터1& 챕터2 인공지능 사람처럼 학습하고 추론 할 수 있는 지능을 가진 시스템을 만드는 기술 강인공지능과 약인공지능으로 나눌 수 있다. 머신러닝이란 규칙을 일일이 프로그래밍하지 않아도 자동으로 데이터에서 규칙을 학습하는 알고리즘을 연구하는 분야. 인공지능 하위 분야 중 지능을 구현하기 위한 소프트웨어를 담당하는 핵심 분야 사이킷런: 컴퓨터 과학의 대표적인 머신러닝 라이브러리 통계학 기반이 아닌 경험을 바탕으로 발전 딥러닝 많은 머신러닝 알고리즘 중에서 인공 신경망을 기반으로 한 방법들을 통칭하여 딥러닝이라고 부른다 1988- 얀 르쿤 - 손글씨 글자 - LeNet-5 - 최초의 합성곱 신경망 2012- 제프리 힌턴 - ImageNet - AlexNet 오픈소스 - 구글 / 텐서플로, 페이스북/ 파이토치 공통점: 인공 ..