일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- chainlink 설명
- multicall
- ambiguous function description
- erc4337
- 러스트 기초
- 스마트컨트렉트 함수이름 중복 호출
- rust 기초
- 계정추상화
- git rebase
- ethers
- 스마트 컨트렉트 함수이름 중복
- ethers type
- ethers v6
- 체인의정석
- 머신러닝기초
- 오블완
- 컨트렉트 동일한 함수이름 호출
- ethers websocket
- 러스트 기초 학습
- vue기초
- Vue
- SBT표준
- erc4337 contract
- Vue.js
- ethers typescript
- 컨트렉트 배포 자동화
- 티스토리챌린지
- 러스트기초
- 스마트컨트렉트 예약어 함수이름 중복
- 스마트컨트렉트테스트
- Today
- Total
체인의정석
머신러닝 스터디 02- 지도학습(분류 & 회귀) 본문
분류와 회귀
지도학습 - 분류/회귀가 존재
분류 - 가능성 있는 여러 클래스 레이블 중 하나를 예측하는 것.
이진분류(딱 2개의 클래스로 나뉨), 다중 분류(셋 이상의 클래스로 나뉨)가 존재.
이진 분류 => 예/ 아니오
학습하고자 하는 것이 양성 클래스, 학습하려 하지 않는 것이 음성 클래스
회귀 => 연속적인 숫자/부동소수점수
연속성이 있는가? => 있다면 회귀, 없다면 이진 분류
일반화, 과대적합, 과소적합
일반화 -> 모델이 처음 보는 데이터에 대해 정확하게 예측할 수 있으면 일반화 되었다고 합니다.
훈련 세트와 테스트 세트가 매우 비슷하다면 그 모델이 테스트 세트에서도 정확히 예측하리라 기대가 가능합니다.
과대적합 -> 데이터가 복잡하고 샘플에 너무 가깝게 맞춰져서 일반화 되기 어려운 것.
과소적합 => 데이터의 다양성을 잡아내지 못하고 너무 간단한 모델이 선택되는 것.
데이터의 복잡성을 높이기 위해서는 다양한 데이터를 넣어야 한다. 데이터의 복잡성이 너무 높아지면 과대적합이 너무 낮아지면 과소적합이 일어나기 때문에 일반화를 하기 위해서 적절한 양을 학습하는 것이 중요하다.
지도 학습 알고리즘
1. 코드 업데이트
make_blobs로 업데이트를 하지 않으면 에러가 나온다.
X,y = make_blobs()
mglearn.discrete_scatter(X[:,0], X[:,1], y)
plt.legend(["클래스 0","클래스 1"], loc=4)
plt.xlabel("첫 번째 특성")
plt.ylabel("두 번째 특성")
print("X.shape: {}".format(X.shape))
2. 폰트 깨짐 문제
plt.rc('font', family='NanumGothic') # For Windows
http://blog.naver.com/PostView.nhn?blogId=wideeyed&logNo=221225208497
3. 폰트 깨짐 문제 - 마이너스 부호
plt.rcParams['axes.unicode_minus'] = False
4. X.shape를 보면 포인트 26개와 특성 2개를 가지는 것을 알 수 있습니다.
한마디로, 몇개의 포인트(데이터)가 있는지와 몇개의 특성 (레이블) 이 있는지를 알 수 있다는 것입니다.
일단 아래와 같이 인위적인 소규모 데이터 셋을 사용을 먼저 한후 실제 데이터도 불러와 사용해 보도록 하겠습니다.
5. 위스콘신 유방암 데이터셋
종양은 양성과 악성으로 레이블
데이터셋은 569개의 데이터 포인트와 30개의 특성으로 되어 있으며, 이는 data.shape로 확인이 가능합니다.
또한 클래스별 샘플 개수는 cancer.target_names와 np.bincount(cancer.target)으로 구할 수 있습니다.
그리고 30개의 특성 의미는 이를 출력하면 얻을 수 있습니다.
6. 특성 공학
다음 보스턴 데이터의 예시처럼 특성끼리 곱하여 특성의 수를 늘리는 것을 특성공학이라고 하며 이를 사용하면 아래와 같이 특성의 개수가 늘어나게 됩니다.
https://www.youtube.com/channel/UCHsRy47P2KlE749oAAjb0Yg?view_as=subscriber
'빅데이터&인공지능 > 인공지능' 카테고리의 다른 글
머신러닝 스터디 02-선형모델(분류 편)- 다중 클래스 분류용 선형 모델 (0) | 2020.08.10 |
---|---|
머신러닝 스터디 02-선형모델(회귀 편)선형회귀,릿지회귀,라쏘회귀 (0) | 2020.07.12 |
머신러닝 스터디 02-선형회귀(회귀편)KNeighborsClassifier 분석, k-최근접 이웃 회귀 (0) | 2020.07.11 |
머신러닝 스터디 01 - 지도학습 vs 비지도 학습, Iris data 예시 (2) | 2020.07.05 |
AI) 공부 일기 - CNN 코드 기본 분석 (0) | 2020.05.31 |