일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- ethers typescript
- 티스토리챌린지
- 프록시배포구조
- ethers
- ambiguous function description
- git rebase
- Vue.js
- 스마트컨트렉트프록시
- 컨트렉트 배포 자동화
- 스마트컨트렉트 예약어 함수이름 중복
- 체인의정석
- 러스트 기초
- 스마트컨트렉트테스트
- 오블완
- 스마트 컨트렉트 함수이름 중복
- ethers websocket
- Vue
- 러스트 기초 학습
- chainlink 설명
- SBT표준
- nest.js설명
- ethers v6
- vue기초
- 컨트렉트 동일한 함수이름 호출
- 러스트기초
- 머신러닝기초
- multicall
- 스마트컨트렉트 함수이름 중복 호출
- rust 기초
- ethers type
- Today
- Total
목록머신러닝기초 (3)
체인의정석
나이브 베이즈 분류기는 선형 모델과 유사하며 선형 분류기 보다 훈련 속도가 빠르지만, 일반화 성능이 조금 뒤지는 문제가 있습니다. 사이킷 런에서 구현된 나이브 베이즈 분류기는 연속적인 어떠한 데이터에도 적용할 수 있는 GaussinanNB, 이진데이터에 적용할 수 있는 BernoulliNB, 카운트 데이터에 적용되는 MultinomialNB의 3개 입니다. BernoulliNB와 MultinomialNB는 대부분 텍스트 데이터를 분류할 때 사용합니다. BernoulliNB분류기는 다음과 같습니다. X= np.array([ [0,1,0,1], [1,0,1,1], [0,0,0,1], [1,0,1,0] ]) y=np.array([0,1,0,1]) 이진 특성을 4개 가진 데이터 포인트 를 X로 두고 이에 대한 ..
회귀 중 특성이 하나인 회귀는 선형 모델을 일차 함수를 생각하면 됩니다. y=ax+b 에서 y는 예측값이 되게 됩니다. 이떄 a와 b는 모델이 학습할 파라미터 입니다. 한마디로 a와 b의 값을 적절히 조절해 가며 정답에 가까운 파라미터를 고르는것이 머신러닝이라 할 수 있겠습니다. 여기서 a는 기울기 입니다. 특성이 많아지게 되면 각각 입력 특성 x에 따라서 가중치 a를 곱한만큼에 b라는 값을 더한만큼이 예측값으로 나오게 됩니다. mglearn.plots.plot_linear_regression_wave() 회귀를 위한 선형 모델에서 특성이 하나일땐 직선, 2개일때는 평면, 3개 이상일때는 초평면이 되게 됩니다. K이웃근접법과 비교해 보았을때 선으로 분류하는것은 매우 단순해 보이지만 특성을 많이 넣게 되면..
지도학습 - 이미 알려진 사례를 바탕으로 일반화된 모델을 만들어 의사 결정 프로세스를 자동화 하는 것. 지도학습의 예시 편지 봉투에 손으로 쓴 우편번호 숫자 판별 입력 - 손글씨 , 출력 - 우편번호 숫자 의료 영상이미지 가반 종양 판단 입력- 이비지, 출력 - 종양의 양성 여부 의심되는 신용카드 거래 감지 입력 - 신용카드 거래 내역, 출력 - 부정거래 여부 => 의료 영상 이미지의 경우 데이터를 얻는것이 어려울 수 있음 비지도 학습 - 입력은 주어지지만 출력은 제공되지 않으며, 평가가 어려움 비지도학습의 예시 블로그 글의 주제 구분 => 고객군의 분류를 모르니 출력도 모름 비정상적인 웹사이트 접근 탐지 => 웹 트랙픽만 관찰 가능 어느것이 정상인지 판단 불가 머신러닝에서 하나의 개체/행 = 샘플, 데..