일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- vue기초
- rust 기초
- git rebase
- chainlink 설명
- multicall
- Vue
- 스마트컨트렉트테스트
- erc4337
- 체인의정석
- 컨트렉트 동일한 함수이름 호출
- 러스트 기초 학습
- 러스트기초
- 스마트 컨트렉트 함수이름 중복
- ethers typescript
- 스마트컨트렉트 함수이름 중복 호출
- 티스토리챌린지
- 러스트 기초
- SBT표준
- erc4337 contract
- 오블완
- Vue.js
- 머신러닝기초
- 계정추상화
- ethers
- 스마트컨트렉트 예약어 함수이름 중복
- 컨트렉트 배포 자동화
- ambiguous function description
- ethers type
- ethers v6
- ethers websocket
- Today
- Total
목록빅데이터&인공지능/인공지능 (14)
체인의정석

plt.plot(line) 로지스틱 회귀를 제외한 많은 선형 분류 모델은 태생적으로 이진 분류만을 지원합니다. 다중클래스는 지원하지 않습니다. 이진 분류 알고리즘을 다중 클래스 분류 알고리즘으로 확장하는 보편적인 기법은 일대다 방법입니다. 일대다 방식은 클래스의 수만큼 이진 분류가 발생하게 됩니다. 3개의 클래스를 가진 데이터셋에 일대다 방식을 적용해 보겠습니다. from sklearn.datasets import make_blobs X,y = make_blobs(random_state=42) mglearn.discrete_scatter(X[:,0],X[:,1],y) plt.xlabel("특성 0") plt.ylabel("특성 1") plt.legend(["클래스 0", "클래스 1", "클래스 2"])..

회귀 중 특성이 하나인 회귀는 선형 모델을 일차 함수를 생각하면 됩니다. y=ax+b 에서 y는 예측값이 되게 됩니다. 이떄 a와 b는 모델이 학습할 파라미터 입니다. 한마디로 a와 b의 값을 적절히 조절해 가며 정답에 가까운 파라미터를 고르는것이 머신러닝이라 할 수 있겠습니다. 여기서 a는 기울기 입니다. 특성이 많아지게 되면 각각 입력 특성 x에 따라서 가중치 a를 곱한만큼에 b라는 값을 더한만큼이 예측값으로 나오게 됩니다. mglearn.plots.plot_linear_regression_wave() 회귀를 위한 선형 모델에서 특성이 하나일땐 직선, 2개일때는 평면, 3개 이상일때는 초평면이 되게 됩니다. K이웃근접법과 비교해 보았을때 선으로 분류하는것은 매우 단순해 보이지만 특성을 많이 넣게 되면..

우선 들어가기에 앞서서 잘 모르고 있던 파이썬 문법을 학습해 보았습니다. for 문에 변수가 2개인 경우입니다. https://ponyozzang.tistory.com/578 Python for문 변수 2개 사용 방법 for 문을 사용하다 보면 인덱스가 2개 필요한 경우가 있습니다. 인덱스가 2개 필요한 경우에는 for 문에도 변수를 2개 설정을 해줘야 합니다. for 문에서 변수를 2개 설정하는 방법을 예제로 알아보� ponyozzang.tistory.com 여러개의 오브젝트나 리스트 등을 for 문에서 동시에 사용하고 싶은 경우에는 zip 함수를 사용해 반복문을 실행할 수 있습니다. for 문에 2개의 리스트를 지정한 경우에는 변수도 2개를 설정해야 합니다. names = ['Alice', 'Bob'..

분류와 회귀 지도학습 - 분류/회귀가 존재 분류 - 가능성 있는 여러 클래스 레이블 중 하나를 예측하는 것. 이진분류(딱 2개의 클래스로 나뉨), 다중 분류(셋 이상의 클래스로 나뉨)가 존재. 이진 분류 => 예/ 아니오 학습하고자 하는 것이 양성 클래스, 학습하려 하지 않는 것이 음성 클래스 회귀 => 연속적인 숫자/부동소수점수 연속성이 있는가? => 있다면 회귀, 없다면 이진 분류 일반화, 과대적합, 과소적합 일반화 -> 모델이 처음 보는 데이터에 대해 정확하게 예측할 수 있으면 일반화 되었다고 합니다. 훈련 세트와 테스트 세트가 매우 비슷하다면 그 모델이 테스트 세트에서도 정확히 예측하리라 기대가 가능합니다. 과대적합 -> 데이터가 복잡하고 샘플에 너무 가깝게 맞춰져서 일반화 되기 어려운 것. 과소..

지도학습 - 이미 알려진 사례를 바탕으로 일반화된 모델을 만들어 의사 결정 프로세스를 자동화 하는 것. 지도학습의 예시 편지 봉투에 손으로 쓴 우편번호 숫자 판별 입력 - 손글씨 , 출력 - 우편번호 숫자 의료 영상이미지 가반 종양 판단 입력- 이비지, 출력 - 종양의 양성 여부 의심되는 신용카드 거래 감지 입력 - 신용카드 거래 내역, 출력 - 부정거래 여부 => 의료 영상 이미지의 경우 데이터를 얻는것이 어려울 수 있음 비지도 학습 - 입력은 주어지지만 출력은 제공되지 않으며, 평가가 어려움 비지도학습의 예시 블로그 글의 주제 구분 => 고객군의 분류를 모르니 출력도 모름 비정상적인 웹사이트 접근 탐지 => 웹 트랙픽만 관찰 가능 어느것이 정상인지 판단 불가 머신러닝에서 하나의 개체/행 = 샘플, 데..

인공지능 첫걸음 CNN- 활성화 함수 1. 활성화 함수 - 입력을 받아 활성, 비활성을 결정하는데 사용되는 함수 선형/비선형 선형함수 = 직선 모양 - y=ax+b 비선형 함수 = 2개 이상의 직선/곡선 모양 - Sigmoid/Relu 2개 분류하는 문제 = Vanisihing Gradient Problem 때문에 sigmoid 대신 Relu와 변형된 활성화 함수 주로 사용 3개 이상을 분류 = Softmax와 변형된 활성화함수 주로 이용 은닉층을 여러 개 다층으로 구성하고 활성화 함수로 모두 선형함수를 이용하면 단층으로 구성하는것과 동일하게 구성할 수 있다고 한다. 따라서 깊게 망을 구성하려면 1개 이상의 비선형 함수를 이용하여야 한다. Sigmoid 계열 - 모두 S 형태, 입력값이 증가함에 따라 결..