일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- cloud hsm 서명
- 머신러닝기초
- ethers v6
- vue기초
- cloud hsm
- git rebase
- 스마트 컨트렉트 함수이름 중복
- redux 기초
- ethers type
- Vue.js
- 오블완
- ambiguous function description
- 체인의정석
- 러스트 기초 학습
- 컨트렉트 동일한 함수이름 호출
- redux toolkit 설명
- 스마트컨트렉트 예약어 함수이름 중복
- SBT표준
- 계정추상화
- erc4337 contract
- ethers typescript
- 러스트 기초
- Vue
- 티스토리챌린지
- 스마트컨트렉트 함수이름 중복 호출
- cloud hsm 사용하기
- rust 기초
- 러스트기초
- ethers websocket
- erc4337
- Today
- Total
목록전체 글 (526)
체인의정석

나이브 베이즈 분류기는 선형 모델과 유사하며 선형 분류기 보다 훈련 속도가 빠르지만, 일반화 성능이 조금 뒤지는 문제가 있습니다. 사이킷 런에서 구현된 나이브 베이즈 분류기는 연속적인 어떠한 데이터에도 적용할 수 있는 GaussinanNB, 이진데이터에 적용할 수 있는 BernoulliNB, 카운트 데이터에 적용되는 MultinomialNB의 3개 입니다. BernoulliNB와 MultinomialNB는 대부분 텍스트 데이터를 분류할 때 사용합니다. BernoulliNB분류기는 다음과 같습니다. X= np.array([ [0,1,0,1], [1,0,1,1], [0,0,0,1], [1,0,1,0] ]) y=np.array([0,1,0,1]) 이진 특성을 4개 가진 데이터 포인트 를 X로 두고 이에 대한 ..

plt.plot(line) 로지스틱 회귀를 제외한 많은 선형 분류 모델은 태생적으로 이진 분류만을 지원합니다. 다중클래스는 지원하지 않습니다. 이진 분류 알고리즘을 다중 클래스 분류 알고리즘으로 확장하는 보편적인 기법은 일대다 방법입니다. 일대다 방식은 클래스의 수만큼 이진 분류가 발생하게 됩니다. 3개의 클래스를 가진 데이터셋에 일대다 방식을 적용해 보겠습니다. from sklearn.datasets import make_blobs X,y = make_blobs(random_state=42) mglearn.discrete_scatter(X[:,0],X[:,1],y) plt.xlabel("특성 0") plt.ylabel("특성 1") plt.legend(["클래스 0", "클래스 1", "클래스 2"])..

로지스틱 회귀 & 서포트 벡터 머신이 가장 널리 알려진 두 개의 선형 분류 알고리즘 일단 아래의 코드는 모든 예제에서 넣어주기로 합니다. from IPython.display import display import numpy as np import matplotlib.pyplot as plt import pandas as pd import mglearn import sklearn from sklearn.datasets import make_blobs plt.rc('font', family='NanumGothic') plt.rcParams['axes.unicode_minus'] = False 서포트 백터 머신과, 로지스틱 회귀를 비교하기 위해 아래와 같이 설정하였습니다. 여기서 만들어진 경계를 결정 경계라..

회귀 중 특성이 하나인 회귀는 선형 모델을 일차 함수를 생각하면 됩니다. y=ax+b 에서 y는 예측값이 되게 됩니다. 이떄 a와 b는 모델이 학습할 파라미터 입니다. 한마디로 a와 b의 값을 적절히 조절해 가며 정답에 가까운 파라미터를 고르는것이 머신러닝이라 할 수 있겠습니다. 여기서 a는 기울기 입니다. 특성이 많아지게 되면 각각 입력 특성 x에 따라서 가중치 a를 곱한만큼에 b라는 값을 더한만큼이 예측값으로 나오게 됩니다. mglearn.plots.plot_linear_regression_wave() 회귀를 위한 선형 모델에서 특성이 하나일땐 직선, 2개일때는 평면, 3개 이상일때는 초평면이 되게 됩니다. K이웃근접법과 비교해 보았을때 선으로 분류하는것은 매우 단순해 보이지만 특성을 많이 넣게 되면..

우선 들어가기에 앞서서 잘 모르고 있던 파이썬 문법을 학습해 보았습니다. for 문에 변수가 2개인 경우입니다. https://ponyozzang.tistory.com/578 Python for문 변수 2개 사용 방법 for 문을 사용하다 보면 인덱스가 2개 필요한 경우가 있습니다. 인덱스가 2개 필요한 경우에는 for 문에도 변수를 2개 설정을 해줘야 합니다. for 문에서 변수를 2개 설정하는 방법을 예제로 알아보� ponyozzang.tistory.com 여러개의 오브젝트나 리스트 등을 for 문에서 동시에 사용하고 싶은 경우에는 zip 함수를 사용해 반복문을 실행할 수 있습니다. for 문에 2개의 리스트를 지정한 경우에는 변수도 2개를 설정해야 합니다. names = ['Alice', 'Bob'..

분류와 회귀 지도학습 - 분류/회귀가 존재 분류 - 가능성 있는 여러 클래스 레이블 중 하나를 예측하는 것. 이진분류(딱 2개의 클래스로 나뉨), 다중 분류(셋 이상의 클래스로 나뉨)가 존재. 이진 분류 => 예/ 아니오 학습하고자 하는 것이 양성 클래스, 학습하려 하지 않는 것이 음성 클래스 회귀 => 연속적인 숫자/부동소수점수 연속성이 있는가? => 있다면 회귀, 없다면 이진 분류 일반화, 과대적합, 과소적합 일반화 -> 모델이 처음 보는 데이터에 대해 정확하게 예측할 수 있으면 일반화 되었다고 합니다. 훈련 세트와 테스트 세트가 매우 비슷하다면 그 모델이 테스트 세트에서도 정확히 예측하리라 기대가 가능합니다. 과대적합 -> 데이터가 복잡하고 샘플에 너무 가깝게 맞춰져서 일반화 되기 어려운 것. 과소..

지도학습 - 이미 알려진 사례를 바탕으로 일반화된 모델을 만들어 의사 결정 프로세스를 자동화 하는 것. 지도학습의 예시 편지 봉투에 손으로 쓴 우편번호 숫자 판별 입력 - 손글씨 , 출력 - 우편번호 숫자 의료 영상이미지 가반 종양 판단 입력- 이비지, 출력 - 종양의 양성 여부 의심되는 신용카드 거래 감지 입력 - 신용카드 거래 내역, 출력 - 부정거래 여부 => 의료 영상 이미지의 경우 데이터를 얻는것이 어려울 수 있음 비지도 학습 - 입력은 주어지지만 출력은 제공되지 않으며, 평가가 어려움 비지도학습의 예시 블로그 글의 주제 구분 => 고객군의 분류를 모르니 출력도 모름 비정상적인 웹사이트 접근 탐지 => 웹 트랙픽만 관찰 가능 어느것이 정상인지 판단 불가 머신러닝에서 하나의 개체/행 = 샘플, 데..

다음과 같이 데이터베이스에는 REG_ID,와 REG_TIME, MOD_ID와 MOD_TIME 이 있다. 시간 같은 경우는 현재 시간을 기록하게 기본 값으로 설정해두면 알아서 업데이트가 된다. 다만 REG_ID나 MOD_ID같은 경우에는 session에 있는 ID를 가져오면 된다. Vue 같은 경우는 Vuex안에 들어있는 Store의 storage에서 가져오면 된다. REG_ID와 TIME은 데이터베이스 생성 CREATE 구문을 실행할때 쿼리문에서 같이 넣어주는 것이며, MOD_ID와 TIME은 데이터베이스의 변경 UPDATE 구문을 실행할 때 쿼리문에서 같이 넣어주는 것이다. 한마디로 프로그램 자체에 영향을 주지는 않지만 누가 언제 데이터를 만들고 누가 언제 데이터를 변경했는지를 비즈니스 로직적으로 기록..