일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- nest.js설명
- SBT표준
- 컨트렉트 배포 자동화
- ethers type
- ethers v6
- 러스트기초
- Vue.js
- 스마트컨트렉트 함수이름 중복 호출
- 컨트렉트 동일한 함수이름 호출
- multicall
- git rebase
- ethers websocket
- 머신러닝기초
- 러스트 기초
- ethers
- Vue
- 프록시배포구조
- 스마트 컨트렉트 함수이름 중복
- vue기초
- 스마트컨트렉트테스트
- chainlink 설명
- 러스트 기초 학습
- ambiguous function description
- 스마트컨트렉트 예약어 함수이름 중복
- 오블완
- rust 기초
- 체인의정석
- 스마트컨트렉트프록시
- ethers typescript
- 티스토리챌린지
Archives
- Today
- Total
목록그로스해킹 (1)
체인의정석
SEO 기초 - Robots.txt 등록
웹페이지를 만들었을 때 Robots.txt를 등록하여 얻을 수 있는 이점은 특정 주소만 검색되도록 하는 기능과 사이트맵을 더 빨리 찾을 수 있게 하는 기능이 있다는 점이다. 1 단계 텍스트 파일을 연다. 텍스트 파일의 제목은 robots로 두고 txt파일 형식으로 둔다. robots.txt 파일을 만든다. 2단계 User-agent: * Disallow: 이렇게 설정해준다. User-agent 를 *로 두면 특정 도메인의 크롤링봇을 막을 수 있다. Disallow의 경우 검색이 안걸리게 하려는 페이지가 있을 경우 따로 설정한다. Disallow:/test 이런식으로 하면 test 페이지는 검색에 따로 잡히지 않는다. 3단계 이 포스팅에서 사이트맵 등록하는 법을 기록해두었다. https://it-timeh..
마케팅/SEO
2020. 6. 12. 11:34