본문 바로가기
반응형

전체 글157

메타마스크 신규 생성 안녕하세요. 이전 게시글을 보시면 메타마스크 설치 방법에 대해 적혀있습니다. 메타마스크를 아직 설치하지 않으신 분이라면 이전 게시글을 보시고 오시는걸 권장합니다. 이번에는 메타마스크 신규 생성에 대해 알아보도록하겠습니다. 1. 메타마스크 신규 생성 메타마스크 시작하기를 누르게 된다면 아래 그림과 같이 지갑 가져오기 및 지갑 생성이 있습니다. 현재는 신규 생성을 하기 위함이니 지갑 생성을 누르도록 하겠습니다. - 신규 생성 == 지갑 생성 (같은 의미 입니다) 2. 메타마스크 지갑 생성을 누르게 되면 아래와 같은 문구에 동의함을 클릭 3. 메타마스크 비밀번호를 입력 4. 지갑을 보호하는 영상을 보여 주며 보안 방법 & 복구 방법에 대해 알려줍니다. 5. 빨간 네모 박스에 있는 시드 구문들을 순서대로 기억 .. 2021. 12. 9.
메타마스크 설치 방법 안녕하세요. 이번에는 메타마스크 설치 방법에 대해 알아보겠습니다. 요즘에 핫한 코인을 개인지갑에 보관하는 방법을 알아보도록 하겠습니다. 메타마스크란? - 메타마스크(Metamask)는 이더리움을 보유하고 송금 및 관리할 수 있는 암호화폐 지갑이다. 메타마스크는 구글 크롬 웹브라우저에서 플러그인 방식으로 사용하는 크롬 확장 프로그램이다. 1. 메타마스크 설치 구글에 "메타마스크" 를 쳐서 나오는 메타마스크 공식 사이트에 접속 - 공식 사이트 : https://metamask.io MetaMask - A crypto wallet & gateway to blockchain apps A crypto wallet & gateway to blockchain apps metamask.io 위와 같이 공식 사이트에 접.. 2021. 12. 9.
[Mysql] primary key 추가, 삭제, 수정 primary key 추가, 삭제, 수정을 알아보도록 하겠습니다. primary key 추가 ALTER TABLE `DB명`.`테이블명` ADD PRIMARY KEY (`컬럼명`, `컬럼명`); ex) ALTER TABLE `calorie`.`COMMENT` ADD PRIMARY KEY(`ID`, `Date`); primary key 삭제 ALTER TABLE `DB명`.`테이블명` DROP PRIMARY KEY; ex) ALTER TABLE `calorie`.`COMMENT` DROP PRIMARY KEY; primary key 수정 ( 삭제와 동시에 추가 ) ALTER TABLE `DB명`.`테이블명` DROP PRIMARY KEY, ADD PRIMARY KEY (`ID`, `Date`); ex) A.. 2021. 12. 7.
[JAVA] 파일 이동 및 파일명 변경 - FileUtils 안녕하세요. 저번 시간에는 파일 이동 및 파일명 변경 함수 - renameTo에 대해 알아보았는데요. 해당 renameTo 함수가 제대로 작동하지 않을 경우가 가끔 발생하는걸 확인했습니다. 어떤한 이유로 발생이 되는지는 정확히 모르지만 다른 해결방법을 찾았습니다. org.apache.commons.io.FileUtils.moveFile(File srcFile, File destFile) FileUtils.moveFile(File 매개변수1, File 매개변수2) 매개변수1 - 이동할 파일을 지정합니다. 매개변수2 - 매개변수1을 이동 및 파일명 변경을 합니다. 조건 : C:\before\before_test.csv 이라는 파일이 존재 -> C:\data\test.csv 로 이동을 하고 싶다면 아래와 같이.. 2021. 12. 7.
[Python] 로컬에 있는 csv파일 Hadoop으로 복사하기 안녕하세요. 이번에는 Python으로 로컬에 있는 csv파일을 Hadoop으로 복사하는 방법을 알아보려고 합니다. from hdfs import InsecureClient # hdfsIp - hadoop이 설치 되어 있는 IP를 써주시면 됩니다. ex) 192.168.1.1:9870 client = InsecureClient(hdfsIp) # filePath - 로컬 기준 어디에 있는 파일인지 path를 설정해주시면 됩니다. with client.write(filePath, encoding = 'utf-8') as path: data.to_csv(path, index = False) 위와 같이 주석으로 처리한 부분만 주의해주시면서 작성하시면 될 것 같습니다! 감사합니다! 2021. 12. 6.
[Python] Hadoop에 있는 csv파일 내용 pandas를 사용하여 읽기 안녕하세요. 이번에는 Python으로 Hadoop에 있는 csv파일 내용 pandas를 사용하여 읽기 방법을 알아보려고 합니다. from hdfs import InsecureClient import pandas as pd # hdfsIp - hadoop이 설치 되어 있는 IP를 써주시면 됩니다. ex) 192.168.1.1:9870 client = InsecureClient(hdfsIp) # filePath - hadoop 기준 어디에 있는 파일인지 path를 설정해주시면 됩니다. with client.read(filePath, encoding = 'utf-8') as data: # header - 헤더를 제외하고 데이터를 불러오게 됩니다. / delimiter - csv 구분자를 지정해주는 기능입니다... 2021. 12. 6.