본문 바로가기 메뉴 바로가기

Don't die there

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Don't die there

검색하기 폼
  • 분류 전체보기 (108)
    • Coding Test (82)
      • 백준 (44)
      • 알고스팟 (30)
      • 코딩인터뷰 완전분석 (8)
    • Development (26)
      • 개발환경 (6)
      • Django (5)
      • Big Data (15)
    • 일상 (0)
  • 방명록

Hadoop (2)
[Cloudera - 3] Sqoop으로 MYSQL에서 HDFS로 import하기

Sqoop은 MYSQL, Oracle, Postgresql과 같은 RDBMS와 HDFS, Hive, Hbase와 같은 하둡 에코시스템 사이에서 데이터를 주고 받을 수 있게 해줍니다. 이번 글에서는 MYSQL에서 HDFS로 스쿱을 사용해 데이터를 import하는 방법에 대해 알아보겠습니다. 먼저 quickstart에 설치되어있는 MYSQL에 접속하기위해 mysql -u root -p를 입력하고 패스워드는 cloudera를 입력해줍니다.show databases를 해보면 이미 여러 database가 있는 것을 확인할 수 있습니다. 이번에 사용할 데이터는 retail_db라는 database에 있는 테이블을 사용합니다.use retail_db로 retail_db를 선택하고 show tables를 통해 들어있는..

Development/Big Data 2020. 1. 1. 22:24
[Cloudera - 2] Hadoop 기본 명령어

Cloudera quickstart 이미지로 가상머신을 생성하고나면 하둡 에코시스템에 대한 여러 실습이 가능합니다.이번 글에서는 하둡의 기본 명령어에 대해 알아보겠습니다.   quickstart 가상머신 첫 화면에서 위에 표시된 아이콘을 클릭하면 터미널을 열 수 있습니다.    1. hadoop fs하둡 명령어는 앞에 hadoop fs 가 항상 붙습니다.터미널에 hadoop fs만 입력하면 사용가능한 하둡 명령어 리스트들을 확인할 수 있습니다.hadoop fs 뒤의 명령어는 대부분 리눅스와 동일하지만 명령어 앞에는 항상 하이픈(-)이 붙습니다.   2. hadoop fs -lsHDFS의 리스트를 확인할 수 있습니다.ls 뒤에 경로를 붙여 탐색하고 싶은 경로를 확인할 수 있고 경로를 붙이지않으면 홈 디렉터..

Development/Big Data 2020. 1. 1. 21:18
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 종만북
  • Django
  • 2225
  • 두니발 박사의 탈옥
  • 외발 뛰기
  • 삼각형 위의 최대 경로
  • 스파크
  • 백준
  • Jaeha's Safe
  • 삼각형 위의 최대 경로 수 세기
  • Hadoop
  • microwaving lunch boxes
  • hive
  • 코딩인터뷰 완전분석
  • pyspark
  • 하이브
  • 분할정복
  • 합친 lis
  • C++
  • Sqoop
  • 배열과 문자열
  • 출전 순서 정하기
  • HiveQL
  • import
  • 알고스팟
  • 완전탐색
  • 하둡
  • HDFS
  • 팰린드롬 구하기
  • python
more
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바