본문 바로가기 메뉴 바로가기

Don't die there

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Don't die there

검색하기 폼
  • 분류 전체보기 (108)
    • Coding Test (82)
      • 백준 (44)
      • 알고스팟 (30)
      • 코딩인터뷰 완전분석 (8)
    • Development (26)
      • 개발환경 (6)
      • Django (5)
      • Big Data (15)
    • 일상 (0)
  • 방명록

import (2)
[Cloudera - 5] Sqoop으로 MYSQL에서 Hive로 import하기

저번 글에서는 MYSQL에서 HDFS로 먼저 데이터를 옮기고 다시 HDFS에서 Hive로 옮겨봤습니다.이번에는 MYSQL에서 Hive로 바로 데이터를 옮기는 것을 스쿱을 사용해서 해보겠습니다.  hive cli에서 show databases를 해보면 저번에 만들었던 hdfs_retail_db를 확인할 수 있습니다. 이번에는 hive_retail_db라는 이름으로 database를 생성합니다. sqoop import 명령어를 입력해줍니다.HDFS로 옮길 때와 차이점은 --hive-database 옵션으로 옮기고자 하는 database를 입력해주고--hive-import 옵션을 명시해줍니다. hive_retail_db에서 쿼리를 사용해보면 성공적으로 데이터가 import된 것을 확인할 수 있습니다.MYSQL..

Development/Big Data 2020. 1. 1. 23:26
[Cloudera - 3] Sqoop으로 MYSQL에서 HDFS로 import하기

Sqoop은 MYSQL, Oracle, Postgresql과 같은 RDBMS와 HDFS, Hive, Hbase와 같은 하둡 에코시스템 사이에서 데이터를 주고 받을 수 있게 해줍니다. 이번 글에서는 MYSQL에서 HDFS로 스쿱을 사용해 데이터를 import하는 방법에 대해 알아보겠습니다. 먼저 quickstart에 설치되어있는 MYSQL에 접속하기위해 mysql -u root -p를 입력하고 패스워드는 cloudera를 입력해줍니다.show databases를 해보면 이미 여러 database가 있는 것을 확인할 수 있습니다. 이번에 사용할 데이터는 retail_db라는 database에 있는 테이블을 사용합니다.use retail_db로 retail_db를 선택하고 show tables를 통해 들어있는..

Development/Big Data 2020. 1. 1. 22:24
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • Sqoop
  • microwaving lunch boxes
  • HiveQL
  • 분할정복
  • Django
  • Jaeha's Safe
  • 두니발 박사의 탈옥
  • Hadoop
  • 외발 뛰기
  • 코딩인터뷰 완전분석
  • 종만북
  • 출전 순서 정하기
  • 하둡
  • 알고스팟
  • 스파크
  • 2225
  • 완전탐색
  • 하이브
  • pyspark
  • hive
  • HDFS
  • 삼각형 위의 최대 경로
  • 배열과 문자열
  • import
  • 합친 lis
  • 백준
  • C++
  • 팰린드롬 구하기
  • 삼각형 위의 최대 경로 수 세기
  • python
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바