티스토리 뷰
저번 글에서는 MYSQL에서 HDFS로 먼저 데이터를 옮기고 다시 HDFS에서 Hive로 옮겨봤습니다.
이번에는 MYSQL에서 Hive로 바로 데이터를 옮기는 것을 스쿱을 사용해서 해보겠습니다.
hive cli에서 show databases를 해보면 저번에 만들었던 hdfs_retail_db를 확인할 수 있습니다.
이번에는 hive_retail_db라는 이름으로 database를 생성합니다.
sqoop import 명령어를 입력해줍니다.
HDFS로 옮길 때와 차이점은 --hive-database 옵션으로 옮기고자 하는 database를 입력해주고
--hive-import 옵션을 명시해줍니다.
hive_retail_db에서 쿼리를 사용해보면 성공적으로 데이터가 import된 것을 확인할 수 있습니다.
MYSQL에서 Hive로 바로 import할 때는 테이블을 따로 만들지 않아도 자동적으로 테이블이 생성하고 column의 데이터 타입도 자동으로 잡아주는 것을 확인할 수 있습니다.
'Development > Big Data' 카테고리의 다른 글
[Hadoop] 아파치 하이브 (0) | 2020.01.02 |
---|---|
[Cloudera - 6] HiveQL 기본 (0) | 2020.01.02 |
[Cloudera - 4] HDFS 데이터를 Hive로 옮기기 (0) | 2020.01.01 |
[Cloudera - 3] Sqoop으로 MYSQL에서 HDFS로 import하기 (0) | 2020.01.01 |
[Cloudera - 2] Hadoop 기본 명령어 (0) | 2020.01.01 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Jaeha's Safe
- 출전 순서 정하기
- 삼각형 위의 최대 경로
- hive
- 완전탐색
- Hadoop
- 합친 lis
- import
- 코딩인터뷰 완전분석
- 스파크
- HiveQL
- 분할정복
- 종만북
- microwaving lunch boxes
- 2225
- Django
- Sqoop
- 백준
- 배열과 문자열
- pyspark
- HDFS
- 삼각형 위의 최대 경로 수 세기
- 외발 뛰기
- C++
- python
- 알고스팟
- 하둡
- 팰린드롬 구하기
- 두니발 박사의 탈옥
- 하이브
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함