티스토리 뷰
저번 글에서 MYSQL 데이터를 HDFS로 옮겨봤는데요
이번에는 옮겨던 HDFS 데이터를 다시 Hive로 옮겨보겠습니다.
저번에 HDFS로 import해서 가져온 데이터입니다.
hive 라고 입력하면 hive cli로 변경됩니다.
먼저 hdfs_retail_db라는 database를 만들어줍니다.
그리고 categories라는 테이블을 만들고 HDFS에 있는 데이터와 동일한 데이터 타입으로 각 column을 다음과 같이 정의합니다.
load data inpath 'HDFS에서 옮기려는 데이터' into table 테이블이름 으로 입력해줍니다.
다음 쿼리를 통해 HDFS에서 Hive로 성공적으로 데이터를 옮긴 것을 확인할 수 있습니다.
'Development > Big Data' 카테고리의 다른 글
[Cloudera - 6] HiveQL 기본 (0) | 2020.01.02 |
---|---|
[Cloudera - 5] Sqoop으로 MYSQL에서 Hive로 import하기 (0) | 2020.01.01 |
[Cloudera - 3] Sqoop으로 MYSQL에서 HDFS로 import하기 (0) | 2020.01.01 |
[Cloudera - 2] Hadoop 기본 명령어 (0) | 2020.01.01 |
[Cloudera - 1] Virtual Box로 Cloudera quick start사용해보기 (0) | 2019.12.27 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 종만북
- python
- C++
- 합친 lis
- pyspark
- 스파크
- microwaving lunch boxes
- import
- Django
- 하이브
- 코딩인터뷰 완전분석
- Jaeha's Safe
- 분할정복
- HDFS
- hive
- 2225
- 두니발 박사의 탈옥
- 출전 순서 정하기
- Sqoop
- HiveQL
- 알고스팟
- 삼각형 위의 최대 경로
- 외발 뛰기
- 하둡
- 삼각형 위의 최대 경로 수 세기
- 완전탐색
- 배열과 문자열
- 백준
- Hadoop
- 팰린드롬 구하기
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함