티스토리 뷰
이전 글에서 사용했던 여러 함수들을 사용해 간단한 예제 텍스트 파일을 HDFS에서 불러와 wordcount를 직접 해보겠습니다. 먼저 아래 링크에서 sample.txt 파일을 가상머신 내부에 설치해줍니다.
파일 링크
sample.txt 파일이 있는 Downloads 디렉터리로 들어가서 파일을 HDFS에 put 해줍니다.
이제 pyspark 쉘에 들어가서 해당 파일을 RDD로 생성해줍니다.
이전 글들에서 생성했던 RDD는 모두 파이썬 데이터 타입에 대한 데이터였지만 파일을 RDD로 생성하기 위해서는 sc.textFile을 통해 파일을 read합니다. 이때 HDFS의 home 경로를 기준으로 해당 파일에 대한 알맞은 경로를 입력해줍니다.
생성한 RDD를 map을 사용해 각 단어마다 split 해주는 lambda 함수로 모든 단어를 분리해줍니다.
하지만 map을 사용하면 아래와 같이 각 라인마다 리스트로 만들어집니다.
모든 단어들을 하나의 리스트안에 넣기위해 flatMap을 사용합니다. 아래와 같이 텍스트 파일에 있는 모든 단어들이 분리되어 하나의 리스트에 있는 것을 확인할 수 있습니다.
위에서 만들었던 RDD에서 모든 단어를 key로하고 value는 모두 1을 가질 수 있도록 먼저 map을 해준 뒤 동일한 단어들 끼리 병합될 수 있도록 reduceByKey를 사용해줍니다. 이때 value인 1을 더해주면 동일한 단어들이 병합될 때마다 카운트가 됩니다. 여기서 I, out은 2개 the는 5개 나머지 단어는 모두 1개씩 있다는 것을 볼 수 있습니다.
이제 reduceByKey로 병합된 데이터를 오름차순으로 출력해봅니다. 정렬은 sortByKey를 사용하고 ascending=True로 입력하면 오름차순으로 정렬해줍니다. 하지만 정렬을 value를 기준으로 해서 아래와 같이 단어를 기준으로 정렬이 된 모습입니다.
단어가 아닌 숫자를 기준으로 정렬하기 위해 map을 사용해 key와 value의 위치를 바꿔주고 다시 오름차순 정렬해 출력해보면 아래와 같이 카운트 숫자를 기준으로 출력된 모습을 확인할 수 있습니다.
ascending=False로 입력하면 내림차순으로 정렬된 결과를 볼 수 있습니다.
'Development > Big Data' 카테고리의 다른 글
[Hadoop] 아파치 플룸 (0) | 2020.01.25 |
---|---|
[Cloudera - 9] pyspark 쉘에서 filter, groupByKey, reduceByKey, countByValue (0) | 2020.01.07 |
[Cloudera - 8] pyspark 쉘에서 RDD 생성과 map, flatmap (0) | 2020.01.07 |
[Cloudera - 7] KBO 한국 야구 데이터를 사용해 Hive에서 간단한 분석 해보기 (0) | 2020.01.03 |
[Hadoop] 아파치 하이브 (0) | 2020.01.02 |
- Total
- Today
- Yesterday
- hive
- 배열과 문자열
- microwaving lunch boxes
- 삼각형 위의 최대 경로 수 세기
- 백준
- import
- python
- Django
- HDFS
- HiveQL
- Sqoop
- 하이브
- 합친 lis
- Jaeha's Safe
- 코딩인터뷰 완전분석
- 분할정복
- 스파크
- 삼각형 위의 최대 경로
- 팰린드롬 구하기
- pyspark
- 알고스팟
- Hadoop
- 완전탐색
- 종만북
- 2225
- 두니발 박사의 탈옥
- 외발 뛰기
- 출전 순서 정하기
- 하둡
- C++
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |