티스토리 뷰
[Cloudera - 9] pyspark 쉘에서 filter, groupByKey, reduceByKey, countByValue
Junchoi 2020. 1. 7. 18:08filter()
filter는 filter의 인자함수에서 true인 값만을 반환해줍니다.
그러므로 filter에서 사용될 인자함수는 true나 false를 반환해주는 함수를 사용해야 합니다.
지난 글에서 생성했던 RDD입니다.
filteredRDD에는 x보다 큰 값으로 filteredRDD2에는 x보다 작은 값으로 filter를 적용해줍니다.
기타 함수
first() - RDD의 첫 번째 파티션의 첫 번째 요소를 반환합니다.
take() - RDD의 첫 번째 파티션부터 인자로 넣은 정수만큼 반환합니다.
takeOrdered() - 오름차순으로 인자값의 개수만큼 반환합니다.
top() - 내림차순으로 인자값의 개수만큼 반환합니다.
groupByKey()
key, value 데이터 타입의 key 값을 기준으로 shuffling 해줍니다. 하지만 함수를 인자로 적용하지 못하고 네트워크 부하, out of memory 가능성과 같은 문제점으로 인해 reduceByKey()를 주로 사용하게 됩니다.
먼저 키값 데이터 타입의 RDD를 생성하고 groupByKey()를 통해 동일한 키값을 병합해줍니다.
반복문에서 동일한 키를 가진 값들을 더하여 출력해줄 수 있습니다.
reduceByKey()
groupByKey와 동일한 형태에서 함수를 인자로 입력받을 수 있습니다.
아래의 lambda 함수는 동일한 키를 가진 값들을 더하여 위 groupByKey에서 sum으로 값들을 더해주는 것과 동일하게 적용됩니다.
countByValue()
reduceByKey나 groupByKey를 통해 병합된 RDD를 다시 딕셔너리 타입으로 만들어줍니다.
'Development > Big Data' 카테고리의 다른 글
[Hadoop] 아파치 플룸 (0) | 2020.01.25 |
---|---|
[Cloudera - 10] pyspark 쉘에서 HDFS 파일 wordcount (0) | 2020.01.07 |
[Cloudera - 8] pyspark 쉘에서 RDD 생성과 map, flatmap (0) | 2020.01.07 |
[Cloudera - 7] KBO 한국 야구 데이터를 사용해 Hive에서 간단한 분석 해보기 (0) | 2020.01.03 |
[Hadoop] 아파치 하이브 (0) | 2020.01.02 |
- Total
- Today
- Yesterday
- 합친 lis
- 분할정복
- Sqoop
- 스파크
- 코딩인터뷰 완전분석
- 2225
- python
- pyspark
- HiveQL
- Django
- import
- 팰린드롬 구하기
- 알고스팟
- 외발 뛰기
- HDFS
- 완전탐색
- 하둡
- 배열과 문자열
- 두니발 박사의 탈옥
- 백준
- 하이브
- 출전 순서 정하기
- 종만북
- microwaving lunch boxes
- C++
- hive
- 삼각형 위의 최대 경로
- 삼각형 위의 최대 경로 수 세기
- Hadoop
- Jaeha's Safe
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |