스파크 클러스터를 사용하기 위해서는 spark-env.sh, spark-defaults.conf, workers 를 편집하면 된다. [ Spark 설치 ] Apache Spark 3.2.1 설치 및 압축 해제 # 설치 관리용 디렉토리 이동 cd /download # Spark 3.2.1 설치 [Not Found 뜰 경우 접속하여 맞는 버전 탐색] wget # Spark 3.2.1 압축 해제 tar -xzvf spark-3.2.4-bin-hadoop3.2.tgz -C /usr/local # Spark 디렉토리 이름 변경 mv /usr/local/spark-3.2.4-bin-hadoop3.2 /usr/local/spark [ Python & PySpark 설치 ] Python3 설치 및 파이썬 라이브러리 설..