在当今大数据时代,Apache Spark 已成为最受欢迎的分布式计算框架之一。它以内存计算为核心,支持批处理、流处理、机器学习和图计算等多种数据处理场景。本教程将带你从零开始,在 CentOS 系统上完成 Spark集群部署,即使你是完全的小白,也能轻松上手!

在开始部署前,请确保你有以下资源:
在每台服务器上分别设置主机名(以Master为例):
# Master节点执行sudo hostnamectl set-hostname spark-master# Worker1节点执行sudo hostnamectl set-hostname spark-worker1# Worker2节点执行sudo hostnamectl set-hostname spark-worker2
然后在所有节点的 /etc/hosts 文件中添加如下内容:
192.168.1.10 spark-master192.168.1.11 spark-worker1192.168.1.12 spark-worker2
在所有节点上安装 OpenJDK 8:
sudo yum install -y java-1.8.0-openjdk-devel# 验证安装java -version在Master节点生成SSH密钥,并分发到所有Worker节点:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsassh-copy-id spark-worker1ssh-copy-id spark-worker2
测试是否可以无密码登录:ssh spark-worker1
在Master节点操作,然后同步到其他节点。
cd /optsudo wget https://dlcdn.apache.org/spark/spark-3.5.0/spark-3.5.0-bin-hadoop3.tgzsudo tar -zxvf spark-3.5.0-bin-hadoop3.tgzsudo mv spark-3.5.0-bin-hadoop3 sparksudo chown -R $USER:$USER spark
将Spark目录复制到所有Worker节点:
scp -r /opt/spark spark-worker1:/opt/scp -r /opt/spark spark-worker2:/opt/
进入Spark配置目录:
cd /opt/spark/conf
cp spark-env.sh.template spark-env.sh
编辑 spark-env.sh,添加以下内容:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdkexport SPARK_MASTER_HOST=spark-masterexport SPARK_WORKER_MEMORY=1gexport SPARK_WORKER_CORES=2
cp workers.template workers
编辑 workers 文件,添加Worker节点主机名:
spark-worker1spark-worker2
在Master节点执行启动脚本:
/opt/spark/sbin/start-master.sh/opt/spark/sbin/start-workers.sh
成功启动后,可通过浏览器访问Web UI:http://spark-master:8080,查看集群状态。
提交一个简单的Pi计算任务测试集群:
/opt/spark/bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://spark-master:7077 \ /opt/spark/examples/jars/spark-examples_2.12-3.5.0.jar \ 100
如果输出中包含类似 Pi is roughly 3.14... 的结果,说明你的 CentOS Spark集群部署 成功了!
SPARK_WORKER_MEMORY/opt/spark/logs 目录下通过本教程,你已经掌握了在 CentOS 上部署 Spark分布式计算 集群的核心步骤。这套 CentOS大数据平台 可作为后续开发数据管道、机器学习模型等应用的基础。如果你正在寻找一份完整的 Apache Spark安装教程,恭喜你,现在你已经拥有了!
祝你在大数据之旅中一帆风顺!
本文由主机测评网于2025-12-20发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20251210474.html