在大数据处理领域,Hadoop 是一个不可或缺的开源框架。对于刚接触大数据的新手来说,在本地搭建一个 Hadoop 环境是学习的第一步。本文将手把手教你如何在 RockyLinux 操作系统上完成 Hadoop 的安装与配置,即使你是零基础的小白,也能顺利部署成功!

在开始之前,请确保你已经:
Hadoop 依赖 Java 运行,因此首先需要安装 OpenJDK。
# 安装 OpenJDK 11sudo dnf install -y java-11-openjdk-devel# 验证安装java -versionjavac -version如果输出显示版本信息(如 openjdk version "11.0.xx"),说明 Java 已成功安装。
为了安全和管理方便,建议为 Hadoop 创建专用用户:
sudo useradd -m hadoopsudo passwd hadoopsudo usermod -aG wheel hadoop然后切换到 hadoop 用户:
su - hadoop前往 Apache Hadoop 官网获取最新稳定版链接(本文以 Hadoop 3.3.6 为例):
wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gztar -xzvf hadoop-3.3.6.tar.gzmv hadoop-3.3.6 /home/hadoop/hadoop编辑 .bashrc 文件,添加 Hadoop 和 Java 的环境变量:
nano ~/.bashrc在文件末尾添加以下内容:
export JAVA_HOME=$(dirname $(dirname $(readlink -f $(which javac))))export HADOOP_HOME=/home/hadoop/hadoopexport PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop保存后执行以下命令使配置生效:
source ~/.bashrc进入 Hadoop 配置目录:
cd $HADOOP_HOME/etc/hadoop编辑 hadoop-env.sh,设置 JAVA_HOME:
nano hadoop-env.sh找到并修改以下行:
export JAVA_HOME=$(dirname $(dirname $(readlink -f $(which javac))))单机模式无需修改 core-site.xml、hdfs-site.xml 等文件,使用默认配置即可运行。
运行一个简单的 Hadoop 示例程序来测试是否安装成功:
# 创建输入目录mkdir inputecho "Hello Hadoop" > input/file1.txtecho "Hadoop is great" > input/file2.txt# 运行 WordCount 示例hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount input output# 查看结果cat output/*如果看到类似以下输出,说明 Hadoop 单机模式已成功运行:
Hello 1Hadoop 2is 1great 1which javac 和 readlink -f 确认 JAVA_HOME 正确。通过本教程,你已经成功在 RockyLinux 上完成了 Hadoop 的安装与配置,并运行了第一个 MapReduce 任务。这是迈向大数据开发的重要一步!后续你可以尝试配置伪分布式模式,或搭建多节点集群。
记住,掌握 RockyLinux Hadoop安装、RockyLinux Hadoop配置、Hadoop单机部署教程 和 新手Hadoop入门指南 是每个大数据工程师的起点。祝你学习顺利!
本文由主机测评网于2025-12-22发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20251211203.html