面向开发者和中小企业打造的一站式、全云端的开发平台,打开浏览器就可以开发、调试、上线,所测即所得,并结合无服务器的模式,重新定义云原生时代的研发工作方法论。旨在降低开发者上手成本和中小企业的启动成本、运营成本、以及突发流量带来的运维风险。
本教程介绍如何在 Linux 实例上快速搭建一个 Hadoop 伪分布式环境。
场景内容选自 阿里云体验实验室
阿里云体验实验室 提供一台配置了CentOS 7.7的 ECS 实例(云服务器)。通过本教程的操作,您可以基于 ECS 实例搭建 Hadoop 伪分布式环境。
阿里云场景免费资源: https://developer.aliyun.com/adc/scenario/cf48abdfe41e4187be079722b9dc15b6
Apache Hadoop
Apache Hadoop 软件库是一个框架,该框架允许使用简单的编程模型跨计算机集群对大型数据集进行分布式处理。它旨在从单个服务器扩展到数千台机器,每台机器都提供本地计算和存储。库本身不是设计用来依靠硬件来提供高可用性,而是旨在检测和处理应用程序层的故障,因此可以在计算机集群的顶部提供高可用性的服务,而每台计算机都容易出现故障。
1.执行以下命令,下载 JDK1.8 安装包。
wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
2.执行以下命令,解压下载的 JDK1.8 安装包。
tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
3.执行以下命令,移动并重命名 JDK 包。
mv java-se-8u41-ri/ /usr/java8
4.执行以下命令,配置 Java 环境变量。
echo 'export JAVA_HOME=/usr/java8' >> /etc/profile
echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile
source /etc/profile
5.执行以下命令,查看 Java 是否成功安装。
java -version
如果返回以下信息,则表示安装成功。
1.执行以下命令,下载 Hadoop 安装包。
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
2.执行以下命令,解压 Hadoop 安装包至 /opt/hadoop 。
tar -zxvf hadoop-2.9.2.tar.gz -C /opt/
mv /opt/hadoop-2.9.2 /opt/hadoop
3.执行以下命令,配置 Hadoop 环境变量。
echo 'export HADOOP_HOME=/opt/hadoop/' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile
source /etc/profile
4.执行以下命令,修改配置文件 yarn-env.sh 和 hadoop-env.sh 。
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh
5.执行以下命令,测试 Hadoop 是否安装成功。
hadoop version
如果返回以下信息,则表示安装成功。
1.修改 Hadoop 配置文件 core-site.xml 。
vim /opt/hadoop/etc/hadoop/core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/tmp</value>
<description>location to store temporary files</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
2.修改 Hadoop 配置文件 hdfs-site.xml 。 a.执行以下命令开始进入编辑页面。
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
b.输入 i 进入编辑模式。 c.在<configuration></configuration>节点内插入如下内容。
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/tmp/dfs/data</value>
</property>
d.按 Esc 键退出编辑模式,输入:wq 保存退出。
1.执行以下命令,创建公钥和私钥。
ssh-keygen -t rsa
2.执行以下命令,将公钥添加到 authorized_keys 文件中。
cd .ssh
cat id_rsa.pub >> authorized_keys
1.执行以下命令,初始化 namenode 。
hadoop namenode -format
2.依次执行以下命令,启动 Hadoop 。
依次执行以下命令,启动 Hadoop 。
start-yarn.sh
jps
更多体验场景请至开发者实验室:https://developer.aliyun.com/adc/labs/
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.