要求

系统:win10(唯有win10能够安装子系统)

7. 参谋资料###\

1. Hadoop单节点安装
2. Ubuntu14.04下安装Hadoop2.4.0
(单机方式)
3.
Hadoop设置教程_单机/伪布满式配置_Hadoop2.6.0/Ubuntu14.04

1.6.2. vmware-tools.pl: command not found 11

Win10上利用子系统搭建hadoop本地开辟条件及周边难点一蹴而就

4. 配置Hadoop###\

4.1 下载安装Hadoop

Hadoop 2 能够经过
http://mirror.bit.edu.cn/apache/hadoop/common/
下载,一般接纳下载最新的安定版本,即下载 “stable” 下的
hadoop-2.x.y.tar.gz 那么些格式的文件,这是编写翻译好的,另一个包括 src
的则是 Hadoop 源代码,需求开展编写翻译才可选取。
本身从来下载编译好的压缩包:

wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz

解压缩:

tar xfz hadoop-2.7.1.tar.gz

将安装包移动到usr/local/hadoop

sudo mv hadoop-2.6.0 /usr/local/hadoop

更动hadoop文件夹的持有者为spark顾客

sudo chown -R spark /usr/local/hadoop

测量检验hadoop是不是可用
/usr/local/hadoop/bin/hadoop version
无可置疑展现hadoop版本表示可用

4.2 Hadoop相关景况变量配置
打开./bashrc文件:

sudo vim ~/.bashrc

在.bashrc文件末尾增添相关蒙受变量:

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

应用景况变量:

source ~/.bashrc

4.3 hadoop相关安插文件的布置

  1. 配置hadoop-env.sh

    sudo vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh
    

    更改JAVA_HOME为
    export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

  2. 配置core-site.xml

    sudo vim $HADOOP_HOME/etc/hadoop/core-site.xml
    

    <configuration></configuration>以内投入HDFS的布局(HDFS的端口配置在8000):
    <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
    </property>

  3. 配置yarn-site.xml

    sudo vim $HADOOP_HOME/etc/hadoop/yarn-site.xml
    

    <configuration></configuration>里头步向以下内容:
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>

  4. 配置mapred-site.xml
    HADOOP_HOME目录下有三个计划模板$HADOOP_HOME/etc/hadoop/mapred-site.xml.template,先拷贝到$HADOOP_HOME/etc/hadoop/mapred-site.xml。

    cp $HADOOP_HOME/etc/hadoop/mapred-site.xml{.template,}
    

编辑$HADOOP_HOME/etc/hadoop/mapred-site.xml文件:

   sudo vim $HADOOP_HOME/etc/hadoop/mapred-site.xml

  在`<configuration></configuration>`之间加入以下内容:
   <property> 
      <name>mapreduce.framework.name</name> 
      <value>yarn</value>
   </property>

4.3 配置HDFS文件目录
1. 开立文件目录
即便筹算将数据存放在/mnt/hdfs,方便起见,现将其设为二个情况变量:

export HADOOP_DATA_DIR=/mnt/hdfs

开创DataNode和NameNode的积攒目录,同一时候将那三个文件夹的全体者修改为spark:

sudo mkdir -p $HADOOP_DATA_DIR/namenode
sudo mkdir -p $HADOOP_DATA_DIR/datanode
sudo chown -R spark $HADOOP_DATA_DIR

2. 配置hdfs-site.xml文件

sudo vim $HADOOP_HOME/etc/hadoop/hdfs-site.xml

<configuration></configuration>以内增添DataNode和NameNode的配备,如下:

<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/mnt/hdfs/namenode</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/mnt/hdfs/datanode</value>
</property>

3. 格式化HDFS文件系统
采取下列命令格式化HDFS文件系统:

hdfs namenode -format

1.5.5. 加锁之后,或新建文件夹,赋权限 10

说明

满心慰勉的预备攻读hadoop,没悟出困难重重,具体多坑?
Hadoop对微软如此不友好,
原先希图安装在docker上得以啊,一追寻,三个课程都未曾,小编???,
那装个虚构机吧,配置范围了自身的想象,
那搞个双系统吧,linux上又不可能设置qq等必得软件,
就算也可编写翻译Hadoop源码为windows版本,可是hadoop那么多生态遇到,难道作者要每二个都编写翻译?
你大概会将代码打包为jar包再发送到服务器上运转,可是那扩充了多量的调护医疗专门的工作,并且浪费了大气光阴。
本身拿那windows能如何是好?乃至一度想换个黑苹果(忍住了)。

估计小编大微软塌塌煦也发觉那样下来无法毛利,只可以赶紧叫上兄弟Ubuntu来填坑。
本课程利用win10自带的Ubuntu子系统来布局Hadoop运维情状。

2. SSH登陆配置####\

集群、单节点方式都急需用到
SSH登陆
,况且安插ssh的免密码登入,在集群运行时候可防止去输入密码的难为。Ubuntu
暗中同意已设置了 SSH client,别的还亟需设置 SSH server:

sudo apt-get install openssh-server

测验使用ssh登陆本机:

ssh localhost

报到成功后得以输入exit退出

图片 1

ssh登陆本机

设置ssh无密码登入
设置免密码登陆,生成私钥和公钥,利用 ssh-keygen
生成密钥,并将密钥插手到授权中。
变迁公钥/私钥对:

ssh-keygen -t rsa -P ""

-P表示密码,-P ”
就象征空密码,也足以绝不-P参数,这样即将三车回车,用-P就一遍回车。它在/home/spark下生成.ssh目录,.ssh下有id_rsa和id_rsa.pub,后边五个为私钥,前面一个为公钥。
下边大家将公钥追加到authorized_keys中,它客户保存全部允许以这两天客户地方登入到ssh顾客端顾客的公钥内容

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

再度利用ssh登入localhost,就不再需求输入密码:

ssh localhost

记得退出登陆,继续张开配备exit

图片 2

ssh登陆本地无需再输入密码

5.2.3. 启动hbase 84

步骤

3. 安装Java环境###\

安装JDK:

sudo apt-get update
sudo apt-get install openjdk-7-jdk

安装成功后,使用java -version java版本

图片 3

好端端显示java版本

布局Java环境变量,要是利用方面包车型地铁点子安装jdk,那么Java的安装路线应该是/usr/lib/jvm/java-7-openjdk-amd64,不过即使不能够显著,能够动用如下命令:

update-alternatives - -config java

输入结果:/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java

咱俩只取后边的片段 /usr/lib/jvm/java-7-openjdk-amd64
配置.bashrc文件:

sudo vim ~/.bashrc  #如果没有vim 请另行安装vim

在文件末尾追加下边内容,然后保留

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

施行上面命,使增加的情况变量生效:

source ~/.bashrc

测量检验Java景况变量结果:

echo $JAVA_HOME

假定输出/usr/lib/jvm/java-7-openjdk-amd64 则象征配置成功

3.8.5. 7个布局文件 62

第二步:配置Ubuntu子系统

  • 设置主机名(不是必需的)

子系统主机名默许使用windows宿主机的名字,倘诺您平昔没改过突显的相应是一串字符,为了有助于开拓,你应有修改主机名。通过设置->系统->关于->重命名这台电脑改造主机名。

  • 设置root密码

sudo passwd root
  • 设置私下认可登入客户

为了能造福开辟,能够设置Ubuntu的私下认可登陆客户为目前报到win10的客商名,因为您付出时是以当下报到客户实施顺序的,所认为了幸免权限难题,推荐您如此做。
诸如当前自己win10的客商为manlier,那就安装私下认可客商为manlier,假如当前ubuntu中并未有该顾客,会让您创建。

在Power shell 中执行

ubuntu config --default-user <username>
  • 安装ssh服务

Ubuntu 暗中同意安装了ssh服务,若无设置,实施

sudo apt-get install openssh-client
sudo apt-get install openssh-server
  • 启动ssh服务

sudo service ssh start

假定超过难题,重新安装ssh服务

sudo apt-get purge openssh-server
sudo apt-get install openssh-server

再一次运营suddo service ssh --full-restart翻开是还是不是已运转成功

  • 配置ssh端口

ssh端口暗许是22号端口,该端口在win第10中学一度被sshProxy服务占了,你能够关闭该服务。也足以通过下边包车型地铁一声令下在Ubuntu中改造ssh端口。

修改/etc/ssh/sshd_configPort 22为任何端口

vi /etc/ssh/sshd_config

重启ssh服务

sudo service ssh --full-restart

本文选取第一种,即直接关门sshProxy服务。若您选择第二种,之后须求配备Hadoop集群的ssh端口。

  • 计划免密登入

同理可得,Hadoop供给树立在ssh的免密服务之上,因而须求开展ssh的公钥登入配置。

修改sshd_config文件,主要改动上边几行

UsePrivilegeSeparation no
PermitRootLogin no         #如果你确实要用root方式登录的话设为yes
PasswordAuthentication yes

在Ubuntu中重启ssh服务

sudo service ssh --full-restart

执行ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa浮动密钥,注意不要采取dsa加密,它不安全也不再被扶助。

执行ssh-copy-id -i ~/.ssh/id_rsa.pub <username>@localhost将公钥发送至Ubuntu,时期必要输入贰次(之后就无需了)顾客的密码。

时至明日免密服务已经铺排完成。运营ssh localhost翻看是还是不是无需密码登入,若现身难题,请查看输出到显示屏的日记。

1. 创建spark用户###\

为了隔绝Hadoop和其余软件, 创制了能够登录的 spark 客商,并行使 /bin/bash
作为 shell:

sudo useradd -m spark-s /bin/bash

设置spark顾客密码:

sudo passwd spark

可为 spark客户扩展管理员权限,制止安排时候蒙受有个别意料之外的权位难题:

sudo adduser hadoop sudo

增加完顾客后,客商spark账户登入服务器,实行服务器配置。

1.2.3. 设置root客商密码 5

第三步:安装Hadoop

在配备完ssh后,你能够一直依据法定文书档案中的说明,在linux意况下安装Hadoop了,这里列出重视步骤。

  • 安装JDK

Hadoop 注重JDK,首先需求设置Java,这里安装Oracle Java 8

sudo apt-get install python-software-properties
sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer
  • 配置JAVA_HOME

翻开JAVA安装路线

sudo update-alternatives --config java

  Selection    Path                                     Priority   Status
------------------------------------------------------------
  0            /usr/lib/jvm/java-8-oracle/jre/bin/java   1081      auto mode
* 1            /usr/lib/jvm/java-8-oracle/jre/bin/java   1081      manual mode

看到JDK路径为/usr/lib/jvm/java-8-oracle

/etc/environment中首先行增加如下内容:

JAVA_HOME="/usr/lib/jvm/java-8-oracle"

履新情况变量

source /etc/enviroment
  • 下载Hadoop并解压

cd /opt
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.9.0/hadoop-2.9.0.tar.gz
tar xzvf hadoop-2.9.0.tar.gz
  • 设置HADOOP_HOME路径

/etc/environment文本中率先行增添HADOOP_HOME变量,为了输入指令时的福利着想,你能够投入到PATH景况变量中。

HADOOP_HOME="/opt/hadoop-2.9.0"
PATH="$HADOOP_HOME/bin:..."

source /etc/environment
  • 设置JAVA_HOME路径

修改etc/hadoop/hadoop-env.sh文本中的JAVA_HOME变量

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
  • 以伪布满形式配置Hadoop

修改etc/hadoop/core-site.xml文本内容如下:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

修改etc/hadoop/hdfs-site.xml文本内容如下:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>
  • 配置YAHighlanderN(若您采纳YA安德拉N作为财富管理器)

修改etc/hadoop/mapred-site.xml如下:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

修改etc/hadoop/yarn-site.xml如下:

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
  • 格式化文件系统

bin/hdfs namenode -format
  • 张开 NameNode 和 DataNode 守护进程

sbin/start-dfs.sh
  • 开启YARN

sbin/start-yarn.sh
  • 翻看是不是运营成功

输入jps命令,若以下进度都运营了,表达运转成功

1984 SecondaryNameNode
2212 ResourceManager
2376 Jps
1738 DataNode
1612 NameNode
2334 NodeManager
  • 始建顾客目录

hadoop fs -mkdir /user
hadoop fs -mkdir /user/<username>

迄今windows上的hadoop情形就搭建完结了,你能够打开localhost:50070翻开是还是不是运维成功。

好了,以往您能够行使idea或任何开采工具进行开辟和调试了,而不用每回都打包到服务器上运转了(击掌)

服务器意况:Ubuntu15.04、jdk1.7、Hadoop2.7.1

3.8.4. 修改hadoop全局配置文件【core-site.xml】 58

第一步:安装Ubuntu子系统

展开windows市廛,寻觅Ubuntu,找到后点击安装,等待安装收尾就能够。
设置到位后,为了未来能加速布局速度,安装包源为Ali源。

6. 运行WordCount测试###\

单机形式安装完毕,上面通超过实际行hadoop自带实例WordCount验证是或不是安装成功。
翻看HDFS根目录下的文件:

hdfs dfs -ls /

在HDFS上创建input目录:

hdfs dfs -mkdir /input

将Hadoop路径下的README.txt传到HDFS:

hdfs dfs -put $HADOOP_HOME/README.txt /input/

达成后运转如下命令,实行Word Count操作:

bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.7.1-sources.jar org.apache.hadoop.examples.WordCount /input /output

图片 4

并未有十分 ,职务试行到位

查看总计结果:

hdfs dfs -cat /output/*

图片 5

体现出单词的总括结果

最后Hadoop单节点的布署就成功了。如有何难点,希望我们商量指正。

3.5.7. 伪布满式实例 43

周边错误

  • 客商权限难题

若您在Ubuntu中以root身份运营了hadoop,何况创办了文件,那么那一个文件就属于root。而在支付条件中,你是作为其余顾客运行程序的,未有权限访问该公文,要拜谒文件,可透过以下指令改动文件所有者:

sudo hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

OWNER:GROUP就是用户:所属组,比方改变为manlier:supergroup将文件的主人改为了supergroup组下的manlier顾客

  • datanode进度未运维

查看logs/hadoop-<username>-datanode-<hostname>.log文件检查错误。

若出现java.io.IOException: Incompatible
clusterIDs,则表达你的data进度的集群id与name进度的集群id不雷同,消除办法如下:

找到你的hdfs的文件存放路线,若您未曾钦定,默以为/tmp/hadoop-<username>,通透到底删除它,重新格式化文件系统,重启hadoop就可以,查看具体原因。

  • 出现 Unable to load native-hadoop library for your platform…

查阅当前是否配备好了HADOOP_HOME蒙受变量

echo $HADOOP_HOME

万一出口为空,你须要在/etc/enviroment文件中设置Hadoop目录:

HADOOP_HOME=your_hadoop_path

并再次更新遇到变量

source /etc/enviroment

5. 启动Hadoop###\

启动HDFS:

$HADOOP_HOME/sbin/start-dfs.sh

启动yarn:

$HADOOP_HOME/sbin/start-yarn.sh

HDFS和yarn的web调节台暗中认可监听端口分别为50070和8088。能够通过浏览放访问查看运行意况。

悬停命令:
$HADOOP_HOME/sbin/stop-dfs.sh
$HADOOP_HOME/sbin/stop-yarn.sh
借使一切平常,使用jps能够查阅到正在运作的Hadoop服务,在自笔者机器上的显示结果为:

5003 SecondaryNameNode
5341 NodeManager
4798 DataNode
5182 ResourceManager
7311 Jps
4639 NameNode

1.6.1. ubuntu smbus host controller not enabled 10

4.3.2. 格式化namenode 82

3.3.2. 进行mvn,编写翻译打包hadoop 37

2.2.2. 安装 jdk1.9 15

3.8.5.2. 安排文件2:yarn-env.sh 63

3.5.1. ./etc/hadoop/core-site.xml 41

3.9.6. Permanently added ‘ubuntu’ (ECDSA) to the list of known hosts 78

5.1.1. 装置蒙受变量 83

4.2. 修改配置文件 81

3.1.1. 情状认证 29

3.2.2. 解压,即安装Hadoop 31

2.1.4. 切换jdk版本 14

2.4.2. No command ‘geidt’ found 21

1.1.2. 创建hadoop用户 2

5.2.2. Hbase配置【/conf/hbase-site.xml】 84

2.3.3. 装置正视库 20

六、 ~/.m2/settings.xml配置 27

2.1. 基础部分 13

4.2.2. 改换spark配置文件【spark-env.sh.template】 81

二、 Mvn版本 25

其三章 Hadoop安装及布置 28

1.4.1. 安装yum 8

三、 .bashrc配置 26

1.3.3. 相对路线与相对路线的分别 7

5.2.1. 与jdk关联【/conf/hbase-env.sh】 84

3.3.1. 下载、并解压hadoop源码 37

4.1. 安装 80

1.3.1. 文书编辑器 7

2.2.3. 翻看当前私下认可的jdk 16

1.2.4. 修改主机名 5

第五章 Hbase安装及配置 82

首先章 Ubuntu使用手册 1

2.2.4. 查看当前版本的java路线 16

3.9.3. ERROR: JAVA_HOME is not set and could not be found. 74

3.8. Hadoop布满式集群布署 56

1.2.2. 装置一定IP 4

5.2. 单机方式 83

3.8.8. http看望结果 72

1.1. Ubuntu安装及安装 1

3.7. 启动YARN 54

3.8.5.1. 安顿文件1:hadoop-env.sh 63

3.6.1.6. 【./etc/hadoop/yarn-site.xml】 49

4.2.3. spark关联jdk【spark-env.sh】 81

2.4.1. dpkg was interrupted, you must manually run ‘sudo dpkg –configure -a’ to correct the problem
21

2.2.6. 检验java_home是还是不是设置科学 17

3.8.3. 设置host【/etc/hosts】 56

3.9.2. No command ‘hdfs’ found, did you mean 73

2.4.3. jdk本子不得法:’build.plugins.plugin.version’ for org.apache.maven.plugins:maven-javadoc-plugin is missing
21

3.2. 装置 Hadoop(使用编写翻译后) 31

3.9.1. Unable to load native-hadoop library for your platform. 73

3.8.2. 翻看当前时刻 56

3.1.3. 仿效资料 29

1.2.5. 退换虚构机在vm上显得的名字 6

3.8.7. 在windows中验证 72

五、 /etc/profile配置 26

其次章 Java蒙受设置及计划 12

一、 java版本: 25

4.3.1. 启动hadoop 82

2.3.2. 装置仓库路线 19

1.5. 常用命令 8

4.3.4. 翻看进程 (slave) 82

1.5.4. 安装一流管理员密码 9

1.1.4. 安装SSH Server 3

3.5.4. NameNode 格式化 42

2.1.2. 查看mvn安装地方 13

5.1.2. 查看版本 83

2.1.3. 重新安装oracle-java9-installer 13

3.6.1.2. 【/etc/profile】 47

3.4. Hadoop单机配置(非遍及式) 38

5.3. 伪遍布式形式 84

2.4.4. Could not initialize class com.google.inject.internal.cglib.core
23

2.1.1. JRE和JDK的区别 13

3.6.1.1. 【/etc/hosts】 46

3.6.1.4. *【./etc/hadoop/core-site.xml】 47

3.3. 装置hadoop(使用源码编写翻译) 36

2.2.5. 设置JAVA_HOME【~/.bashrc】 16

3.8.6. 将配备好的hadoop复制到其余节点 71

1.3.2. ~的含义 7

3.6.1.5. *【./etc/hadoop/hdfs-site.xml】 48

3.7.1. 改造配置文件 54

3.1.5. hadoop为主命令 30

3.2.5. 在hadoop-config中,设置Java路径 35

3.2.1. 下载Hadoop、及验证 31

4.3. 初叶程序 82

3.6.1.3. 【~/.bashrc】 47

4.3.3. master启动hadoop 82

1.6.3. gedit 报错 11

3.1.2. 特别表明 29

3.5. Hadoop伪布满式配置 41

1.4. 工具安装 8

3.6.1.7. *【./etc/hadoop/mapred-site.xml】 50

1.2. 基础条件 4

3.8.5.3. 安插文件5:hdfs-site.xml 65

1.4.2. 反省vim是还是不是安装 8

1.3. 基础知识 6

4.2.1. 安顿景况变量【/etc/profile】 81

3.5.3. 从伪布满式切换回非布满式形式 42

1.5.3. vim命令 9

1.1.3. 更新apt、vim 2

2.4. 荒谬新闻 20

四、 /etc/environment配置 26

3.8.1. 集群规划 56

3.2.4. 布局PATH处境变量【~/.bashrc】 33

2.3. 安装maven 18

3.8.5.4. 配备文件6:mapred-site.xml 66

3.1.4. 查看下载的hadoop版本 30

5.3.1. 配置conf/hbase-env.sh
85

3.4.1. 查看Hadoop 附带的有着例子 38

2.2.1. apt-get install openjdk-8-jdk 15

1.2.7. 快捷键 6

5.3.2. conf/hbase-site.xml 85

1.2.6. 修改linux系统时间 6

2.2. 安装 jdk 14

3.6.1.8. 【./etc/hadoop/hadoop-env.sh】 51

1.1.1. 安装ubuntu 2

3.9.4.  Error: JAVA_HOME is not set and could not be found.  74

1.3.4. 切换回普通客商 7

3.1. 基础部分 29

2.3.1. apt-get install maven 18

3.6.1.9. 【./etc/hadoop/mapred-env.sh】 51

5.3.3. 启动 85

3.4.2. 测试grep例子 40

3.5.6. jps来剖断是还是不是中标启动 43

3.7.2. 启动YARN 54

3.8.5.6. 配置slaves 70

3.5.2. ./etc/hadoop/hdfs-site.xml 41

5.3.5. 翻看hdfs上hbase数据库文件 86

3.9.8. module java.base does not “opens java.lang” to unnamed module 79

3.6. 安装Hadoop集群 46

3.9.5. Hadoop无法开发银行的盘查 75

1.2.1. 挂在光驱,安装VMwareTools 4

5.3.4. 进入shell 86

2.3.4. 安装protoc 20

1.4.3. 检讨是还是不是安装了ssh 8

3.6.2. 启动YARN 51

3.6.1.10. 【./etc/hadoop/yarn-env.sh】 51

5.1. 下载 82

1.5.1. 让/etc/profile文件修改后随即生效 9

3.5.5. 开启 NameNode 和 DataNode 守护进度 42

1.6. 谬误新闻 10

第四章 Spark安装及陈设 79

4.2.4. 配置slaves 81

3.8.5.5. 安排文件7:yarn-site.xml 68

3.6.2.1. 浏览器访谈调节台 53

3.9.7. 不或然连接 79

3.6.1. 陈设文件 46

3.2.3. 查看hadoop版本 33

1.5.2. 刨除目录,删除文件夹 9

3.9. 错误音信 73

相关文章