0
点赞
收藏
分享

微信扫一扫

大数据开发【2】--hadoop的初步使用

深夜瞎琢磨 2022-04-07 阅读 51
大数据

1. 集群的配置

在/ect/worker文件中输入你协同启动的hadoop虚拟机
可以同时在本地和其他的端口处启动。

2. 基本使用

  1. 运行mapReduce程序
进入这个文件加
cd /usr/local/hadoop/share/hadoop/mapreduce
执行以下命令
hadoop jar hadoop-mapreduce-examples-3.1.1.jar pi 10 10

  1. 文件操作
# 和基本的shell语法差不多只不过多了hadoop和fs而已
hadoop fs -mkdir /itcast
hadoop fs -put zookeeper.out /itcast
hadoop fs -fs ls /
hadoop fs rm /itcast zookeeper.out

  1. 使用localhost:9870进行操作

3. 总结

  1. HDFS是一个文件系统
  2. 有目录树结构 和linux相似,分文件,文件夹
  3. 上传一个小文件也很慢

问题

  1. 为什么配置文件都不,结果可以使用ssh 中的 scp直接将Hadoop或者java上传到

  2. Debain如何配置maven和java删除线格式
    编辑~/.bashrc文件增加以下内容

  3. 如果不能运行:

    1. Linux的防火墙没有关闭
    2. 系统不稳定
    3. 系统处于安全模式:hadoop dfsadmin -safemode leave
    4. mapred-site.xml文件配置不合适。
  4. 为什么首先请求YRAM

  5. 先Map后Reduce

  6. 适合处理小数据量的程序吗?为什么?

# java
JAVA_HOME=/usr/local/jdk1.8
PATH=$PATH:$JAVA_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME
export CLASSPATH
export PATH

# 自定义环境变量设置
# maven
M2_HOME=/opt/apache-maven-3.6.0
PATH=$PATH:$M2_HOME/bin
export M2_HOME
export PATH

参考文章

Debian如何配置maven和java

举报

相关推荐

0 条评论