找到约744篇文章
  • 这里一定要填 分享于2017-03-24 被收藏0次 0人推荐 0条评论
    1、
  • 伍德沃德 分享于2017-03-24 被收藏0次 0人推荐 0条评论
    事情源于在看基于Storm的CEP引擎:flowmix的FlowmixBuilder代码,每个Bolt设置了这么多的Group,而且declareStream也声明了这么多的stream-id,对于只写过WordCountTopology的小白而言,直接懵逼了,没见过这么用的啊,我承认一开始是拒绝的,每个Bolt都设置了这么多Group,这TMD拓扑图是什么样的?1234567891011121314151617181920212223242526272829303132333435363738
  • 老人加一横 分享于2017-03-22 被收藏0次 0人推荐 0条评论
    该文档是用hbase默认配置文件生成的,文件源是hbase-default.xml。在实际的HBase生产环境中应用于%HBASE_HOME%/conf/hbase-site.xml中。hbase.rootdir这个目录是region server的共享目录,用来持久化HBase。URL需要是'完全正确'的,还要包含文件系统的scheme。例如,要表示hdfs中的'/hbase'目录,namenode运行在namenode.example.org的9090端口。则需要设置为hdfs://name
  • 胖叔 分享于2017-03-22 被收藏0次 0人推荐 0条评论
    HBase是什么?HBase是Apache Hadoop中的一个子项目,Hbase依托于Hadoop的HDFS作为最基本存储基础单元,通过使用hadoop的DFS工具就可以看到这些这些数据存储文件夹的结构,还可以通过Map/Reduce的框架(算法)对HBase进行操作。HBase在产品中还包含了Jetty,在HBase启动时采用嵌入式的方式来启动Jetty,因此可以通过web界面对HBase进行管理和查看当前运行的一些状态,非常轻巧。为什么采用HBase?HBase不同于一般的关系数据库,它是
  • 遇见; 分享于2017-03-21 被收藏0次 0人推荐 0条评论
    1、编译环境1.1软硬件环境说明所有节点均是CentOS系统,防火墙和SElinux禁用,所有节点上均创建了一个shiyanlou用户,并在系统根目录下创建/app目录,用于存放Hadoop等组件运行包。因为该目录用于安装hadoop等组件程序,用户对shiyanlou必须赋予rwx权限(一般做法是root用户在根目录下创建/app目录,并修改该目录拥有者为shiyanlou(chown–R shiyanlou:shiyanlou/app)。Hadoop搭建环境:l虚拟机操作系统:CentOS6
  • 瞌睡虫 分享于2017-03-21 被收藏0次 0人推荐 0条评论
    hadoop在安装的时候,我们需要知道hadoop版本是32位还是64位。hadoop官网本来提供的都是32位,因为我们大部分都是64位,所以不得不编译。后来官网从hadoop2.5版本开始就提供了64位。为了防止我们用错,下面我们来实际操作和观察。我们来从官网下载的hadoop2.4.1安装包.hadoop是32位还是64位,我们查看本地库即可。即进入$hadoop_home/lib/native,使用file命令#####################################解压之
  • 。yang 分享于2017-03-04 被收藏0次 0人推荐 0条评论
    一、系统及版本准备JDK:jdk-7u2-linux-i586Hadoop:hadoop-2.7.0安装目录:/usr/local/jdk/usr/local/hadoop节点及IP(/etc/hosts,注意需要重启网络):192.168.56.100 os.data0192.168.56.101 os.data1192.168.56.102 os.data2二、创建系统用户组1.创建hadoop用户及组密码为hadoop$sudo su#adduser hadoop2.sudo用户授权:ro
  • Pink 分享于2017-02-28 被收藏0次 0人推荐 0条评论
    我是创始人李岩:很抱歉!给我们产品做个广告,点击进来看看。文/胡晨川我是Linux外行,hadoop外行,java更外行,Scala听也没听过,在我脑海中,Spark一直只是我的英文名。但是,作为一名数据分析师,我怎么可以完全不了解大数据的应用呢?于是,完全是外行的我,不仅打算开始学习spark,还要将hive、pig、Hbase等都尝一尝。第一步,从hadoop开始!经过几天的尝试,配置好了虚拟机中的完全分布式hadoop,写成以下冗长的笔记。首先,是在自己的电脑上安装3个Linux系统的虚拟
  • Phoenix 分享于2017-02-27 被收藏0次 0人推荐 0条评论
    我是创始人李岩:很抱歉!给我们产品做个广告,点击进来看看。作者|@LeftNotEasy Apache Hadoop项目管理委员会成员;Committer最近看TensorFlow代码的时候,用Git pull下来最新的master一看,哇好多的更新,然后点击去之前看到一半的cc文件继续看,好多地方都改变了。但是一看Git log,有好多巨大的commit叫什么“Merge commit for internal changes”,“Merge for github”,没有任何的其他描述…,这样
  • nerazuri小政政 分享于2017-02-27 被收藏0次 0人推荐 0条评论
    上一篇(http://qindongliang.iteye.com/blog/2354381)写了收集sparkstreaming的日志进入kafka便于后续收集到es中快速统计分析,今天就再写一篇如何在普通应用程序实时收集日志,上一篇写的毕竟是分布式环境下的操作,有一定的特殊性,如MapReduce,Spark运行的日志和普通项目的日志是不太一样的。所谓的普通程序就是web项目的或者非web项目的的程序,大部分都是单机版本的。大多数时候,我们的log都会输出到本地的磁盘上,排查问题也是使用Li

也许你感兴趣

换一批
Warning: file_put_contents(/home/data/www/web/cfanz/config/../data/log/db.log): failed to open stream: Permission denied in /home/data/www/web/cfanz/lib/logger/FileLogger.class.php on line 6