码迷,mamicode.com
首页 >  
搜索关键字:mahout lda hadoop cv    ( 16332个结果
hadoop技术内幕-序列化与压缩(一)
一、java内建序列化机制 java序列化机制将对象转换为连续的byte数据,这些数据可以在日后还原为原先的对象状态,还能自动处理不同操作系统上的差异,也不用担心字节排列次序。 java的类实例可被序列化只要在类声明中加入implements Serializable即可。Serializabl.....
分类:其他好文   时间:2014-06-25 23:07:38    阅读次数:255
Spark1.0.0 分布式环境搭建
软件版本如下: Hostname IP Hadoop版本 Hadoop 功能 系统 master 192.168.119.128 1.1.2 namenode jdk1.6+hadoop+scala2.9.3+spark1.0.0 centos4.9...
分类:其他好文   时间:2014-06-25 19:50:09    阅读次数:227
尝试一种新的学习方法
尝试一种新的学习方法,前年阅读Linux kernel代码,读了一半,被工作和生活上的事打断。今年重新捡起,同时也要学习MySQL和Oracle。以及hadoop。在这里收集一些文章信息,同时整理自己的知识,把学习过程的心得和疑问都写下来,希望这个方法能督促我在纷繁的工作中挤出时间,养成习惯,把这件...
分类:其他好文   时间:2014-06-25 18:52:39    阅读次数:168
OpenCV —— HighGUI
分为:硬件相关部分,文件部分以及图形用户接口部分 创建窗口 —— cvNamedWindow 若设置成 CV_WINDOW_AUTOSIZE 窗口大小会随着图像的载入而根据图像大小调整,用户没办法手动调整窗口大小 设置成 0 ,随意调整 cvDestoyWindow cvDestroyAllWind...
分类:其他好文   时间:2014-06-25 18:24:39    阅读次数:164
学习Mahout(三)
开发+运行第一个Mahout的程序代码:/** * Licensed to the Apache Software Foundation (ASF) under one or more * contributor license agreements. See the NOTICE file di....
分类:其他好文   时间:2014-06-25 14:54:25    阅读次数:328
CDH5上安装Hive,HBase,Impala,Spark等服务
Apache Hadoop的服务的部署比较繁琐,需要手工处理配置文件、下载依赖包等。Cloudera Manager以GUI的方式的管理CDH集群,提供向导式的安装步骤。由于需要对Hive,HBase,Impala,Spark进行功能测试,就采用了Cloudera Manager方式进行安装。本文讲解的是parcel安装方式。...
分类:其他好文   时间:2014-06-24 22:44:17    阅读次数:501
MapReduceTopK TreeMap
MapReduce TopK统计加排序中介绍的TopK在mapreduce的实现。 本案例省略的上面案例中的Sort步骤,改用TreeMap来实现获取前K个词 package TopK1; import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configurat...
分类:其他好文   时间:2014-06-24 22:33:34    阅读次数:293
MapReduce程序依赖的jar包
难得想写个mapreduce程序,发现已经不记得需要添加那些jar包了,网上找了一会也没发现准确的答案。幸好对hadoop体系结构略知一二,迅速试出了写mapreduce程序需要的三个jar包。              不多不少,3个包足矣……贴出来免得其朋友再走弯路      (请忽视包的版本不一致问题,是我从其他项目中东拼西凑过来的)...
分类:其他好文   时间:2014-06-24 21:44:15    阅读次数:321
ubuntu 14.04 hadoop eclipse 初级环境配置
接触hadoop第二天,配置hadoop到环境也用了两天,将自己配置到过程写在这里,希望对大家有所帮助! ---------------安装jdk------------------------------- 1. 下载jdk1.6.0_45 2.解压到opt文件夹下,配置/etc/profile,在文件尾部加上 #set java environment JAVA_H...
分类:系统相关   时间:2014-06-24 21:02:22    阅读次数:285
shell 脚本实战笔记(4)--linux磁盘分区重新挂载
背景: Hadoop的HDFS文件系统的挂载, 默认指定的文件目录是/mnt/disk{N}. 当运维人员, 不小心把磁盘挂载于其他目录, 比如/mnt/data, /mnt/disk01, /mnt/diska时, HDFS会选择根分区, 当往HDFS里灌数据时, 导致的结果往往是根分区被快速的....
分类:系统相关   时间:2014-06-24 15:05:25    阅读次数:304
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!