首页 > 其他分享 >Hadoop/spark安装实战(系列篇1)准备安装包

Hadoop/spark安装实战(系列篇1)准备安装包

时间:2023-03-15 18:04:25浏览次数:47  
标签:bin www http scala Hadoop spark 安装包


下载各安装包,准备安装

CentOS 使用网盘上下载的vmvare虚拟机 centos系统

spark 1.0.0
​​​http://d3kbcqa49mib13.cloudfront.net/spark-1.0.0-bin-hadoop1.tgz​

scala
​​​http://www.scala-lang.org/download/2.10.4.html​

java jdk jdk-7u79-linux-i586.tar.gz
​​​http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html​

hadoop-1.2.1-bin.tar.gz
​​​http://mirrors.cnnic.cn/apache/hadoop/common/stable/​

 

 

DT大数据微信公众账号:DT_Spark

DT大数据梦工厂scala的所有视频、PPT和代码在百度云盘的链接地址:http://pan.baidu.com/share/home?uk=4013289088&view=share#category/type=0&qq-pf-to=pcqq.group

 

标签:bin,www,http,scala,Hadoop,spark,安装包
From: https://blog.51cto.com/u_10561036/6123180

相关文章

  • 第76课:Spark SQL基于网站Log的综合案例实战之Hive数据导入、Spark SQL对数据操作每天
    /***王家林老师授课​​http://weibo.com/ilovepains​​*/ 每天晚上20:00YY频道现场授课频道68917580 第76课:SparkSQL基于网站Log的综合案例实战之Hive数据导入、Spa......
  • 第75课:Spark SQL基于网站Log的综合案例实战每天晚上20:00YY频道现场授课频道68917580
    /***王家林老师授课http://weibo.com/ilovepains*/ 每天晚上20:00YY频道现场授课频道68917580 生成log日志   ......
  • SPARK 使用Java 在IDE中实战RDD和DataFrame动态转换操作
    /***王家林老师授课​​​http://weibo.com/ilovepains​​*/ 源文件1,Spark,72,Hadoop,113,Flink,5 运行结果 ......
  • 【大数据】Centos7、Hadoop3.3.1、分布式搭建
    主要遵照 https://www.cnblogs.com/lehoso/p/15550119.html进行搭建,文章里写的很清楚了,我就不多说了。在搭建过程中,用思维导图绘制了一个大纲。可点击下载安装过程中的......
  • 大数据技术-spark
    Spark是什么ApacheSpark是一个分布式、内存级计算框架,是一个大数据处理框架基本概念Application:用户编写的Spark应用程序。Driver:Spark中的Driver即运行上述Applica......
  • 4.kettle将数据加载到hadoop集群
    kettle将数据加载到hadoop集群1..将数据加载到HDFSa)启动Hadoop,创建Job,把文件放进Hadoopb)在桌面上打开PDI(kettle):选择“文件(file)”-“新建(new)”-“job”c)添加启动项......
  • Hadoop
    Hadoop主要包括HDFS(存储)/MapReduce(计算)/Yarn(资源调度)特性优点以及注意事项:Hadoop的扩容能力很强:可以通过增加计算机数量来增加节点的数量成本低:通过部署廉价的......
  • Spark
    SparkSpark基础Spark的定义Spark是当今大数据领域最活跃、最热门、最高效的大数据通用计算平台之一SparkVSHadoopSpark对于Hadoop拥有巨大的优势,但是spark无法完全......
  • hadoop部署2
     完全分布式部署介绍学习目标完全分部式是真正利用多台Linux主机来进行部署Hadoop,对Linux机器集群进行规划,使得Hadoop各个模块分别部署在不同的多台机器上。能够了解......
  • spark
    对hive表操作spark-shell进入界面spark.sql("").show-----sql语句spark.table("").show查看表spark.sql("selectguid,count(1)asnumfromphonecgroupbyguid......