学习Spark的代码,关于Spark Core、Spark SQL、Spark Streaming、Spark MLLib
- 基于Deepin Linux 15.9版本
- 基于Hadoop2.6、Spark2.4、Scala2.11、java8等
系列环境搭建相关文章,见下方
- 【向Linux迁移记录】Deepin下java、大数据开发环境配置【一】
- 【向Linux迁移记录】Deepin下Python开发环境搭建
- 【向Linux迁移记录】Deepin Linux下快速Hadoop完全分布式集群搭建
- 【向Linux迁移记录】基于Hadoop集群的Hive安装与配置详解
- 【向Linux迁移记录】Deepin Linux下Spark本地模式及基于Yarn的分布式集群环境搭建
- eclipse安装Scala IDE插件及An internal error occurred during: "Computing additional info"报错解决
- Deepin Linux 安装启动scala报错 java.lang.NumberFormatException: For input string: "0x100" 解决
- 更多内容见:【https://blog.csdn.net/lzw2016/ 】【https://github.com/josonle/Coding-Now 】
- Spark_With_Scala_Testing 存放平时练习代码
- notes存放笔记
- LearningSpark(1)数据来源.md
- LearningSpark(2)spark-submit可选参数.md
- LearningSpark(3)RDD操作.md
- LearningSpark(4)Spark持久化操作
- LearningSpark(5)Spark共享变量.md
- LearningSpark(6)Spark内核架构剖析.md
- LearningSpark(7)SparkSQL之DataFrame学习(含Row).md
- LearningSpark(8)RDD如何转化为DataFrame
- LearningSpark(9)SparkSQL数据来源
- RDD如何作为参数传给函数.md
- 判断RDD是否为空
- 高级排序和topN问题.md
- Spark1.x和2.x如何读取和写入csv文件
- Spark DataFrame如何更改列column的类型.md
- 使用JDBC将DataFrame写入mysql.md
- Scala 语法点
- 报错和问题归纳.md
待续