《Spark编程基础》阅读

2022/1/5 22:03:36

本文主要是介绍《Spark编程基础》阅读,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

注意:输入 StdIn是在scala2.11.-之后才加入的,之前的不具有。

大数据特定:数据量大、数据类型繁多、处理速度快、价值密度低。

MapReduce 进行迭代计算非常消耗资源,因为每次迭代都需要从磁盘中写入、读取中间数据,I/O开销大

Scala:基本数据类型

       Unit:类似java的void

       每个基本类型都有一个对应的富包装类(scala.runtime)

字面量:直接在源代码中书写常量的一种方式

       整数字面量:十进制和十六进制

              无论十进制还是十六进制,scala shell打印的结果都会转化成十进制

       浮点数字面量:十进制数字、小数点、E/e、指数

              以f结尾为float类型、否则为double类型

       布尔型字面量

       字符及字符串字面量

       Unit字面量

变量:

       声明变量角度:val、var

       var/val 变量名:数据类型=初始值

              scala shell中如果需要表示多行文本,则用三个双引号包括

输入/输出

       控制台输入输出语句:

              readInt、readDouble……以及readLine。前面的没有参数,readLine可以添加参数以作输入提醒(函数属于对象scala.io.StdIn的方法)

(学到这的时候发现无法使用StdIn,显示io中没有。搜索发现StdIn是在scala2.11.*之后加入的,而我的scala是2.10.6,要重新装了,心态有点崩先到这)

       



这篇关于《Spark编程基础》阅读的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程