搜索结果
查询Tags标签: textFile,共有 5条记录-
IO - 文件的读写
package test;import java.io.BufferedReader; import java.io.File; import java.io.FileReader; import java.io.IOException; import java.io.PrintWriter; import java.util.ArrayList; import java.util.Arrays; import java.util.TreeSet;public class TextFile ext…
2021/10/14 23:16:31 人评论 次浏览 -
IO - 文件的读写
package test;import java.io.BufferedReader; import java.io.File; import java.io.FileReader; import java.io.IOException; import java.io.PrintWriter; import java.util.ArrayList; import java.util.Arrays; import java.util.TreeSet;public class TextFile ext…
2021/10/14 23:16:31 人评论 次浏览 -
RDD编程
RDD编程 1.RDD编程概述—-整个spark的核心 2.pari RDD 3.共享变量【重要】 4.数据读写 5.WordCount程序解析 1.RDD编程概述 1.RDD创建, 01.Spark采用textFile()方法从文件系统中加载数据创建RDD 该方法把文件的URI作为参数,这个URI可以是: 001.本文件系统的地址; 002.…
2021/7/11 20:08:15 人评论 次浏览 -
RDD编程
RDD编程 1.RDD编程概述—-整个spark的核心 2.pari RDD 3.共享变量【重要】 4.数据读写 5.WordCount程序解析 1.RDD编程概述 1.RDD创建, 01.Spark采用textFile()方法从文件系统中加载数据创建RDD 该方法把文件的URI作为参数,这个URI可以是: 001.本文件系统的地址; 002.…
2021/7/11 20:08:15 人评论 次浏览 -
pyspark读取数据
本地文件系统的数据读写 因为Spark采用了惰性机制,在执行转换操作的时候,即使输入了错误的语句,spark-shell也不会马上报错(假设word.txt不存在) 从文件中读取数据创建RDD ll /root/spark-2.4.3-bin-hadoop2.7/word.txt-rw-r--r--. 1 root root 45 Apr 9 13:34 /roo…
2021/4/9 18:55:43 人评论 次浏览