300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > 大数据之-Hadoop3.x_MapReduce_FileInputFormat切片机制---大数据之hadoop3.x工作笔记0106

大数据之-Hadoop3.x_MapReduce_FileInputFormat切片机制---大数据之hadoop3.x工作笔记0106

时间:2021-07-19 06:07:05

相关推荐

大数据之-Hadoop3.x_MapReduce_FileInputFormat切片机制---大数据之hadoop3.x工作笔记0106

然后我们再来看一下这个FileInputFormat的切片机制,可以看到

实际上切片就是按照文件的长度,一个切片大小默认等于块大小,切片是逻辑切片,不是物理切片

仅仅是做了标记

然后切片时不考虑数据整体,二手一个文件一个文件的单独切片

一般都是用默认的就可以了,当然切片大小,你也可以让他进行比如,1kb,就开启一个maptask

1kb就开启一个maptask,但这样的话有个问题就是,太消耗性能了.

一般一个maptask的开启,会消耗1g的内存,1个cpu,所以一般都是要做合适的切片大小才行

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。