hadoop 中数据分块block默认大小是64MB,不足64MB不会分块。
答案:2 悬赏:30
解决时间 2021-02-11 04:46
- 提问者网友:霸道又专情♚
- 2021-02-10 09:51
hadoop 中数据分块block默认大小是64MB,不足64MB不会分块。
最佳答案
- 二级知识专家网友:甜野猫
- 2021-02-10 10:37
先凑足块大小,先分64M,当然会根据日志文件的完整性,不会在行中分割;最后剩余不足64M的部分划成一个块。假如200M:64M,64M,64M,8M。其中64M不一定是准确的64M,而是最接近64M,但是不大于64M的一个分块。
已经在那边帮你解答了哦
已经在那边帮你解答了哦
全部回答
- 1楼网友:如果这是命
- 2021-02-10 11:34
搜一下:hadoop 中数据分块block默认大小是64MB,不足64MB不会分块。
我要举报
如以上问答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯