首页 > 编程知识 正文

HDFS查看文件大小以及统计 总和,vxworks下查看文件大小

时间:2023-05-05 20:20:12 阅读:261214 作者:3770

查看文件夹下 各个目录的总大小(兆或者是G):hdfs dfs -du -h /flumedfsfs_cluster/c_wechat_mpdfsfsffse/

 

查看每个文件大小(默认是Byte)hadoop fs -du /datsdsfsda/servicfsdfsdfse_data/sdfsdd/fdsfsdfsd/c_wedfsfsdfschat_mpe/

 

查看的每个文件大小(计算的是G单位的)hadoop fs -du /name/service_fsdfsdfsddata/hadoopfdsfs_dfsfsdservie/flume_cfsdfsdfsdluster/wefsdfsfsdfsdchat_log/20* | awk '{sum += $1};END {print sum/1024/1024/1024}'

 

 

AWK案例:

在Shell中,我们可以用awk实现按列求和的功能,非常简单。看下面的例子:
1.简单的按列求和

[linux@test /tmp]$ cat test123.52125.54126.36[linux@test /tmp]$ awk '{sum += $1};END {print sum}' test375.42


2.对符合某些条件的行,按列求和

[linux@test /tmp]$ cat testaaa 123.52bbb 125.54aaa 123.52aaa 123.52ccc 126.36

对文件test中 第一列为aaa的行求和

[linux@test /tmp]$ awk '/aaa/ {sum += $2};END {print sum}' test370.56

 

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。