没想到Shell命令竟然还能这么玩?

正文开始

在前面的这篇文章中 —— 优秀的程序员是如何利用工具来提升工作效率的?,石头介绍了可以提高程序猿工作效率的一些软件和工具及相关配置。文中提到了, 程序猿应该了解一些常见的命令行工具来提高效率。

本文是一个命令行工具的综合应用,将用一个具体的例子来阐述如何用 Shell 来进行高效地数据统计和分析。最近北京又开始了新一批积分落户的填报工作,恰好这篇文章用 shell 来对首批北京积分落户同学进行 "大数据"分析。

现如今到处都是各种"大数据",本文分析对象也就是首批积分落户的6000多条数据而已,显然不能算什么大数据。

印象中,我记得当初该官网的这6000多条数据也是一次性就能wget下来的(后端估计没做限制,可能稍微调整下接口的分页参数之类不需要严格按照各种分页多次下载)。(注:本文旧文重新整理发送。)

问题描述

输入是 json数据,格式化之后的 json 数据主题结构如下所示,rows为数组,数组中元素所代表的 object 即描述了获得北京户口的同学的各种属性:例如分数、排名、身份证号(后四位打码了)、公司等等信息。为了方便大家练习对数据进行试验,我将文中的数据附在这里(https://www.tanglei.name/resources/use-shell-to-analysis-the-first-people-of-getting-residence-of-beijing-by-score/jifenluohu.json.gz)。

 
 
 
 
  1. "rows": [
  2. {
  3.     "id": 62981,
  4.     "idCard": "32092219721222****",
  5.     "idCardSHA": "9ef70bde894959a4e4a1d1b2b9592b470294f9e4012a8cf480319665d1a7c1c6",
  6.     "insertTime": 1539518353000,
  7.     "integralQualified": 1,
  8.     "internetAnnual": {
  9.         "annual": 2018,
  10.         "id": 43,
  11.         "insertTime": 1539518353000,
  12.         "publicityEnd": 1540224000000,
  13.         "publicityStart": 1539591600000,
  14.         "publishResultEndDate": 1541679300000,
  15.         "publishResultStartDate": 1539591600000,
  16.         "publishResultStatus": 1,
  17.         "score": 90.75,
  18.         "status": 1
  19.     },
  20.     "md5Code": "54e9ff7ce0b004f7141b157f8afc66db",
  21.     "name": "杨效丰",
  22.     "pxid": 1,
  23.     "ranking": 1,
  24.     "s1": 51,
  25.     "s10": 0,
  26.     "s2": 12.59,
  27.     "s3": 15,
  28.     "s4": 0,
  29.     "s5": 4,
  30.     "s6": 0,
  31.     "s7": 20,
  32.     "s8": 20,
  33.     "s9": 0,
  34.     "score": 122.59,
  35.     "unit": "北京利德华福电气技术有限公司"
  36. },

拿到这个文件,比如希望你用最快的方法获得以下信息,你将会怎么做?

  • 获取取得户口名额最多的top10公司
  • 获取取得户口名额的人中姓氏最多的
  • 获取户口名字中叫啥名最流行
  • 获取年龄分布
  • 获取取得户口的同学户籍地top10
  • 生肖/星座/生日...

当然,方法有很多,比如熟悉各种编程语言的,例如 python, php, java 等等写个简单的脚本程序,也能比较快获取答案。或者把相应的数据提取出来,放到 excel 中也可以。

如果你对 Shell 很熟悉,那真的是分分钟,应该是秒秒钟就能获取答案。就算用 Shell 来实现,不同的人可能也有不同的写法,后面我就列举其中的一种来解决这些问题。

本文不对 Shell 具体每个命令做过多的解释,不熟悉的同学可以直接 man $cmd 或者 $cmd --help 等等查看。

之前我也写过一篇名叫 Shell 助力开发效率提升 的文章,算是给常用的命令的常用参数做了一个解释和示例,有兴趣的同学可以前往查阅。

问题解答

获取取得户口名额最多的top10公司

看看想通过积分落户,最好是进哪些公司,哈哈。

"unit": "北京利德华福电气技术有限公司"

先通过 grep 得到包含公司名字的一行,然后通过 ":" 分割 cut 取第2列得到公司名字,对结果进行sort排序进行去重uniq统计得到重复次数,次时结果为重复次数 公司名,再对第一列-k 1重复数字进行按照数字排序逆序-nr 即 sort -nr -k 1,最后取结果的前10行 head -n 10。

 
 
 
 
  1.   积分落户  > grep 'unit' jifenluohu.json| cut -f2 -d: | sort | uniq -c | sort -nr -k 1 | head -n 10
  2.  137  "北京华为数字技术有限公司"
  3.   73  "中央电视台"
  4.   57  "北京首钢建设集团有限公司"
  5.   55  "百度在线网络技术(北京)有限公司"
  6.   48  "联想(北京)有限公司"
  7.   40  "北京外企人力资源服务有限公司"
  8.   40  "中国民生银行股份有限公司"
  9.   39  "国际商业机器(中国)投资有限公司"
  10.   29  "中国国际技术智力合作有限公司"
  11.   27  "华为技术有限公司北京研究所"

获取取得户口名额的人中姓氏最多的

看看想通过积分落户,最好是姓啥,哈哈。

"name": "杨效丰",

套路跟之前差不多的,我这边就不特别指出了。

下面shell实际上是取到这行后,将真正表示名字之前的所有字符都删除,就只剩下名字开头了,取行首第一个字符cut -c 1即得到姓,再按照之前的套路就能拿到了。

其实用什么sed替换冗余的字符都是多余的,因为json的格式都是良好的,可以直接通过 cut -c ? 取姓这个字符即可。

也不用挨个去数到底是第几个字符,直接 copy出来,然后 echo -n $paste | wc -c 就能数到第几个字符了。

看结果还是姓 "张, 王" 之类的最有戏。??

 
 
 
 
  1. # 或者 grep '"name":' jifenluohu.json| sed 's|"name": "||g' | sed 's|[[:space:]]||g' | cut -c 1 | sort | uniq -c | sort -nr -k 1 | head -n 10
  2.   积分落户  > grep '"name":' jifenluohu.json| sed 's|"name": "||g' | sed 's| ||g' | cut -c 1 | sort | uniq -c | sort -nr -k 1 | head -n 10
  3.  541 张
  4.  531 王
  5.  462 李
  6.  376 刘
  7.  205 陈
  8.  193 杨
  9.  166 赵
  10.  132 孙
  11.   95 郭
  12.   95 徐

获取户口名字中叫啥名最流行

套路差不多,不做过多解释了。

 
 
 
 
  1.   积分落户  > grep '"name":' jifenluohu.json| sed 's|"name": "||g' | sed 's|[[:space:]]||g' | cut -c 2-4 | sort | uniq -c | sort -nr -k 1 | head -n 10
  2.   51 伟",
  3.   39 静",
  4.   38 涛",
  5.   36 勇",
  6.   36 军",
  7.   32 敏",
  8.   31 颖",
  9.   30 鹏",
  10.   28 杰",
  11.   28 峰",
  12. # 取名字, 必须包含2个字
  13.   积分落户  > grep '"name":' jifenluohu.json| sed 's|"name": "||g' | sed 's|[[:space:]]||g' | cut -c 2-3 | sed  '/"/d' | sort | uniq -c | sort -nr -k 1 | head -n 10
  14.   19 海涛
  15.   19 晓东
  16.   12 志强
  17.   11 海燕
  18.   11 永强
  19.   11 建华
  20.   10 雪梅
  21.    9 海龙
  22.    9 丽娜
  23.    8 洪涛

作为码农,必须得养成对自己得到结果进行自测的习惯,所以如果对自己的结果不够自信,可以正向去计算一下最终的结果。

例如可以简单grep一下进行验证,叫 "海涛" 的是不是19个。

 
 
 
 
  1.   积分落户  > grep '海涛' jifenluohu.json | wc -l
  2.       19  

获取年龄分布

思路是截取身份证中号码中代表出生年的4位数,然后拿当前年份2019减出生年得到年龄,后面的套路又一样了。

bc 一个简单的计算器程序,了解下?

 
 
 
 
  1.   shell-train  > echo "3+2-5/5" | bc
  2. 4
  3.   shell-train  > echo "3.141592*5-4" | bc
  4. 11.707960
  5. #思路1: `cut -c 9-12` 获取出生年, 拼接表达式 `2019-出生年` 得到年龄.
  6.   积分落户  > grep '"idCard":' jifenluohu.json| cut -f2 -d: | cut -c 9-12 | xargs -n1 echo 2019 -|bc | sort | uniq -c
  7.    3 34
  8.   13 35
  9.   39 36
  10.  109 37
  11.  162 38
  12.  302 39
  13.  507 40
  14.  773 41
  15.  799 42
  16.  813 43
  17.  757 44
  18.  586 45
  19.  507 46
  20.  378 47
  21.  238 48
  22.    4 49
  23.    9 50
  24.    1 51
  25.    4 52
  26.    3 53
  27.    2 54
  28.    5 55
  29.    1 56
  30.    1 58
  31.    1 59
  32.    1 60
  33.    1 61

awk 是个好东西, 多练练.

 
 
 
 
  1. # 拿到出生年后, 直接通过 awk 计算结果输出
  2.   积分落户  > grep '"idCard":' jifenluohu.json| cut -f2 -d: | cut -c 9-12 |awk '{print 2019-$1}' | sort | uniq -c
  3.    3 34
  4.   13 35
  5.   39 36
  6.  109 37
  7.  162 38
  8.  302 39
  9.  507 40
  10.  773 41
  11.  799 42
  12.  813 43
  13.  757 44
  14.  586 45
  15.  507 46
  16.  378 47
  17.  238 48
  18.    4 49
  19.    9 50
  20.    1 51
  21.    4 52
  22.    3 53
  23.    2 54
  24.    5 55
  25.    1 56
  26.    1 58
  27.    1 59
  28.    1 60
  29.    1 61   

获取取得户口的同学户籍地top10

有时候,我们在写Shell的时候,为了debug方便,可能会将一些中间结果缓存到文件中,后续以该文件为基础进行后续的计算。

比如先拿到top10的身份证中代表的户籍地的四位编码,这里需要借助另外的一个表示身份证户籍地的编码来进行对应。

借此机会解释下 join 这个命令。

 
 
 
 
  1. # 身份证前4位为例, 拿到户籍地
  2. grep '"idCard":' jifenluohu.json| cut -f2 -d: | cut -c 3-6 | sort | uniq -c | sort -nr -k 1 >topcity.code
  3. # 城市列表
  4.   积分落户  > more city.csv
  5. 11,北京市
  6. 1101,北京市市辖区
  7. 110101,北京市东城区
  8. 110102,北京市西城区
  9. 110103,北京市崇文区
  10. 110104,北京市宣武区
  11. 110105,北京市朝阳区
  12. # grep -E '^[0-9]{4},' city.csv | sed 's|,| |g' > city.code4
  13.  shell-train  > head -n 2 city.code4
  14. 1101 北京市市辖区
  15. 1102 北京市市辖县
  16.  shell-train  > head -n 2 topcity.code
  17.  197 1201
  18.  156 1302
  19.  shell-train  > join
  20. usage: join [-a fileno | -v fileno ] [-e string] [-1 field] [-2 field]
  21.             [-o list] [-t char] file1 file2

其实,join 就类似sql中的 ...inner join ...on ..., -t 分隔符,默认为空格或tab。

 
 
 
 
  1. # 未排序, 所以没有将所有的导出(join需要排序)
  2.  shell-train  > join -1 1 -2 2 city.code4 topcity.code
  3. 1201 天津市市辖区 197
  4. 1302 河北省唐山市 156
  5. 2301 黑龙江哈尔滨市 123
  6. 4201 湖北省武汉市 118
  7. 6101 陕西省西安市 100
  8. 6201 甘肃省兰州市 59
  9. 6501 新疆乌鲁木齐市 29
  10. 6523 新疆昌吉回族自治州 11

一定需要将结果输出到文件,然后再进行吗?

其实也不一定。用管道的方式 | 可以将上一个命令的输出结果作为下一个命令的输入,可以通过 <(command) 的方式,将command 的输出作为一个文件输入。

 
 
 
 
  1. # 需要排序
  2.  shell-train  > join -1 1 -2 2 city.code4 <(head -n 10 topcity.code | sort -k 2)
  3. 1201 天津市市辖区 197
  4. 1301 河北省石家庄市 114
  5. 1302 河北省唐山市 156
  6. 1324 河北省保定地区 103
  7. 1501 内蒙古呼和浩特市 88
  8. 2101 辽宁省沈阳市 109
  9. 2201 吉林省长春市 113
  10. 2301 黑龙江哈尔滨市 123
  11. 4201 湖北省武汉市 118
  12. 6101 陕西省西安市 100

举个例子paste用来将两个文件按列合并在一起:

 
 
 
 
  1.   shell-train  > cat paste.f1
  2. hello, i am
  3. world, you are
  4.   shell-train  > cat paste.f2
  5. tanglei, wechat is: tangleithu
  6. ?, hahaha
  7.   shell-train  > paste paste.f1 paste.f2
  8. hello, i am tanglei, wechat is: tangleithu
  9. world, you are ?, hahaha

以上用paste将两个文件合并在一起了,实际上通过 <(cmd)的方式,可以不借助外部文件也能做到。

方法如下:

 
 
 
 
  1.   shell-train  > paste <(echo "hello, i am \nworld, you are") <(echo "tanglei, wechat is: tangleithu\n?, hahaha")
  2. hello, i am  tanglei, wechat is: tangleithu
  3. world, you are ?, hahaha

本文转载自微信公众号「程序猿石头」,可以通过以下二维码关注。转载本文请联系程序猿石头公众号。

名称栏目:没想到Shell命令竟然还能这么玩?
URL网址:http://www.shufengxianlan.com/qtweb/news40/354540.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联