热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Shell进阶必知必会(附京东、新浪等面试题)


分享数据大咖实践经验 网罗职场大佬成长秘籍

文章目录

  • 常用的Shell工具

    • 1、cut

    • 2、sed

    • 3、awk

    • 4、sort

  • 企业真实面试题

    • 1、京东

    • 2、搜狐&和讯网

    • 3、新浪

    • 3、金和网络

  • 小结


常用的Shell工具

1、cut

        cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut命令从文件的每一行剪切字节,字符和字段并将这些字节,字符和字段输出

1.1 基本用法

cut[选项参数]   filename
说明:默认分隔符是制表符

1.2 选项参数说明

选项参数功能
-f列号,提前第几列
-d分隔符,按照指定分隔符分割列

1.3 案例实操

(0) 数据准备

[root@node01 datas]# touch cut.txt
[root@node01 datas]# vim cut.txt
dong shen
guan zhen
wo wo
lai lai
le le

(1)切割 cut.txt 第一列

[root@node01 datas]# cut -d " " -f 1 cut.txt
dong
guan
wo
lai
le

(2)切割cut.txt第二,三列

[root@node01 datas]# cut -d " " -f 2,3 cut.txt
shen
zhen
wo
lai
le

(3)在cut.txt文件中切割出guan

[root@node01 datas]# cat cut.txt | grep "guan" | cut -d " " -f 1
guan

(4)选取系统PATH变量值,第2个“:”开始后的所有路径:

[root@node01 datas]# echo $PATH
/usr/lib64/qt-3.3/bin::/export/servers/kafka-eagle-bin-1.3.2/kafka-eagle-web-1.3bin::/export/servers/jdk1.8.0_144/bin:::/export/servers/hbase-1.1.1/bin::/exportrvers/hadoop-2.6.0-cdh5.14.0/bin:/export/servers/hadoop-2.6.0-cdh5.14.0/sbin:/usocal/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/export/servers/hive-1.1.dh5.14.0/bin:/export/servers/kafka_2.11-1.0.0//bin:/export/servers/pig/bin:/exposervers/spark/bin:/export/servers/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/bin:/exporervers/zookeeper-3.4.5-cdh5.14.0/bin:/root/bin
[root@node01 datas]# echo $PATH | cut -d : -f 2-
:/export/servers/kafka-eagle-bin-1.3.2/kafka-eagle-web-1.3.2/bin::/export/servers/jdk1.8.0_144/bin:::/export/servers/hbase-1.1.1/bin::/export/servers/hadoop-2.6.0-cdh5.14.0/bin:/export/servers/hadoop-2.6.0-cdh5.14.0/sbin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/export/servers/hive-1.1.0-cdh5.14.0/bin:/export/servers/kafka_2.11-1.0.0//bin:/export/servers/pig/bin:/export/servers/spark/bin:/export/servers/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/bin:/export/servers/zookeeper-3.4.5-cdh5.14.0/bin:/root/bin

(5)切割 ifconfig 后打印的IP地址


[root@node01 datas]# ifconfig eth0 | grep "inet addr" | cut -d: -f 2 | cut -d" " -f1
192.168.100.100

2、sed

        sed是一种流编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”,接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。

2.1 基本用法

sed[选项参数] 'command' filename

2.2 选项参数说明

选项参数功能
-e直接在指令模式上进行sed的动作编辑

2.3 命令功能描述

命令功能描述
a新增,a的后面可以接字符串,在下一行出现
d删除
s查找并替换

2.4 案例实操

(0) 数据准备

[root@node01 datas]# touch sed.txt
[root@node01 datas]# vim sed.txt
dong shen
guan zhen
wo wo
lai lai

le le

(1) 将“mei nv”这个单词插入到sed.txt第二行下,打印

[root@node01 datas]# sed '2a mei nv' sed.txt
dong shen
guan zhen
mei nv
wo wo
lai lai

le le

注意:文件并没有改变

(2) 删除 sed.txt 文件所有包含 wo 的行

[root@node01 datas]# sed '/wo/d' sed.txt
dong shen
guan zhen
lai lai

le le

(3) 将sed.txt文件中wo替换为ni

[root@node01 datas]# sed 's/wo/ni/g' sed.txt
dong shen
guan zhen
ni ni
lai lai

le le

注意:‘g’表示global,全部替换

(4) 将sed.txt文件中的第二行删除并将wo替换为ni

[root@node01 datas]# sed -e '2d' -e 's/wo/ni/g' sed.txt
dong shen
ni ni
lai lai

le le

3、awk

        一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。

3.1 基本用法

awk [选项参数] ‘pattern1{action1}  pattern2{action2}...’ filenamepattern : 表示AWK在数据中查找的内容,就是匹配模式 action:在找到匹配内容时所执行的一系列命令

3.2 选项参数说明

选项参数功能
-F指定输入文件折分隔符
-v赋值一个用户定义变量

3.3 案例实操

(0) 数据准备

[root@node01 datas]# cp /etc/passwd ./

(1) 搜索passwd文件以root关键字开头的所有行,并输出该行的第7列

[root@node01 datas]# awk -F : '/^root/{print $7}' passwd
/bin/bash

(2) 搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以“,”号分割

[root@node01 datas]# awk -F : '/^root/{print $1","$7}' passwd
root,/bin/bash

注意:只有匹配了pattern的行才会执行action

(3) 只显示 passwd 文件的第一列和第七列,以逗号分割,且在第一行内容前面添加列名user,shell
在最后一行添加内容dahaige,/bin/zuishuai

[root@node01 datas]# awk -F : 'BEGIN{print "user,shell"}{print $1","$7} END{print "dahaige,/bin/zuishuani"}' passwd
user,shell
root,/bin/bash
bin,/sbin/nologin
......
hadoop,/bin/bash
dahaige,/bin/zuishuani

注意:BEGIN 在所有数据读取行之前执行;END 在所有数据执行之后执行。

(4)将passwd文件中的用户id增加数值1并输出

[root@node01 datas]# awk -v i=1 -F : '{print $3 + i}' passwd
1
2
3
4
......

3.4 awk的内置变量

变量说明
FILENAME文件名
NR已读的记录数
NF浏览记录的域的个数(切割后,列的个数)

3.5 案例实操

(1) 统计 passwd 文件名,每行的行号,每行的列数

[root@node01 datas]# awk -F : '{print "filename:" FILENAME ",linenumber:" NR ",columns:" NF}' passwd
filename:passwd,linenumber:1,columns:7
filename:passwd,linenumber:2,columns:7
filename:passwd,linenumber:3,columns:7
......

4、sort

         sort 命令在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。

4.1 基本语法

sort(选项)(参数)

选项说明
-n依照数值的大小排序
-r以相反的顺序来排序
-t设置排序时所用的分隔字符
-k指定需要排序的列

参数:指定待排序的文件列表

4.2 案例实操

(0) 数据准备

[root@node01 datas]# touch sort.sh
[root@node01 datas]# vim sort.sh
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6

(1) 按照 " : " 分割后的第三列倒序排序。

[root@node01 datas]# sort -t : -nrk 3 sort.sh
bb:40:5.4
bd:20:4.2
cls:10:3.5
xz:50:2.3
ss:30:1.6

                

        看到这里的朋友,一定对于Shell有了新的认知,但是我们了解得再多,终归还是需要通过实践来测试我们的能力。下面菌哥放上几道关于Shell的企业真实面试题,感兴趣的朋友可以测试一下~

企业真实面试题

1、京东

        问题1:使用Linux命令查询 sed.txt 中空行所在的行号

        awk '/^$/{print NR}' sed.txt

        问题2:有文件 chengji.txt 内容如下:

张三 40
李四 50
王五 60

        使用Linux命令计算第二列的和并输出

        cat chengji.txt | awk -F " " '{sum+=$2} END{print sum}'

2、搜狐&和讯网

        问题1:Shell脚本里如何检查一个文件是否存在?如果不存在该如何处理?

#!/bin/bash

if [ -f file.txt ]; then
echo "文件存在!"
else
echo "文件不存在!"
fi

3、新浪

问题1:用shell写一个脚本,对文本中无序的一列数字排序

[root@node01 datas]# cat demo.txt
9
8
7
6
5
4
3
2
10
1
[root@node01 datas]# sort -n demo.txt | awk '{a+=$0;print $0}END{print "SUM="a}'
1
2
3
4
5
6
7
8
9
10
SUM=55

3、金和网络

        问题1:请用shell脚本写出查找当前文件夹下所有的文本文件内容中包含有字符”shen”的文件名称

[root@node01 datas]# grep -r "shen" .
./sed.txt:dong shen
./cut.txt:dong shen
[root@node01 datas]# grep -r "shen" . | cut -d ":" -f 1
./sed.txt
./cut.txt

小结

本篇文章介绍了Shell常用的几种工具:cut,sed,awk,sort。这些工具不论是在Linux的开发,还是在大数据运维环境下,使用的频率都很高,热爱学习的小伙伴们记得勤加练习哟~

来源:数据仓库与Python大数据





    精  彩  推  荐  

知识星球


ACP优惠券

阿里云优惠码

数牛会即数据从业者社群,链接大咖,分享实践。特设数字企业家(DT创始人/传统企业家)首席数据官(CDO/CIO/CGO/COO)、数据精英综合群数据中台与数据治理(DW与BI)数据产品经理数据科学家(数据分析师/数据工程师/机器学习)阿里云ACP认证万年薪职场进阶群文末扫码入群,请备注姓名/公司/职位。 

168大数据国内领先的数据智能技术社群媒体

数百万首席数据官、数据科学家的梦想栖息地!

最具价值的数据知识 研究报告 架构实践 职场秘籍

打造权威的数据知识体系与职场成长平台!

我是首席数据官,我在这,你呢?


在看评论转发,利他就是利己


推荐阅读
  • HBase在金融大数据迁移中的应用与挑战
    随着最后一台设备的下线,标志着超过10PB的HBase数据迁移项目顺利完成。目前,新的集群已在新机房稳定运行超过两个月,监控数据显示,新集群的查询响应时间显著降低,系统稳定性大幅提升。此外,数据消费的波动也变得更加平滑,整体性能得到了显著优化。 ... [详细]
  • 我有一个从C项目编译的.o文件,该文件引用了名为init_static_pool ... [详细]
  • 本文介绍了如何使用Flume从Linux文件系统收集日志并存储到HDFS,然后通过MapReduce清洗数据,使用Hive进行数据分析,并最终通过Sqoop将结果导出到MySQL数据库。 ... [详细]
  • 用阿里云的免费 SSL 证书让网站从 HTTP 换成 HTTPS
    HTTP协议是不加密传输数据的,也就是用户跟你的网站之间传递数据有可能在途中被截获,破解传递的真实内容,所以使用不加密的HTTP的网站是不 ... [详细]
  • 从0到1搭建大数据平台
    从0到1搭建大数据平台 ... [详细]
  • 如何在Linux服务器上配置MySQL和Tomcat的开机自动启动
    在Linux服务器上部署Web项目时,通常需要确保MySQL和Tomcat服务能够随系统启动而自动运行。本文将详细介绍如何在Linux环境中配置MySQL和Tomcat的开机自启动,以确保服务的稳定性和可靠性。通过合理的配置,可以有效避免因服务未启动而导致的项目故障。 ... [详细]
  • 为了在Hadoop 2.7.2中实现对Snappy压缩和解压功能的原生支持,本文详细介绍了如何重新编译Hadoop源代码,并优化其Native编译过程。通过这一优化,可以显著提升数据处理的效率和性能。此外,还探讨了编译过程中可能遇到的问题及其解决方案,为用户提供了一套完整的操作指南。 ... [详细]
  • 第二章:Kafka基础入门与核心概念解析
    本章节主要介绍了Kafka的基本概念及其核心特性。Kafka是一种分布式消息发布和订阅系统,以其卓越的性能和高吞吐量而著称。最初,Kafka被设计用于LinkedIn的活动流和运营数据处理,旨在高效地管理和传输大规模的数据流。这些数据主要包括用户活动记录、系统日志和其他实时信息。通过深入解析Kafka的设计原理和应用场景,读者将能够更好地理解其在现代大数据架构中的重要地位。 ... [详细]
  • 在CentOS 7上部署WebRTC网关Janus
    在CentOS 7上部署WebRTC网关Janus ... [详细]
  • 在Linux系统中,原本已安装了多个版本的Python 2,并且还安装了Anaconda,其中包含了Python 3。本文详细介绍了如何通过配置环境变量,使系统默认使用指定版本的Python,以便在不同版本之间轻松切换。此外,文章还提供了具体的实践步骤和注意事项,帮助用户高效地管理和使用不同版本的Python环境。 ... [详细]
  • 深入浅出 webpack 系列(二):实现 PostCSS 代码的编译与优化
    在前一篇文章中,我们探讨了如何通过基础配置使 Webpack 完成 ES6 代码的编译。本文将深入讲解如何利用 Webpack 实现 PostCSS 代码的编译与优化,包括配置相关插件和加载器,以提升开发效率和代码质量。我们将详细介绍每个步骤,并提供实用示例,帮助读者更好地理解和应用这些技术。 ... [详细]
  • Hadoop平台警告解决:无法加载本机Hadoop库的全面应对方案
    本文探讨了在Hadoop平台上遇到“无法加载本机Hadoop库”警告的多种解决方案。首先,通过修改日志配置文件来忽略该警告,这一方法被证明是有效的。其次,尝试指定本地库的路径,但未能解决问题。接着,尝试不使用Hadoop本地库,同样没有效果。然后,通过替换现有的Hadoop本地库,成功解决了问题。最后,根据Hadoop的源代码自行编译本地库,也达到了预期的效果。以上方法适用于macOS系统。 ... [详细]
  • Presto:高效即席查询引擎的深度解析与应用
    本文深入解析了Presto这一高效的即席查询引擎,详细探讨了其架构设计及其优缺点。Presto通过内存到内存的数据处理方式,显著提升了查询性能,相比传统的MapReduce查询,不仅减少了数据传输的延迟,还提高了查询的准确性和效率。然而,Presto在大规模数据处理和容错机制方面仍存在一定的局限性。本文还介绍了Presto在实际应用中的多种场景,展示了其在大数据分析领域的强大潜力。 ... [详细]
  • 在搭建Hadoop集群以处理大规模数据存储和频繁读取需求的过程中,经常会遇到各种配置难题。本文总结了作者在实际部署中遇到的典型问题,并提供了详细的解决方案,帮助读者避免常见的配置陷阱。通过这些经验分享,希望读者能够更加顺利地完成Hadoop集群的搭建和配置。 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
author-avatar
潘多拉多宝_712
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有