Chiriri's blog Chiriri's blog
首页
  • Java

    • JavaSE
    • JavaEE
    • 设计模式
  • Python

    • Python
    • Python模块
    • 机器学习
  • Golang

    • Golang
    • gRPC
  • 服务器

    • Linux
    • MySQL
    • NoSQL
    • Kubernetes
  • 项目

    • 传智健康
    • 畅购商城
  • Hadoop生态

    • Hadoop
    • Zookeeper
    • Hive
    • Flume
    • Kafka
    • Azkaban
    • Hbase
    • Scala
    • Spark
    • Flink
  • 大数据项目

    • 离线数仓
  • 青训营

    • 第四届青训营
  • HTML

    • HTML
    • JavaScript
  • Vue

    • Vue2
    • TypeScript
    • Vue3
    • Uni-APP
  • 数据结构与算法
  • C语言
  • 考研数据结构
  • 计算机组成原理
  • 计算机操作系统
  • Java基础

    • Java基础
    • Java集合
    • JUC
    • JVM
  • 框架

    • Spring
    • Dubbo
    • Spring Cloud
  • 数据库

    • MySQL
    • Redis
    • Elasticesearch
  • 消息队列

    • RabbitMQ
    • RocketMQ
  • 408

    • 计算机网络
    • 操作系统
    • 算法
  • 分类
  • 标签
  • 归档
  • 导航站
GitHub (opens new window)

Iekr

苦逼后端开发
首页
  • Java

    • JavaSE
    • JavaEE
    • 设计模式
  • Python

    • Python
    • Python模块
    • 机器学习
  • Golang

    • Golang
    • gRPC
  • 服务器

    • Linux
    • MySQL
    • NoSQL
    • Kubernetes
  • 项目

    • 传智健康
    • 畅购商城
  • Hadoop生态

    • Hadoop
    • Zookeeper
    • Hive
    • Flume
    • Kafka
    • Azkaban
    • Hbase
    • Scala
    • Spark
    • Flink
  • 大数据项目

    • 离线数仓
  • 青训营

    • 第四届青训营
  • HTML

    • HTML
    • JavaScript
  • Vue

    • Vue2
    • TypeScript
    • Vue3
    • Uni-APP
  • 数据结构与算法
  • C语言
  • 考研数据结构
  • 计算机组成原理
  • 计算机操作系统
  • Java基础

    • Java基础
    • Java集合
    • JUC
    • JVM
  • 框架

    • Spring
    • Dubbo
    • Spring Cloud
  • 数据库

    • MySQL
    • Redis
    • Elasticesearch
  • 消息队列

    • RabbitMQ
    • RocketMQ
  • 408

    • 计算机网络
    • 操作系统
    • 算法
  • 分类
  • 标签
  • 归档
  • 导航站
GitHub (opens new window)
  • JavaSE

  • JavaEE

  • Linux

    • Linux
    • shell
      • 变量
      • 特殊变量
        • $n
        • $#
        • \$*与\$@
        • $?
      • 数组
      • 运算符
        • 字符串运算符
        • 关系运算符
        • 布尔运算符
        • 按照文件权限进行判断
        • 按照文件类型进行判断
      • 判断语句
        • 选择语句
      • 循环语句
        • for 循环
        • while 循环
      • 函数
        • 系统函数
        • basename
        • dirname
        • 自定义函数
      • read 读取控制台输入
      • awk
      • cut
      • sort
      • wc
    • 常用的组件安装
  • MySQL

  • NoSQL

  • Python

  • Python模块

  • 机器学习

  • 设计模式

  • 传智健康

  • 畅购商城

  • 博客项目

  • JVM

  • JUC

  • Golang

  • Kubernetes

  • 硅谷课堂

  • C

  • 源码

  • 神领物流

  • RocketMQ

  • 短链平台

  • 后端
  • Linux
Iekr
2021-08-08
目录

shell

# shell

以.sh 后缀的文件夹

使用 vim 编辑

第一句恒定是

#!bin/bash
1

编写完后运行

chmod +x test.sh

./test.sh   # 运行方式1
bash test.sh   # 运行方式2
sh test.sh # 运行方式3
1
2
3
4
5

# 变量

变量定义规则

(1)变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。

(2)等号两侧不能有空格

(3)在 bash 中,变量默认类型都是字符串类型,无法直接进行数值运算。

(4)变量的值如果有空格,需要使用双引号或单引号括起来。

  • 普通变量

    • 变量名 = 变量值 必须为一个整体,中间没有特殊字符
    • 变量名 =' 变量值 ' 单引号中的内容原样赋值
    • 变量名 ="变量值" 如果双引号里面有其他变量,那么会进行拼接后,再赋值
  • 命令变量 把命令执行的结果赋值给变量

    • 变量名 =`命令` 注意为反引号
    • 变量名 =$(命令)
  • 使用变量

    • $ 变量名
    • "$ 变量名"
    • ${变量名}
    • "${变量名}" 标准用法
  • 只读变量

    • readonly 变量名 常量不能 unset
  • 删除变量

    • unset 变量名 删除变量
  • 系统变量

    • 如 $HOME、$PWD、$SHELL、$USER、$PATH 等

      通过 set 和 export 进行设置系统变量

# 特殊变量

# $n

$n (功能描述:n 为数字,$0 代表该脚本名称,$1-$9 代表第一到第九个参数,十以上的参数,十以上的参数需要用大括号包含,如 ${10})

parameter.sh

#!/bin/bash
echo '==========$n=========='
echo $0 
echo $1 
echo $2
1
2
3
4
5

运行该脚本

./parameter.sh cls xz
1
==========$n==========
./parameter.sh
cls
xz
1
2
3
4

# $#

$# (功能描述:获取所有输入参数个数,常用于循环,判断参数的个数是否正确以及加强脚本的健壮性)。

parameter.sh

#!/bin/bash
echo '==========$n=========='
echo $0 
echo $1 
echo $2
echo '==========$#=========='
echo $#
1
2
3
4
5
6
7

运行

./parameter.sh cls xz
1
==========$n==========
./parameter.sh
cls
xz
==========$#==========
2
1
2
3
4
5
6

# $* 与 $@

  • $* (功能描述:这个变量代表命令行中所有的参数,$* 把所有的参数看成一个整体)
  • $@ (功能描述:这个变量也代表命令行中所有的参数,不过 $@把每个参数区分对待)

parameter.sh

#!/bin/bash
echo '==========$n=========='
echo $0 
echo $1 
echo $2
echo '==========$#=========='
echo $#
echo '==========$*=========='
echo $*
echo '==========$@=========='
echo $@
1
2
3
4
5
6
7
8
9
10
11

运行脚本

./parameter.sh a b c d e f g
1
==========$n==========
./parameter.sh
a
b
==========$#==========
7
==========$*==========
a b c d e f g
==========$@==========
a b c d e f g
1
2
3
4
5
6
7
8
9
10

# $?

$? (功能描述:最后一次执行的命令的返回状态。如果这个变量的值为 0,证明上一个命令正确执行;如果这个变量的值为非 0(具体是哪个数,由命令自己来决定),则证明上一个命令执行不正确了。)

$? 可以获取 sh 脚本上一条命令执行的结果,减少赋值和创建变量

[atguigu@hadoop101 shells]$ ./helloworld.sh 
hello world
[atguigu@hadoop101 shells]$ echo $?
0
1
2
3
4

# 数组

  • 定义数组
    • 数组名 =(值 值 2...) arr=(1 2 3 4 5)
  • 使用索引赋值
    • 数组名 [索引]= 值 arr [0]=2
  • 获取元素
    • ${数组名 [下标]} ${arr [0]}
  • 获取长度
    • ${# 数组名 [*]} ${#arr [*]}
    • ${# 数组名 [@]} ${#arr [@]}

# 运算符

image-20210808235343435

需要在运算的数字 前加上关键字 expr

# 字符串运算符

image-20210808235611000

字符串长度: "${#a}"

# 关系运算符

image-20210809004453449

# 布尔运算符

image-20210809004551225

image-20210809004825045

# 按照文件权限进行判断

  • -r 有读的权限(read)
  • -w 有写的权限(write)
  • -x 有执行的权限(execute)
[atguigu@hadoop101 shells]$ [ -w helloworld.sh ]
[atguigu@hadoop101 shells]$ echo $?
0
1
2
3

# 按照文件类型进行判断

  • -e 文件存在(existence)
  • -f 文件存在并且是一个常规的文件(file)
  • -d 文件存在并且是一个目录(directory)
[atguigu@hadoop101 shells]$ [ -e /home/atguigu/cls.txt ]
[atguigu@hadoop101 shells]$ echo $?
1
1
2
3

# 判断语句

if 后要有空格,[条件判断式],中括号和条件判断式之间必须有空格

if [ 条件 ]
then
	语句体
fi



if [ 条件 ]
then
	语句体
else
	语句体
fi



if [ 条件 ]
then
	语句体
elif [ 条件2 ]
	语句体
else
	语句体
fi
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

# 选择语句

  • case 行尾必须为单词 “in”,每一个模式匹配必须以右括号 “)” 结束
  • 双分号 “;;” 表示命令序列结束,相当于 java 中的 break。
  • 最后的 “*)” 表示默认模式,相当于 java 中的 default。
case 值 in
模式1)
	语句体
;;
模式2)
	语句体
;;
esac


v = "test"
case "${v}" in
"123")
	echo "123"
;;
"test")
	echo "test"
;;
*)
	echo "over"
;;
esac
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22

# 循环语句

# for 循环

# 方式一
for (( 初始值;循环控制条件;变量变化 )) 
do 
    程序 
done
# 案例
sum=0
for((i=0;i<=100;i++))
do
        sum=$[$sum+$i]
done
echo $sum

# 方式二
for 变量 in 范围
do
	循环体
done
# 案例
for i in cls mly wls
do
      echo "ban zhang love $i"
done
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23

比较 $* 和 $@区别

$* 和 $@都表示传递给函数或脚本的所有参数,不被双引号 “” 包含时,都以 $1 $2 …$n 的形式输出所有参数。

#!/bin/bash 
echo '=============$*============='
for i in $*
do
       echo "ban zhang love $i"
done

echo '=============$@============='
for j in $@
do      
       echo "ban zhang love $j"
done
1
2
3
4
5
6
7
8
9
10
11
12
./for3.sh cls mly wls
1
=============$*=============
banzhang love cls
banzhang love mly
banzhang love wls
=============$@=============
banzhang love cls
banzhang love mly
banzhang love wls
1
2
3
4
5
6
7
8

当它们被双引号 “” 包含时,$* 会将所有的参数作为一个整体,以 “$1 $2 …$n” 的形式输出所有参数;$@会将各个参数分开,以 “$1” “$2”…“$n” 的形式输出所有参数。

#!/bin/bash 
echo '=============$*============='
for i in "$*" 
#$*中的所有参数看成是一个整体,所以这个for循环只会循环一次 
do 
        echo "ban zhang love $i"
done 

echo '=============$@============='
for j in "$@" 
#$@中的每个参数都看成是独立的,所以“$@”中有几个参数,就会循环几次 
do 
        echo "ban zhang love $j" 
done
1
2
3
4
5
6
7
8
9
10
11
12
13
14
./for4.sh cls mly wls
1
=============$*=============
banzhang love cls mly wls
=============$@=============
banzhang love cls
banzhang love mly
banzhang love wls
1
2
3
4
5
6

# while 循环

while [ 条件判断式 ] 
do 
    程序
done

# 案例
sum=0
i=1
while [ $i -le 100 ]
do
        sum=$[$sum+$i]
        i=$[$i+1]
done

echo $sum
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

# 函数

# 系统函数

# basename

basename [string /pathname] [suffix] (功能描述:basename 命令会删掉所有的前缀包括最后一个(‘/’)字符,然后将字符串显示出来。

basename 可以理解为取路径里的文件名称

选项:

suffix 为后缀,如果 suffix 被指定了,basename 会将 pathname 或 string 中的 suffix 去掉。

案例

截取该 /home/atguigu/banzhang.txt 路径的文件名称。

[atguigu@hadoop101 shells]$ basename /home/atguigu/banzhang.txt 
banzhang.txt
[atguigu@hadoop101 shells]$ basename /home/atguigu/banzhang.txt .txt
banzhang

1
2
3
4
5

# dirname

dirname 文件绝对路径 (功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分))

dirname 可以理解为取文件路径的绝对路径名称

案例

获取 banzhang.txt 文件的路径。

[atguigu@hadoop101 ~]$ dirname /home/atguigu/banzhang.txt 
/home/atguigu
1
2

# 自定义函数

函数名(){
	函数体
}

function(){
	echo "function"
}

# 直接用函数名调用函数
function
1
2
3
4
5
6
7
8
9
10
fa(){
	echo "$1"
	echo "$2"
	# 返回值直接返回就好
	return $(($1+$2))
}

fa 10 20
echo $?
1
2
3
4
5
6
7
8
9

# read 读取控制台输入

read (选项) (参数)

  • -p:指定读取值时的提示符;
  • -t:指定读取值时等待的时间(秒)如果 - t 不加表示一直等待
  • 变量:指定读取值的变量名
#!/bin/bash

read -t 7 -p "Enter your name in 7 seconds :" NN
echo $NN
1
2
3
4

# awk

一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。

ark [选项] ' 语法 ' 文件名 查询文件中包含 awk 语法的文件

awk [选项参数] ‘/pattern1/{action1} /pattern2/{action2}...’ filename

pattern:表示 awk 在数据中查找的内容,就是匹配模式

action:在找到匹配内容时所执行的一系列命令

  • -F ' 字符 ' 使用 指定字符串切割

  • -v 赋值一个用户定义变量

  • $ + 数字 获取第几段内容

  • $0 获取当前行内容

  • OFS="字符" 将切割后的内容 以指定字符连接

  • print 打印

  • toupper () 将指定内容转换为大写 cat a.txt | awk -F ' ' '{print toupper ($1)}'

  • tolower () 将指定内容转换为小写

  • length () 返回字符长度

  • 'BEGIN{初始化操作}
    {每行都执行}
    END{结束时操作}'
    文件名
    
    1
    2
    3
    4

数据准备

[atguigu@hadoop101 shells]$ sudo cp /etc/passwd ./
passwd数据的含义
用户名:密码(加密过后的):用户id:组id:注释:用户家目录:shell解析器
1
2
3

搜索 passwd 文件以 root 关键字开头的所有行,并输出该行的第 7 列。

[atguigu@hadoop101 shells]$ awk -F : '/^root/{print $7}' passwd 
/bin/bash
1
2

搜索 passwd 文件以 root 关键字开头的所有行,并输出该行的第 1 列和第 7 列,中间以 “,” 号分割

[atguigu@hadoop101 shells]$ awk -F : '/^root/{print $1","$7}' passwd 
root,/bin/bash
1
2

只有匹配了 pattern 的行才会执行 action。

只显示 /etc/passwd 的第一列和第七列,以逗号分割,且在所有行前面添加列名 user,shell 在最后一行添加 "dahaige,/bin/zuishuai"。

[atguigu@hadoop101 shells]$ awk -F : 'BEGIN{print "user, shell"} {print $1","$7} END{print "dahaige,/bin/zuishuai"}' passwd
user, shell
root,/bin/bash
bin,/sbin/nologin
....
atguigu,/bin/bash
dahaige,/bin/zuishuai
1
2
3
4
5
6
7

BEGIN 在所有数据读取行之前执行;END 在所有数据执行之后执行。

将 passwd 文件中的用户 id 增加数值 1 并输出

[atguigu@hadoop101 shells]$ awk -v i=1 -F : '{print $3+i}' passwd
1
2
3
4
1
2
3
4
5

awk 的内置变量

变量 说明
FILENAME 文件名
NR 已读的记录数(行号)
NF 浏览记录的域的个数(切割后,列的个数)

统计 passwd 文件名,每行的行号,每行的列数

[atguigu@hadoop101 shells]$ awk -F : '{print "filename:" FILENAME  ",linenum:" NR ",col:"NF}' passwd 
filename:passwd,linenum:1,col:7
filename:passwd,linenum:2,col:7
filename:passwd,linenum:3,col:7
...
1
2
3
4
5

查询 ifconfig 命令输出结果中的空行所在的行号

[atguigu@hadoop101 shells]$ ifconfig | awk '/^$/{print NR}'
9
18
26
1
2
3
4

切割 IP

[atguigu@hadoop101 shells]$ ifconfig ens33 | grep netmask | awk -F ' ' '{print $2}'
1

# cut

cut 的工作就是 “剪”,具体的说就是在文件中负责剪切数据用的。cut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段输出。

cut [选项参数] filename

说明:默认分隔符是制表符

选项参数 功能
-f 列号,提取第几列
-d 分隔符,按照指定分隔符分割列,默认是制表符 “\t”
-c 指定具体的字符

cut.txt

dong shen
guan zhen
wo  wo
lai  lai
le  le
1
2
3
4
5

切割 cut.txt 第一列

[atguigu@hadoop101 shells]$ cut -d " " -f 1 cut.txt 
dong
guan
wo
lai
le
1
2
3
4
5
6

切割 cut.txt 第二、三列

[atguigu@hadoop101 shells]$ cut -d " " -f 2,3 cut.txt 
  Le 
1
2

在 cut.txt 文件中切割出 guan

[atguigu@hadoop101 shells]$  cat cut.txt |grep guan | cut -d " " -f 1
guan
1
2

选取系统 PATH 变量值,第 2 个 “:” 开始后的所有路径:

[atguigu@hadoop101 shells]$ echo $PATH
/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/atguigu/.local/bin:/home/atguigu/bin
[atguigu@hadoop101 shells]$ echo $PATH | cut -d ":" -f 3-
/usr/local/sbin:/usr/sbin:/home/atguigu/.local/bin:/home/atguigu/bin
1
2
3
4

切割 ifconfig 后打印的 IP 地址

[atguigu@hadoop101 shells]$ ifconfig ens33 | grep netmask | cut -d "i" -f 2 | cut -d " " -f 2
192.168.6.101
1
2

# sort

sort 命令是在 Linux 里非常有用,它将文件进行排序,并将排序结果标准输出。

Sort (选项) (参数)

选项 说明
-n 依照数值的大小排序
-r 以相反的顺序来排序
-t 设置排序时所用的分隔字符
-k 指定需要排序的列

数据准备

touch sort.txt
vim sort.txt
1
2
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6
1
2
3
4
5

按照 “:” 分割后的第三列倒序排序。

sort -t : -nrk 3  sort.txt 
1
bb:40:5.4
bd:20:4.2
cls:10:3.5
xz:50:2.3
ss:30:1.6
1
2
3
4
5

# wc

wc 命令用来统计文件信息。利用 wc 指令我们可以计算文件的行数,字节数、字符数等。

wc [选项参数] filename

选项参数 功能
-l 统计文件行数
-w 统计文件的单词数
-m 统计文件的字符数
-c 统计文件的字节数

统计 /etc/profile 文件的行数、单词数、字节数!

wc -l /etc/profile 
wc -w /etc/profile 
wc -m /etc/profile
1
2
3
编辑 (opens new window)
上次更新: 2025/01/01, 10:09:39
Linux
常用的组件安装

← Linux 常用的组件安装→

最近更新
01
k8s
06-06
02
进程与线程
03-04
03
计算机操作系统概述
02-26
更多文章>
Theme by Vdoing | Copyright © 2022-2025 Iekr | Blog
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式