远程应用配置
1 | FROM registry.cn-hangzhou.aliyuncs.com/ppiian/openjdk:8-jdk-alpine |
远程启动配置项中添加
-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=5006
这里的端口5006需要提供给idea
idea配置
【运行/调试配置】中添加一个 【远程jvm调试】
host(主持人)这里填远程的ip地址,端口填远程开放的端口

潘逸安
1 | FROM registry.cn-hangzhou.aliyuncs.com/ppiian/openjdk:8-jdk-alpine |
远程启动配置项中添加
-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=5006
这里的端口5006需要提供给idea
【运行/调试配置】中添加一个 【远程jvm调试】
host(主持人)这里填远程的ip地址,端口填远程开放的端口

1 | public class Try { |
1 | User apply = Try.of((String userStr) -> { |
1 | User aaa = Try.of(() -> { |
1 | String s3 = "{\"name\":221, \"id\":1}"; |
lambda中使用
1 | User user2 = Optional.ofNullable(s3) |
1 | objects.stream().filter(Try.predicate(user -> { |
1 | public static <T> Predicate<T> predicate(Try.UncheckedPredicate<T> mapper) { |
1 |
|
安装:yum install firewalld
启动: systemctl start firewalld
查看状态: systemctl status firewalld
禁用,禁止开机启动: systemctl disable firewalld
停止运行: systemctl stop firewalld
查看版本: firewall-cmd –version
查看帮助: firewall-cmd –help
显示状态: firewall-cmd –state
查看所有打开的端口: firewall-cmd –zone=public –list-ports
更新防火墙规则: firewall-cmd –reload
更新防火墙规则,重启服务: firewall-cmd –completely-reload
查看已激活的Zone信息: firewall-cmd –get-active-zones
查看指定接口所属区域: firewall-cmd –get-zone-of-interface=eth0
拒绝所有包:firewall-cmd –panic-on
取消拒绝状态: firewall-cmd –panic-off
查看是否拒绝: firewall-cmd –query-panic
drop: 丢弃所有进入的包,而不给出任何响应
block: 拒绝所有外部发起的连接,允许内部发起的连接
public: 允许指定的进入连接
external: 同上,对伪装的进入连接,一般用于路由转发
dmz: 允许受限制的进入连接
work: 允许受信任的计算机被限制的进入连接,类似 workgroup
home: 同上,类似 homegroup
internal: 同上,范围针对所有互联网用户
trusted: 信任所有连接
以下都是指在public的zone下的操作,不同的Zone只要改变Zone后面的值就可以
添加:
firewall-cmd –zone=public –add-port=80/tcp –permanent (–permanent永久生效,没有此参数重启后失效)
重新载入:
firewall-cmd –reload
查看:
firewall-cmd –zone=public –query-port=80/tcp
删除:
firewall-cmd –zone=public –remove-port=80/tcp –permanent
以smtp服务为例, 添加到work zone
添加:
firewall-cmd –zone=work –add-service=smtp
查看:
firewall-cmd –zone=work –query-service=smtp
删除:
firewall-cmd –zone=work –remove-service=smtp
查看:
firewall-cmd –zone=external –query-masquerade
打开:
firewall-cmd –zone=external –add-masquerade
关闭:
firewall-cmd –zone=external –remove-masquerade
打开端口转发,首先需要打开IP地址伪装
firewall-cmd –zone=external –add-masquerade
转发 tcp 22 端口至 3753:
firewall-cmd –zone=external –add-forward-port=22:porto=tcp:toport=3753
转发端口数据至另一个IP的相同端口:
firewall-cmd –zone=external –add-forward-port=22:porto=tcp:toaddr=192.168.1.112
转发端口数据至另一个IP的 3753 端口:
firewall-cmd –zone=external –add-forward-port=22:porto=tcp::toport=3753:toaddr=192.168.1.112
启动一个服务:systemctl start firewalld.service
关闭一个服务:systemctl stop firewalld.service
重启一个服务:systemctl restart firewalld.service
显示一个服务的状态:systemctl status firewalld.service
在开机时启用一个服务:systemctl enable firewalld.service
在开机时禁用一个服务:systemctl disable firewalld.service
查看服务是否开机启动:systemctl is-enabled firewalld.service
查看已启动的服务列表:systemctl list-unit-files|grep enabled
查看启动失败的服务列表:systemctl –failed
linux 系统则是由 cron (crond) 这个系统服务来控制的。Linux 系统上面原本就有非常多的计划性工作,因此这个系统服务是默认启动的。另 外, 由于使用者自己也可以设置计划任务,所以, Linux 系统也提供了使用者控制计划任务的命令 :crontab 命令。
crond 是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计划任务类似,当安装完成操作系统后,默认会安装此服务 工具,并且会自动启动crond进程,crond进程每分钟会定期检查是否有要执行的任务,如果有要执行的任务,则自动执行该任务。
Linux下的任务调度分为两类,系统任务调度和用户任务调度。
系统任务调度:系统周期性所要执行的工作,比如写缓存数据到硬盘、日志清理等。在/etc目录下有一个crontab文件,这个就是系统任务调度的配置文件。
/etc/crontab文件包括下面几行:
1 | SHELL=/bin/bash |
前 四行是用来配置crond任务运行的环境变量,第一行SHELL变量指定了系统要使用哪个shell,这里是bash,第二行PATH变量指定了系统执行 命令的路径,第三行MAILTO变量指定了crond的任务执行信息将通过电子邮件发送给root用户,如果MAILTO变量的值为空,则表示不发送任务 执行信息给用户,第四行的HOME变量指定了在执行命令或者脚本时使用的主目录。第六至九行表示的含义将在下个小节详细讲述。这里不在多说。
用户任务调度:用户定期要执行的工作,比如用户数据备份、定时邮件提醒等。用户可以使用 crontab 工具来定制自己的计划任务。所有用户定义的crontab 文件都被保存在 /var/spool/cron目录中。其文件名与用户名一致。
使用者权限文件:
文件:
/etc/cron.deny
说明:
该文件中所列用户不允许使用crontab命令
文件:
/etc/cron.allow
说明:
该文件中所列用户允许使用crontab命令
文件:
/var/spool/cron/
说明:
所有用户crontab文件存放的目录,以用户名命名
crontab文件的含义:
用户所建立的crontab文件中,每一行都代表一项任务,每行的每个字段代表一项设置,它的格式共分为六个字段,前五段是时间设定段,第六段是要执行的命令段,格式如下:
minute hour day month week command
其中:
1 | minute: 表示分钟,可以是从0到59之间的任何整数。 |
在以上各个字段中,还可以使用以下特殊字符:
星号(*):代表所有可能的值,例如month字段如果是星号,则表示在满足其它字段的制约条件后每月都执行该命令操作。
逗号(,):可以用逗号隔开的值指定一个列表范围,例如,“1,2,5,7,8,9”
中杠(-):可以用整数之间的中杠表示一个整数范围,例如“2-6”表示“2,3,4,5,6”
正斜线(/):可以用正斜线指定时间的间隔频率,例如“0-23/2”表示每两小时执行一次。同时正斜线可以和星号一起使用,例如*/10,如果用在minute字段,表示每十分钟执行一次。
安装crontab:
1 | yum install crontabs |
服务操作说明:
1 | /sbin/service crond start //启动服务 |
查看crontab服务是否已设置为开机启动,执行命令:
ntsysv
加入开机自动启动:
1 | chkconfig –level 35 crond on |
1 | crontab [-u user] file |
通过crontab 命令,我们可以在固定的间隔时间执行指定的系统指令或 shell script脚本。时间间隔的单位可以是分钟、小时、日、月、周及以上的任意组合。这个命令非常设合周期性的日志分析或数据备份等工作。
-u user:用来设定某个用户的crontab服务,例如,“-u ixdba”表示设定ixdba用户的crontab服务,此参数一般有root用户来运行。
file:file是命令文件的名字,表示将file做为crontab的任务列表文件并载入crontab。如果在命令行中没有指定这个文件,crontab命令将接受标准输入(键盘)上键入的命令,并将它们载入crontab。
-e:编辑某个用户的crontab文件内容。如果不指定用户,则表示编辑当前用户的crontab文件。
-l:显示某个用户的crontab文件内容,如果不指定用户,则表示显示当前用户的crontab文件内容。
-r:从/var/spool/cron目录中删除某个用户的crontab文件,如果不指定用户,则默认删除当前用户的crontab文件。
-i:在删除用户的crontab文件时给确认提示。
在 考虑向cron进程提交一个crontab文件之前,首先要做的一件事情就是设置环境变量EDITOR。cron进程根据它来确定使用哪个编辑器编辑 crontab文件。9 9 %的UNIX和LINUX用户都使用vi,如果你也是这样,那么你就编辑$ HOME目录下的. profile文件,在其 中加入这样一行:
EDITOR=vi; export EDITOR
然后保存并退出。不妨创建一个名为
1 | # (put your own initials here)echo the date to the console every |
保存并退出。确信前面5个域用空格分隔。
在 上面的例子中,系统将每隔1 5分钟向控制台输出一次当前时间。如果系统崩溃或挂起,从最后所显示的时间就可以一眼看出系统是什么时间停止工作的。在有些 系统中,用tty1来表示控制台,可以根据实际情况对上面的例子进行相应的修改。为了提交你刚刚创建的crontab文件,可以把这个新创建的文件作为 cron命令的参数:
1 | $ crontab davecron |
现在该文件已经提交给cron进程,它将每隔1 5分钟运行一次。
同时,新创建文件的一个副本已经被放在/var/spool/cron目录中,文件名就是用户名(即dave)。
为了列出crontab文件,可以用:
1 | $ crontab -l |
你将会看到和上面类似的内容。可以使用这种方法在$ H O M E目录中对crontab文件做一备份:
1 | $ crontab -l > $HOME/mycron |
这样,一旦不小心误删了crontab文件,可以用上一节所讲述的方法迅速恢复。
如果希望添加、删除或编辑crontab文件中的条目,而E D I TO R环境变量又设置为v i,那么就可以用v i来编辑crontab文件,相应的命令为:
1 | $ crontab -e |
可以像使用v i编辑其他任何文件那样修改crontab文件并退出。如果修改了某些条目或添加了新的条目,那么在保存该文件时, c r o n会对其进行必要的完整性检查。如果其中的某个域出现了超出允许范围的值,它会提示你。
我们在编辑crontab文件时,没准会加入新的条目。例如,加入下面的一条:
1 | # DT:delete core files,at 3.30am on 1,7,14,21,26,26 days of each month |
现在保存并退出。最好在crontab文件的每一个条目之上加入一条注释,这样就可以知道它的功能、运行时间,更为重要的是,知道这是哪位用户的作业。
现在让我们使用前面讲过的crontab -l命令列出它的全部信息:
1 | $ crontab -l |
要删除crontab文件,可以用:
1 | $ crontab -r |
如果不小心误删了crontab文件,假设你在自己的$ H O M E目录下还有一个备份,那么可以将其拷贝到/var/spool/cron/
1 | $ crontab <filename> |
其中,
我建议你在自己的$ H O M E目录中保存一个该文件的副本。我就有过类似的经历,有数次误删了crontab文件(因为r键紧挨在e键的右边)。这就是为什么有些系统文档建议不要直接编辑crontab文件,而是编辑该文件的一个副本,然后重新提交新的文件。
有些crontab的变体有些怪异,所以在使用crontab命令时要格外小心。如果遗漏了任何选项,crontab可能会打开一个空文件,或者看起来像是个空文件。这时敲delete键退出,不要按
命令:
1 | * * * * * command |
实例2:每小时的第3和第15分钟执行
命令:
1 | 3,15 * * * * command |
实例3:在上午8点到11点的第3和第15分钟执行
命令:
1 | 3,15 8-11 * * * command |
实例4:每隔两天的上午8点到11点的第3和第15分钟执行
命令:
1 | 3,15 8-11 */2 * * command |
实例5:每个星期一的上午8点到11点的第3和第15分钟执行
命令:
1 | 3,15 8-11 * * 1 command |
实例6:每晚的21:30重启smb
命令:
1 | 30 21 * * * /etc/init.d/smb restart |
实例7:每月1、10、22日的4 : 45重启smb
命令:
1 | 45 4 1,10,22 * * /etc/init.d/smb restart |
实例8:每周六、周日的1 : 10重启smb
命令:
1 | 10 1 * * 6,0 /etc/init.d/smb restart |
实例9:每天18 : 00至23 : 00之间每隔30分钟重启smb
命令:
1 | 0,30 18-23 * * * /etc/init.d/smb restart |
实例10:每星期六的晚上11 : 00 pm重启smb
命令:
1 | 0 23 * * 6 /etc/init.d/smb restart |
实例11:每一小时重启smb
命令:
1 | * */1 * * * /etc/init.d/smb restart |
实例12:晚上11点到早上7点之间,每隔一小时重启smb
命令:
1 | * 23-7/1 * * * /etc/init.d/smb restart |
实例13:每月的4号与每周一到周三的11点重启smb
命令:
1 | 0 11 4 * mon-wed /etc/init.d/smb restart |
实例14:一月一号的4点重启smb
命令:
1 | 0 4 1 jan * /etc/init.d/smb restart |
实例15:每小时执行/etc/cron.hourly目录内的脚本
命令:
1 | 01 * * * * root run-parts /etc/cron.hourly |
说明:
run-parts这个参数了,如果去掉这个参数的话,后面就可以写要运行的某个脚本名,而不是目录名了
有时我们创建了一个crontab,但是这个任务却无法自动执行,而手动执行这个任务却没有问题,这种情况一般是由于在crontab文件中没有配置环境变量引起的。
在 crontab文件中定义多个调度任务时,需要特别注意的一个问题就是环境变量的设置,因为我们手动执行某个任务时,是在当前shell环境下进行的,程 序当然能找到环境变量,而系统自动执行任务调度时,是不会加载任何环境变量的,因此,就需要在crontab文件中指定任务运行所需的所有环境变量,这 样,系统执行任务调度时就没有问题了。
不要假定cron知道所需要的特殊环境,它其实并不知道。所以你要保证在shelll脚本中提供所有必要的路径和环境变量,除了一些自动设置的全局变量。所以注意如下3点:
1)脚本中涉及文件路径时写全局路径;
2)脚本执行要用到java或其他环境变量时,通过source命令引入环境变量,如:
cat start_cbp.sh
1 | #!/bin/sh |
3)当手动执行脚本OK,但是crontab死活不执行时。这时必须大胆怀疑是环境变量惹的祸,并可以尝试在crontab中直接引入环境变量解决问题。如:
1 | 0 * * * * . /etc/profile;/bin/sh /var/www/java/audit_no_count/bin/restart_audit.sh |
每条任务调度执行完毕,系统都会将任务输出信息通过电子邮件的形式发送给当前系统用户,这样日积月累,日志信息会非常大,可能会影响系统的正常运行,因此,将每条任务进行重定向处理非常重要。
例如,可以在crontab文件中设置如下形式,忽略日志输出:
1 | 0 */3 * * * /usr/local/apache2/apachectl restart >/dev/null 2>&1 |
“/dev/null 2>&1”表示先将标准输出重定向到/dev/null,然后将标准错误重定向到标准输出,由于标准输出已经重定向到了/dev/null,因此标准错误也会重定向到/dev/null,这样日志输出问题就解决了。
系 统级任务调度主要完成系统的一些维护操作,用户级任务调度主要完成用户自定义的一些任务,可以将用户级任务调度放到系统级任务调度来完成(不建议这么 做),但是反过来却不行,root用户的任务调度操作可以通过“crontab –uroot –e”来设置,也可以将调度任务直接写入/etc /crontab文件,需要注意的是,如果要定义一个定时重启系统的任务,就必须将任务放到/etc/crontab文件,即使在root用户下创建一个 定时重启系统的任务也是无效的。
新创建的cron job,不会马上执行,至少要过2分钟才执行。如果重启cron则马上执行。
当crontab突然失效时,可以尝试/etc/init.d/crond restart解决问题。或者查看日志看某个job有没有执行/报错tail -f /var/log/cron。
千万别乱运行crontab -r。它从Crontab目录(/var/spool/cron)中删除用户的Crontab文件。删除了该用户的所有crontab都没了。
在crontab中%是有特殊含义的,表示换行的意思。如果要用的话必须进行转义%,如经常用的date ‘+%Y%m%d’在crontab里是不会执行的,应该换成date ‘+%Y%m%d’。
1 | List<类> list; 代表某集合 |
首先在项目pom文件中引入Log4j的依赖,排除掉默认的logging
1 | <!--log4j2--> |
在当前项目的resource目录下增加文件 log4j2.xml

下面介绍配置文件中各个节点,感兴趣的小伙伴也可以去官网查看
有两个属性:status,monitorinterval,两个子节点:Appenders和Loggers表名可以定义多个Appender和Logger
属性(可选),用来定义常量(例如日志打印的模版),之后在其他配置项中通过${变量名}引用
常见的有三种子节点:Console、RollingFile、File
用来定义输出到控制台的Appender两个属性:name、target,一个节点:PatternLayout
文件输出源,用于将日志写入到指定的文件,需要配置输入到哪个位置(例如:D:/logs/info.log)
也是写入到文件,不同的是比File更加强大,可以指定当文件达到一定大小(如20MB)时,另起一个文件继续写入日志,另起一个文件就涉及到新文件的名字命名规则,因此需要配置文件命名规则
这种方式更加实用,因为你不可能一直往一个文件中写,如果一直写,文件过大,打开就会卡死,也不便于查找日志。
Logger节点用来单独指定日志的形式,比如要为指定包下的class指定不同的日志级别等。level:日志输出级别,共有8个级别,按照从低到高为: All < Trace < Debug < Info < Warn < Error < Fatal < OFF
1 | 格式化输出: |
下面就是我在开发中使用的一些配置
1 |
|
全局序列化配置
1 | package com.example.projectdemo.common; |
全局跨域配置
1 | package com.example.projectdemo.common; |
全局统一响应
1 | package com.example.projectdemo.common; |
通过单个枚举实现数据接收数据返回,数据库传递
entity类的字段类型为一个枚举
1 | /** |
1 | // 将枚举包装成json对象,处理响应 |
mapper中通过获取枚举的value
1 | <select id="listByStatus" resultType="com.example.projectdemo.entity.BladeUser"> |
基础注解
1 | package com.example.projectdemo.entity.enume; |
枚举常量
1 | package com.example.projectdemo.entity; |
枚举解析
1 | package com.example.projectdemo.common; |
1 | yum install nginx -y |
常规文件目录
1 | # Nginx配置文件 |
systemctl 系统命令:
1 | # 开机配置 |
Nginx 应用程序命令:
1 | nginx -s reload # 向主进程发送信号,重新加载配置文件,热重启 |
1 |
|
user:指定运行 Nginx 的 woker 子进程的属主和属组,其中组可以不指定。
1 | user USERNAME [GROUP] |
pid:指定运行 Nginx master 主进程的 pid 文件存放路径。
1 | pid /opt/nginx/logs/nginx.pid # master主进程的的pid存放在nginx.pid的文件 |
worker_rlimit_nofile_number:指定 worker 子进程可以打开的最大文件句柄数。
1 | worker_rlimit_nofile 20480; # 可以理解成每个worker子进程的最大连接数量。 |
worker_rlimit_core:指定 worker 子进程异常终止后的 core 文件,用于记录分析问题。
1 | worker_rlimit_core 50M; # 存放大小限制 |
worker_processes_number:指定 Nginx 启动的 worker 子进程数量。
1 | worker_processes 4; # 指定具体子进程数量 |
worker_cpu_affinity:将每个 worker 子进程与我们的 cpu 物理核心绑定。
将每个 worker 子进程与特定 CPU 物理核心绑定,优势在于,避免同一个 worker 子进程在不同的 CPU 核心上切换,缓存失效,降低性能。但其并不能真正的避免进程切换。
worker_priority:指定 worker 子进程的 nice 值,以调整运行 Nginx 的优先级,通常设定为负值,以优先调用 Nginx 。
1 | worker_priority -10; # 120-10=110,110就是最终的优先级 |
Linux 默认进程的优先级值是120,值越小越优先;nice 定范围为 -20 到 +19 。
[备注] 应用的默认优先级值是120加上 nice 值等于它最终的值,这个值越小,优先级越高。
worker_shutdown_timeout:指定 worker 子进程优雅退出时的超时时间。
1 | worker_shutdown_timeout 5s; |
timer_resolution:worker 子进程内部使用的计时器精度,调整时间间隔越大,系统调用越少,有利于性能提升;反之,系统调用越多,性能下降。
1 | timer_resolution 100ms; |
在 Linux 系统中,用户需要获取计时器时需要向操作系统内核发送请求,有请求就必然会有开销,因此这个间隔越大开销就越小。
daemon:指定 Nginx 的运行方式,前台还是后台,前台用于调试,后台用于生产。
1 | daemon off; # 默认是on,后台运行模式 |
6.3 配置文件 events 段核心参数
use:Nginx 使用何种事件驱动模型。
1 | use method; # 不推荐配置它,让nginx自己选择 |
worker_connections:worker 子进程能够处理的最大并发连接数。
1 | worker_connections 1024 # 每个子进程的最大连接数为1024 |
accept_mutex:是否打开负载均衡互斥锁。
1 | accept_mutex on # 默认是off关闭的,这里推荐打开 |
指定虚拟主机域名。
1 | server_name name1 name2 name3 |
域名匹配的四种写法:
匹配优先级:精确匹配 > 左侧通配符匹配 > 右侧通配符匹配 > 正则表达式匹配。
server_name 配置实例:
1 | # 添加如下内容,其中 121.42.11.34 是阿里云服务器IP地址121.42.11.34 www.nginx-test.com121.42.11.34 mail.nginx-test.com121.42.11.34 www.nginx-test.org121.42.11.34 doc.nginx-test.com121.42.11.34 www.nginx-test.cn121.42.11.34 fe.nginx-test.club |
[注意] 这里使用的是虚拟域名进行测试,因此需要配置本地 DNS 解析,如果使用阿里云上购买的域名,则需要在阿里云上设置好域名解析。
1 | # 这里只列举了http端中的sever端配置 |
指定静态资源目录位置,它可以写在 http 、 server 、 location 等配置中。
1 | root path |
[注意] root 会将定义路径与 URI 叠加, alias 则只取定义路径。
它也是指定静态资源目录位置,它只能写在 location 中。
1 | location /image { alias /opt/nginx/static/image/;} |
[注意] 使用 alias 末尾一定要添加 / ,并且它只能位于 location 中。
配置路径。
1 | location [ = | ~ | ~* | ^~ ] uri { ...} |
匹配规则:
匹配优先级:= > ^~ > ~ > ~* > 不带任何字符。
实例:
1 | server { listen 80; server_name www.nginx-test.com; |
1 | location /test { ...} |
停止处理请求,直接返回响应码或重定向到其他 URL ;执行 return 指令后, location 中后续指令将不会被执行。
1 | return code [text];return code URL;return URL; |
rewrite
根据指定正则表达式匹配规则,重写 URL 。
1 | 语法:rewrite 正则表达式 要替换的内容 [flag]; |
flag 可选值的含义:
1 | server{ listen 80; server_name fe.lion.club; # 要在本地hosts文件进行配置 root html; location /search { rewrite ^/(.*) https://www.baidu.com redirect; } |
按照这个配置我们来分析:
1 | 语法:if (condition) {...} |
condition 判断条件:
实例:
1 | server { listen 8080; server_name localhost; root html; |
当访问 localhost:8080/images/ 时,会进入 if 判断里面执行 rewrite 命令。
用户请求以 / 结尾时,列出目录结构,可以用于快速搭建静态资源下载网站。
autoindex.conf 配置信息:
1 | server { listen 80; server_name fe.lion-test.club; |
当访问 fe.lion.com/download/ 时,会把服务器 /opt/source/download/ 路径下的文件展示出来,如下图所示:
Nginx 提供给使用者的变量非常多,但是终究是一个完整的请求过程所产生数据, Nginx 将这些数据以变量的形式提供给使用者。
下面列举些项目中常用的变量:
实例演示 var.conf :
1 | server{ listen 8081; server_name var.lion-test.club; root /usr/share/nginx/html; location / { return 200 "remote_addr: $remote_addrremote_port: $remote_portserver_addr: $server_addrserver_port: $server_portserver_protocol: $server_protocolbinary_remote_addr: $binary_remote_addrconnection: $connectionuri: $urirequest_uri: $request_urischeme: $schemerequest_method: $request_methodrequest_length: $request_lengthargs: $argsarg_pid: $arg_pidis_args: $is_argsquery_string: $query_stringhost: $hosthttp_user_agent: $http_user_agenthttp_referer: $http_refererhttp_via: $http_viarequest_time: $request_timehttps: $httpsrequest_filename: $request_filenamedocument_root: $document_root"; }} |
当我们访问 http://var.lion-test.club:8081/test?pid=121414&cid=sadasd 时,由于 Nginx 中写了 return 方法,因此 chrome 浏览器会默认为我们下载一个文件,下面展示的就是下载的文件内容:
1 | remote_addr: 27.16.220.84remote_port: 56838server_addr: 172.17.0.2server_port: 8081server_protocol: HTTP/1.1binary_remote_addr: 茉connection: 126uri: /test/request_uri: /test/?pid=121414&cid=sadasdscheme: httprequest_method: GETrequest_length: 518args: pid=121414&cid=sadasdarg_pid: 121414is_args: ?query_string: pid=121414&cid=sadasdhost: var.lion-test.clubhttp_user_agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36http_referer: http_via: request_time: 0.000https: request_filename: /usr/share/nginx/html/test/document_root: /usr/share/nginx/html |
Nginx 的配置还有非常多,以上只是罗列了一些常用的配置,在实际项目中还是要学会查阅文档。
代理是在服务器和客户端之间假设的一层服务器,代理将接收客户端的请求并将它转发给服务器,然后将服务端的响应转发给客户端。
不管是正向代理还是反向代理,实现的都是上面的功能。
正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。
正向代理是为我们服务的,即为客户端服务的,客户端可以根据正向代理访问到它本身无法访问到的服务器资源。
正向代理对我们是透明的,对服务端是非透明的,即服务端并不知道自己收到的是来自代理的访问还是来自真实客户端的访问。
反向代理是为服务端服务的,反向代理可以帮助服务器接收来自客户端的请求,帮助服务器做请求转发,负载均衡等。
反向代理对服务端是透明的,对我们是非透明的,即我们并不知道自己访问的是代理服务器,而服务器知道反向代理在为他服务。
反向代理的优势:
那么“动静分离”是什么?负载均衡又是什么?
动静分离是指在 Web 服务器架构中,将静态页面与动态页面或者静态内容接口和动态内容接口分开不同系统访问的架构设计方法,进而提示整个服务的访问性和可维护性。
一般来说,都需要将动态资源和静态资源分开,由于 Nginx 的高并发和静态资源缓存等特性,经常将静态资源部署在 Nginx 上。如果请求的是静态资源,直接到静态资源目录获取资源,如果是动态资源的请求,则利用反向代理的原理,把请求转发给对应后台应用去处理,从而实现动静分离。
使用前后端分离后,可以很大程度提升静态资源的访问速度,即使动态服务不可用,静态资源的访问也不会受到影响。
一般情况下,客户端发送多个请求到服务器,服务器处理请求,其中一部分可能要操作一些资源比如数据库、静态资源等,服务器处理完毕后,再将结果返回给客户端。
这种模式对于早期的系统来说,功能要求不复杂,且并发请求相对较少的情况下还能胜任,成本也低。随着信息数量不断增长,访问量和数据量飞速增长,以及系统业务复杂度持续增加,这种做法已无法满足要求,并发量特别大时,服务器容易崩。
很明显这是由于服务器性能的瓶颈造成的问题,除了堆机器之外,最重要的做法就是负载均衡。
请求爆发式增长的情况下,单个机器性能再强劲也无法满足要求了,这个时候集群的概念产生了,单个服务器解决不了的问题,可以使用多个服务器,然后将请求分发到各个服务器上,将负载分发到不同的服务器,这就是负载均衡,核心是「分摊压力」。Nginx 实现负载均衡,一般来说指的是将请求转发给服务器集群。
举个具体的例子,晚高峰乘坐地铁的时候,入站口经常会有地铁工作人员大喇叭“请走 B 口, B 口人少车空….”,这个工作人员的作用就是负载均衡。
Nginx 实现负载均衡的策略:
在配置反向代理和负载均衡等等功能之前,有两个核心模块是我们必须要掌握的,这两个模块应该说是 Nginx 应用配置中的核心,它们分别是:upstream 、proxy_pass 。
用于定义上游服务器(指的就是后台提供的应用服务器)的相关信息。
1 | 语法:upstream name { ...} |
在 upstream 内可使用的指令:
定义上游服务器地址。
1 | 语法:server address [parameters] |
parameters 可选值:
限制每个 worker 子进程与上游服务器空闲长连接的最大数量。
1 | keepalive connections; |
keepalive_requests
单个长连接可以处理的最多 HTTP 请求个数。
1 | 语法:keepalive_requests number; |
keepalive_timeout
空闲长连接的最长保持时间。
1 | 语法:keepalive_timeout time; |
1 | 语法:keepalive_timeout time; |
用于配置代理服务器。
1 | 语法:proxy_pass URL; |
URL 参数原则:
接下来让我们来看看两种常见的 URL 用法:
这两种用法的区别就是带 / 和不带 / ,在配置代理时它们的区别可大了:
不带 / 的用法:
1 | location /bbs/{ proxy_pass http://127.0.0.1:8080;} |
分析:
带 / 的用法:
1 | location /bbs/{ proxy_pass http://127.0.0.1:8080/;} |
分析:
并没有拼接上 /bbs ,这点和 root 与 alias 之间的区别是保持一致的。
这里为了演示更加接近实际,作者准备了两台云服务器,它们的公网 IP 分别是:121.42.11.34 与 121.5.180.193 。
我们把 121.42.11.34 服务器作为上游服务器,做如下配置:
1 | # /etc/nginx/conf.d/proxy.confserver{ listen 8080; server_name localhost; location /proxy/ { root /usr/share/nginx/html/proxy; index index.html; }} |
配置完成后重启 Nginx 服务器 nginx -s reload 。
把 121.5.180.193 服务器作为代理服务器,做如下配置:
1 | # /etc/nginx/conf.d/proxy.confupstream back_end { server 121.42.11.34:8080 weight=2 max_conns=1000 fail_timeout=10s max_fails=3; keepalive 32; keepalive_requests 80; keepalive_timeout 20s;} |
本地机器要访问 proxy.lion.club 域名,因此需要配置本地 hosts ,通过命令:vim /etc/hosts 进入配置文件,添加如下内容:
1 | 121.5.180.193 proxy.lion.club |
分析:
配置负载均衡主要是要使用 upstream 指令。
我们把 121.42.11.34 服务器作为上游服务器,做如下配置( /etc/nginx/conf.d/balance.conf ):
1 | server{ listen 8020; location / { return 200 'return 8020 \n'; }} |
配置完成后:
把 121.5.180.193 服务器作为代理服务器,做如下配置( /etc/nginx/conf.d/balance.conf ):
1 | upstream demo_server { server 121.42.11.34:8020; server 121.42.11.34:8030; server 121.42.11.34:8040;} |
配置完成后重启 Nginx 服务器。并且在需要访问的客户端配置好 IP 和域名的映射关系。
1 | # /etc/hosts121.5.180.193 balance.lion.club |
在客户端机器执行 curl http://balance.lion.club/balance/ 命令:
不难看出,负载均衡的配置已经生效了,每次给我们分发的上游服务器都不一样。就是通过简单的轮询策略进行上游服务器分发。
接下来,我们再来了解下 Nginx 的其它分发策略。
通过制定关键字作为 hash key ,基于 hash 算法映射到特定的上游服务器中。关键字可以包含有变量、字符串。
1 | upstream demo_server { hash $request_uri; server 121.42.11.34:8020; server 121.42.11.34:8030; server 121.42.11.34:8040;} |
hash $request_uri 表示使用 request_uri 变量作为 hash 的 key 值,只要访问的 URI 保持不变,就会一直分发给同一台服务器。
根据客户端的请求 IP 进行判断,只要 IP 地址不变就永远分配到同一台主机。它可以有效解决后台服务器 session 保持的问题。
1 | upstream demo_server { ip_hash; server 121.42.11.34:8020; server 121.42.11.34:8030; server 121.42.11.34:8040;} |
各个 worker 子进程通过读取共享内存的数据,来获取后端服务器的信息。来挑选一台当前已建立连接数最少的服务器进行分配请求。
1 | 语法:least_conn; |
示例:
1 | upstream demo_server { zone test 10M; # zone可以设置共享内存空间的名字和大小 least_conn; server 121.42.11.34:8020; server 121.42.11.34:8030; server 121.42.11.34:8040;} |
最后你会发现,负载均衡的配置其实一点都不复杂。
缓存可以非常有效的提升性能,因此不论是客户端(浏览器),还是代理服务器( Nginx ),乃至上游服务器都多少会涉及到缓存。可见缓存在每个环节都是非常重要的。下面让我们来学习 Nginx 中如何设置缓存策略。
存储一些之前被访问过、而且可能将要被再次访问的资源,使用户可以直接从代理服务器获得,从而减少上游服务器的压力,加快整个访问速度。
1 | 语法:proxy_cache zone | off ; # zone 是共享内存的名称 |
设置缓存文件的存放路径。
1 |
|
参数含义:
设置缓存文件的 key 。
1 | 语法:proxy_cache_key |
配置什么状态码可以被缓存,以及缓存时长。
1 | 语法:proxy_cache_valid [code...] time; |
定义相应保存到缓存的条件,如果字符串参数的至少一个值不为空且不等于“ 0”,则将不保存该响应到缓存。
1 | 语法:proxy_no_cache string; |
定义条件,在该条件下将不会从缓存中获取响应。
1 | 语法:proxy_cache_bypass string; |
它存储了缓存是否命中的信息,会设置在响应头信息中,在调试中非常有用。
1 | MISS: 未命中缓存 |
我们把 121.42.11.34 服务器作为上游服务器,做如下配置( /etc/nginx/conf.d/cache.conf ):
1 |
|
把 121.5.180.193 服务器作为代理服务器,做如下配置( /etc/nginx/conf.d/cache.conf ):
1 | proxy_cache_path /etc/nginx/cache_temp levels=2:2 keys_zone=cache_zone:30m max_size=2g inactive=60m use_temp_path=off; |
缓存就是这样配置,我们可以在 /etc/nginx/cache_temp 路径下找到相应的缓存文件。
对于一些实时性要求非常高的页面或数据来说,就不应该去设置缓存,下面来看看如何配置不缓存的内容。
1 | ... |
在学习如何配置 HTTPS 之前,我们先来简单回顾下 HTTPS 的工作流程是怎么样的?它是如何进行加密保证安全的?
这就是 HTTPS 的基本运作原理,使用对称加密和非对称机密配合使用,保证传输内容的安全性。
下载证书的压缩文件,里面有个 Nginx 文件夹,把 xxx.crt 和 xxx.key 文件拷贝到服务器目录,再进行如下配置:
1 | server { |
如此配置后就能正常访问 HTTPS 版的网站了。
先简单回顾下跨域究竟是怎么回事。
同源策略限制了从同一个源加载的文档或脚本如何与来自另一个源的资源进行交互。这是一个用于隔离潜在恶意文件的重要安全机制。通常不允许不同源间的读操作。
如果两个页面的协议,端口(如果有指定)和域名都相同,则两个页面具有相同的源。
下面给出了与 URL http://store.company.com/dir/page.html 的源进行对比的示例:
1 | http://store.company.com/dir2/other.html 同源 |
不同源会有如下限制:
例如:
现在我在 fe.server.com 对 dev.server.com 发起请求一定会出现跨域。
现在我们只需要启动一个 Nginx 服务器,将 server_name 设置为 fe.server.com 然后设置相应的 location 以拦截前端需要跨域的请求,最后将请求代理回 dev.server.com 。如下面的配置:
1 | server { |
这样可以完美绕过浏览器的同源策略:fe.server.com 访问 Nginx 的 fe.server.com 属于同源访问,而 Nginx 对服务端转发的请求不会触发浏览器的同源策略。
GZIP 是规定的三种标准 HTTP 压缩格式之一。目前绝大多数的网站都在使用 GZIP 传输 HTML 、CSS 、 JavaScript 等资源文件。
对于文本文件, GZiP 的效果非常明显,开启后传输所需流量大约会降至 1/4~1/3 。
并不是每个浏览器都支持 gzip 的,如何知道客户端是否支持 gzip 呢,请求头中的 Accept-Encoding 来标识对压缩的支持。
启用 gzip 同时需要客户端和服务端的支持,如果客户端支持 gzip 的解析,那么只要服务端能够返回 gzip 的文件就可以启用 gzip 了,我们可以通过 Nginx 的配置来让服务端支持 gzip 。下面的 respone 中 content-encoding:gzip ,指服务端开启了 gzip 的压缩方式。
在 /etc/nginx/conf.d/ 文件夹中新建配置文件 gzip.conf :
1 | # # 默认off,是否开启gzip |
其实也可以通过前端构建工具例如 webpack 、rollup 等在打生产包时就做好 Gzip 压缩,然后放到 Nginx 服务器中,这样可以减少服务器的开销,加快访问速度。
关于 Nginx 的实际应用就学习到这里,相信通过掌握了 Nginx 核心配置以及实战配置,之后再遇到什么需求,我们也能轻松应对。接下来,让我们再深入一点学习下 Nginx 的架构。
多进程结构 Nginx 的进程模型图:
多进程中的 Nginx 进程架构如下图所示,会有一个父进程( Master Process ),它会有很多子进程( Child Processes )。
Master Process 用来管理子进程的,其本身并不真正处理用户请求。
子进程间是通过共享内存的方式进行通信的。
reload 重载配置文件的流程:
Nginx 的内部结构是由核心部分和一系列的功能模块所组成。这样划分是为了使得每个模块的功能相对简单,便于开发,同时也便于对系统进行功能扩展。Nginx 的模块是互相独立的,低耦合高内聚。
1 | docker pull mcr.microsoft.com/mssql/server:2019-latest |
1 | mkdir -p /home/pan/docker/sqlserver/data |
1 | docker run \ |
1 | /opt/mssql-tools/bin/sqlcmd -S localhost -U SA -P "Ictsoft@123" |
4.1 查看版本
1 | Select @@version |
4.2 创建数据库
1 | CREATE DATABASE TestDB; |
4.3 插入数据
1 | USE TestDB; |
目录结构
1 | . |
conf/my.cnf
1 | [client] |
docker构建命令
1 | docker run \ |
如果mysqld: Can't read dir of '/etc/mysql/conf.d/' (OS errno 2 - No such file or directory)
将
-v /home/vagrant/docker/mysql/conf:/etc/mysql \
改成
-v /home/vagrant/docker/mysql/conf:/etc/mysql/conf.d \
不加 -v /data/mysql/mysql-files:/var/lib/mysql-files \ 会报错误
1 | mysqld: Error on realpath() on '/var/lib/mysql-files' (Error 2 - No such file or directory |
1 | # 修改用户对应的密码 |
1 | CREATE USER 'root'@'%' IDENTIFIED BY '用户密码'; |
1 | grant all privileges on *.* to 'root'@'%' with grant option; |
1 | [mysqld] |
发现docker容器无法启动,报错如下:
1 | Failed to access directory for --secure-file-priv. Please make sure |
windows下:修改my.ini 在[mysqld]内加入secure_file_priv=/var/lib/mysql
linux下:修改my.cnf 在[mysqld]内加入secure_file_priv=/var/lib/mysql