一篇文章教你搞懂日志采集利器Filebeat

运维 系统运维
本文使用的Filebeat是7.7.0的版本,文章将从如下几个方面说明。一起来看一下吧。

 本文使用的Filebeat是7.7.0的版本,文章将从如下几个方面说明:

    Filebeat是什么,可以用来干嘛

    Filebeat的原理是怎样的,怎么构成的

    Filebeat应该怎么玩

Filebeat是什么

Filebeat和Beats的关系

首先Filebeat是Beats中的一员。

Beats在是一个轻量级日志采集器,其实Beats家族有6个成员,早期的ELK架构中使用Logstash收集、解析日志,但是Logstash对内存、CPU、io等资源消耗比较高。相比Logstash,Beats所占系统的CPU和内存几乎可以忽略不计。

目前Beats包含六种工具:

  •  Packetbeat:网络数据(收集网络流量数据)
  •  Metricbeat:指标(收集系统、进程和文件系统级别的CPU和内存使用情况等数据)
  •  Filebeat:日志文件(收集文件数据)
  •  Winlogbeat:Windows事件日志(收集Windows事件日志数据)
  •  Auditbeat:审计数据(收集审计日志)
  •  Heartbeat:运行时间监控(收集系统运行时的数据)

Filebeat是什么

Filebeat是用于转发和集中日志数据的轻量级传送工具。Filebeat监视您指定的日志文件或位置,收集日志事件,并将它们转发到Elasticsearch或 Logstash进行索引。

Filebeat的工作方式如下:启动Filebeat时,它将启动一个或多个输入,这些输入将在为日志数据指定的位置中查找。对于Filebeat所找到的每个日志,Filebeat都会启动收集器。每个收集器都读取单个日志以获取新内容,并将新日志数据发送到libbeat,libbeat将聚集事件,并将聚集的数据发送到为Filebeat配置的输出。

工作的流程图如下:

Filebeat和Logstash的关系

因为Logstash是JVM跑的,资源消耗比较大,所以后来作者又用Golang写了一个功能较少但是资源消耗也小的轻量级的logstash-forwarder。不过作者只是一个人,加入http://elastic.co公司以后,因为ES公司本身还收购了另一个开源项目Packetbeat,而这个项目专门就是用Golang的,有整个团队,所以ES公司干脆把logstash-forwarder的开发工作也合并到同一个Golang团队来搞,于是新的项目就叫Filebeat了。

Filebeat原理是什么

Filebeat的构成

Filebeat结构:由两个组件构成,分别是inputs(输入)和harvesters(收集器),这些组件一起工作来跟踪文件并将事件数据发送到您指定的输出,harvester负责读取单个文件的内容。harvester逐行读取每个文件,并将内容发送到输出。为每个文件启动一个harvester。harvester负责打开和关闭文件,这意味着文件描述符在harvester运行时保持打开状态。如果在收集文件时删除或重命名文件,Filebeat将继续读取该文件。这样做的副作用是,磁盘上的空间一直保留到harvester关闭。默认情况下,Filebeat保持文件打开,直到达到close_inactive。

关闭harvester可以会产生的结果:

  •  文件处理程序关闭,如果harvester仍在读取文件时被删除,则释放底层资源。
  •  只有在scan_frequency结束之后,才会再次启动文件的收集。
  •  如果该文件在harvester关闭时被移动或删除,该文件的收集将不会继续。

一个input负责管理harvesters和寻找所有来源读取。如果input类型是log,则input将查找驱动器上与定义的路径匹配的所有文件,并为每个文件启动一个harvester。每个input在它自己的Go进程中运行,Filebeat当前支持多种输入类型。每个输入类型可以定义多次。日志输入检查每个文件,以查看是否需要启动harvester、是否已经在运行harvester或是否可以忽略该文件。

Filebeat如何保存文件的状态

Filebeat保留每个文件的状态,并经常将状态刷新到磁盘中的注册表文件中。该状态用于记住harvester读取的最后一个偏移量,并确保发送所有日志行。如果无法访问输出(如Elasticsearch或Logstash),Filebeat将跟踪最后发送的行,并在输出再次可用时继续读取文件。当Filebeat运行时,每个输入的状态信息也保存在内存中。当Filebeat重新启动时,来自注册表文件的数据用于重建状态,Filebeat在最后一个已知位置继续每个harvester。对于每个输入,Filebeat都会保留它找到的每个文件的状态。由于文件可以重命名或移动,文件名和路径不足以标识文件。对于每个文件,Filebeat存储唯一的标识符,以检测文件是否以前被捕获。

Filebeat何如保证至少一次数据消费

Filebeat保证事件将至少传递到配置的输出一次,并且不会丢失数据。是因为它将每个事件的传递状态存储在注册表文件中。在已定义的输出被阻止且未确认所有事件的情况下,Filebeat将继续尝试发送事件,直到输出确认已接收到事件为止。如果Filebeat在发送事件的过程中关闭,它不会等待输出确认所有事件后再关闭。当Filebeat重新启动时,将再次将Filebeat关闭前未确认的所有事件发送到输出。这样可以确保每个事件至少发送一次,但最终可能会有重复的事件发送到输出。通过设置shutdown_timeout选项,可以将Filebeat配置为在关机前等待特定时间。

Filebeat怎么玩

压缩包方式安装

本文采用压缩包的方式安装,Linux版本,filebeat-7.7.0-linux-x86_64.tar.gz。 

  1. curl-L-Ohttps://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.7.0-linux-x86_64.tar.gz  
  2. tar -xzvf filebeat-7.7.0-linux-x86_64.tar.gz 

配置示例文件:filebeat.reference.yml(包含所有未过时的配置项)

配置文件:filebeat.yml

基本命令

详情见官网:https://www.elastic.co/guide/en/beats/filebeat/current/command-line-options.html 

  1. export   #导出  
  2. run      #执行(默认执行)  
  3. test     #测试配置  
  4. keystore #秘钥存储  
  5. modules  #模块配置管理  
  6. setup    #设置初始环境 

例如:./filebeat test config #用来测试配置文件是否正确

输入输出

支持的输入组件:

Multilinemessages,Azureeventhub,CloudFoundry,Container,Docker,GooglePub/Sub,HTTPJSON,Kafka,Log,MQTT,NetFlow,Office 365 Management Activity API,Redis,s3,Stdin,Syslog,TCP,UDP(最常用的就是Log)

支持的输出组件:

Elasticsearch,Logstash,Kafka,Redis,File,Console,ElasticCloud,Changetheoutputcodec(最常用的就是Elasticsearch,Logstash)

keystore的使用

keystore主要是防止敏感信息被泄露,比如密码等,像ES的密码,这里可以生成一个key为ES_PWD,值为ES的password的一个对应关系,在使用ES的密码的时候就可以使用${ES_PWD}使用。

  •  创建一个存储密码的keystore:filebeat keystore create
  •  然后往其中添加键值对,例如:filebeatk eystore add ES_PWD
  •  使用覆盖原来键的值:filebeat key store add ES_PWD–force
  •  删除键值对:filebeat key store remove ES_PWD
  •  查看已有的键值对:filebeat key store list

例如:后期就可以通过${ES_PWD}使用其值,例如:

  1. output.elasticsearch.password:"${ES_PWD}" 

filebeat.yml配置(Log输入类型为例)

详情见官网:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-input-log.html 

  1. type: log #input类型为log  
  2. enable: true #表示是该log类型配置生效  
  3. paths:     #指定要监控的日志,目前按照Go语言的glob函数处理。没有对配置目录做递归处理,比如配置的如果是:  
  4. - /var/log/* /*.log  #则只会去/var/log目录的所有子目录中寻找以".log"结尾的文件,而不会寻找/var/log目录下以".log"结尾的文件。  
  5. recursive_glob.enabled: #启用全局递归模式,例如/foo/**包括/foo, /foo/*, /foo/*/*  
  6. encoding:#指定被监控的文件的编码类型,使用plain和utf-8都是可以处理中文日志的  
  7. exclude_lines: ['^DBG'] #不包含匹配正则的行  
  8. include_lines: ['^ERR', '^WARN']  #包含匹配正则的行  
  9. harvester_buffer_size: 16384 #每个harvester在获取文件时使用的缓冲区的字节大小  
  10. max_bytes: 10485760 #单个日志消息可以拥有的最大字节数。max_bytes之后的所有字节都被丢弃而不发送。默认值为10MB (10485760)  
  11. exclude_files: ['\.gz$']  #用于匹配希望Filebeat忽略的文件的正则表达式列表  
  12. ingore_older: 0 #默认为0,表示禁用,可以配置2h,2m等,注意ignore_older必须大于close_inactive的值.表示忽略超过设置值未更新的  
  13. 文件或者文件从来没有被harvester收集  
  14. close_* #close_ *配置选项用于在特定标准或时间之后关闭harvester。 关闭harvester意味着关闭文件处理程序。 如果在harvester关闭  
  15. 后文件被更新,则在scan_frequency过后,文件将被重新拾取。 但是,如果在harvester关闭时移动或删除文件,Filebeat将无法再次接收文件 
  16. ,并且harvester未读取的任何数据都将丢失。  
  17. close_inactive  #启动选项时,如果在制定时间没有被读取,将关闭文件句柄  
  18. 读取的最后一条日志定义为下一次读取的起始点,而不是基于文件的修改时间  
  19. 如果关闭的文件发生变化,一个新的harverster将在scan_frequency运行后被启动  
  20. 建议至少设置一个大于读取日志频率的值,配置多个prospector来实现针对不同更新速度的日志文件  
  21. 使用内部时间戳机制,来反映记录日志的读取,每次读取到最后一行日志时开始倒计时使用2h 5m 来表示  
  22. close_rename #当选项启动,如果文件被重命名和移动,filebeat关闭文件的处理读取  
  23. close_removed #当选项启动,文件被删除时,filebeat关闭文件的处理读取这个选项启动后,必须启动clean_removed  
  24. close_eof #适合只写一次日志的文件,然后filebeat关闭文件的处理读取  
  25. close_timeout #当选项启动时,filebeat会给每个harvester设置预定义时间,不管这个文件是否被读取,达到设定时间后,将被关闭  
  26. close_timeout 不能等于ignore_older,会导致文件更新时,不会被读取如果output一直没有输出日志事件,这个timeout是不会被启动的,  
  27. 至少要要有一个事件发送,然后haverter将被关闭  
  28. 设置0 表示不启动  
  29. clean_inactived #从注册表文件中删除先前收获的文件的状态  
  30. 设置必须大于ignore_older+scan_frequency,以确保在文件仍在收集时没有删除任何状态  
  31. 配置选项有助于减小注册表文件的大小,特别是如果每天都生成大量的新文件  
  32. 此配置选项也可用于防止在Linux上重用inode的Filebeat问题  
  33. clean_removed #启动选项后,如果文件在磁盘上找不到,将从注册表中清除filebeat  
  34. 如果关闭close removed 必须关闭clean removed 
  35. scan_frequency #prospector检查指定用于收获的路径中的新文件的频率,默认10s  
  36. tail_files:#如果设置为true,Filebeat从文件尾开始监控文件新增内容,把新增的每一行文件作为一个事件依次发送,  
  37. 而不是从文件开始处重新发送所有内容。  
  38. symlinks:#符号链接选项允许Filebeat除常规文件外,可以收集符号链接。收集符号链接时,即使报告了符号链接的路径,  
  39. Filebeat也会打开并读取原始文件。 
  40. backoff: #backoff选项指定Filebeat如何积极地抓取新文件进行更新。默认1s,backoff选项定义Filebeat在达到EOF之后  
  41. 再次检查文件之间等待的时间。  
  42. max_backoff: #在达到EOF之后再次检查文件之前Filebeat等待的最长时间  
  43. backoff_factor: #指定backoff尝试等待时间几次,默认是2  
  44. harvester_limit:#harvester_limit选项限制一个prospector并行启动的harvester数量,直接影响文件打开数  
  45. tags #列表中添加标签,用过过滤,例如:tags: ["json"]  
  46. fields #可选字段,选择额外的字段进行输出可以是标量值,元组,字典等嵌套类型  
  47. 默认在sub-dictionary位置  
  48. filebeat.inputs:  
  49. fields:  
  50. app_id: query_engine_12  
  51. fields_under_root #如果值为ture,那么fields存储在输出文档的顶级位置  
  52. multiline.pattern #必须匹配的regexp模式  
  53. multiline.negate #定义上面的模式匹配条件的动作是 否定的,默认是false  
  54. 假如模式匹配条件'^b',默认是false模式,表示讲按照模式匹配进行匹配 将不是以b开头的日志行进行合并  
  55. 如果是true,表示将不以b开头的日志行进行合并  
  56. multiline.match # 指定Filebeat如何将匹配行组合成事件,在之前或者之后,取决于上面所指定的negate  
  57. multiline.max_lines #可以组合成一个事件的最大行数,超过将丢弃,默认500  
  58. multiline.timeout #定义超时时间,如果开始一个新的事件在超时时间内没有发现匹配,也将发送日志,默认是5s  
  59. max_procs #设置可以同时执行的最大CPU数。默认值为系统中可用的逻辑CPU的数量。  
  60. name #为该filebeat指定名字,默认为主机的hostname 

实例一:Logstash作为输出

filebeat.yml配置: 

  1. #=========================== Filebeat inputs =============================  
  2. filebeat.inputs:  
  3. # Each - is an input. Most options can be set at the input level, so  
  4. # you can use different inputs for various configurations.  
  5. # Below are the input specific configurations.  
  6. - type: log  
  7.   # Change to true to enable this input configuration.  
  8.   enabled: true  
  9.   # Paths that should be crawled and fetched. Glob based paths.  
  10.   paths:  #配置多个日志路径  
  11.     -/var/logs/es_aaa_index_search_slowlog.log  
  12.     -/var/logs/es_bbb_index_search_slowlog.log  
  13.     -/var/logs/es_ccc_index_search_slowlog.log  
  14.     -/var/logs/es_ddd_index_search_slowlog.log  
  15.     #- c:\programdata\elasticsearch\logs\*  
  16.   # Exclude lines. A list of regular expressions to match. It drops the lines that are  
  17.   # matching any regular expression from the list.  
  18.   #exclude_lines: ['^DBG']  
  19.   # Include lines. A list of regular expressions to match. It exports the lines that are  
  20.   # matching any regular expression from the list.  
  21.   #include_lines: ['^ERR', '^WARN']  
  22.   # Exclude files. A list of regular expressions to match. Filebeat drops the files that  
  23.   # are matching any regular expression from the list. By default, no files are dropped.  
  24.   #exclude_files: ['.gz$']  
  25.   # Optional additional fields. These fields can be freely picked  
  26.   # to add additional information to the crawled log files for filtering  
  27.   #fields:  
  28.   #  level: debug  
  29.   #  review: 1  
  30.   ### Multiline options  
  31.   # Multiline can be used for log messages spanning multiple lines. This is common  
  32.   # for Java Stack Traces or C-Line Continuation  
  33.   # The regexp Pattern that has to be matched. The example pattern matches all lines starting with [  
  34.   #multiline.pattern: ^\[  
  35.   # Defines if the pattern set under pattern should be negated or not. Default is false.  
  36.   #multiline.negate: false  
  37.   # Match can be set to "after" or "before". It is used to define if lines should be append to a pattern  
  38.   # that was (not) matched before or after or as long as a pattern is not matched based on negate.  
  39.   # Note: After is the equivalent to previous and before is the equivalent to to next in Logstash  
  40.   #multiline.match: after  
  41. #================================ Outputs =====================================  
  42. #----------------------------- Logstash output --------------------------------  
  43. output.logstash:  
  44.   # The Logstash hosts #配多个logstash使用负载均衡机制  
  45.   hosts: ["192.168.110.130:5044","192.168.110.131:5044","192.168.110.132:5044","192.168.110.133:5044"]    
  46.   loadbalance: true  #使用了负载均衡  
  47.   # Optional SSL. By default is off.  
  48.   # List of root certificates for HTTPS server verifications  
  49.   #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]  
  50.   # Certificate for SSL client authentication  
  51.   #ssl.certificate: "/etc/pki/client/cert.pem"   
  52.   # Client Certificate Key  
  53.   #ssl.key: "/etc/pki/client/cert.key" 

./filebeat -e #启动filebeat

Logstash的配置: 

  1. input {  
  2.   beats {  
  3.     port => 5044    
  4.   }  
  5.  
  6. output {  
  7.   elasticsearch {  
  8.     hosts => ["http://192.168.110.130:9200"] #这里可以配置多个  
  9.     index => "query-%{yyyyMMdd}"   
  10.   }  

实例二:Elasticsearch作为输出

filebeat.yml的配置: 

  1. ###################### Filebeat Configuration Example #########################  
  2. # This file is an example configuration file highlighting only the most common  
  3. # options. The filebeat.reference.yml file from the same directory contains all the  
  4. # supported options with more comments. You can use it as a reference. 
  5.  
  6. # You can find the full configuration reference here:  
  7. # https://www.elastic.co/guide/en/beats/filebeat/index.html  
  8. # For more available modules and options, please see the filebeat.reference.yml sample  
  9. # configuration file.  
  10. #=========================== Filebeat inputs =============================  
  11. filebeat.inputs:  
  12. # Each - is an input. Most options can be set at the input level, so  
  13. # you can use different inputs for various configurations.  
  14. # Below are the input specific configurations.  
  15. - type: log  
  16.   # Change to true to enable this input configuration.  
  17.   enabled: true  
  18.   # Paths that should be crawled and fetched. Glob based paths.  
  19.   paths:  
  20.     -/var/logs/es_aaa_index_search_slowlog.log  
  21.     -/var/logs/es_bbb_index_search_slowlog.log  
  22.     -/var/logs/es_ccc_index_search_slowlog.log  
  23.     -/var/logs/es_dddd_index_search_slowlog.log  
  24.     #- c:\programdata\elasticsearch\logs\*  
  25.   # Exclude lines. A list of regular expressions to match. It drops the lines that are  
  26.   # matching any regular expression from the list.  
  27.   #exclude_lines: ['^DBG']  
  28.   # Include lines. A list of regular expressions to match. It exports the lines that are  
  29.   # matching any regular expression from the list.  
  30.   #include_lines: ['^ERR', '^WARN']  
  31.   # Exclude files. A list of regular expressions to match. Filebeat drops the files that  
  32.   # are matching any regular expression from the list. By default, no files are dropped.  
  33.   #exclude_files: ['.gz$']  
  34.   # Optional additional fields. These fields can be freely picked  
  35.   # to add additional information to the crawled log files for filtering 
  36.   #fields:  
  37.   #  level: debug  
  38.   #  review: 1   
  39.   ### Multiline options   
  40.   # Multiline can be used for log messages spanning multiple lines. This is common 
  41.   # for Java Stack Traces or C-Line Continuation  
  42.   # The regexp Pattern that has to be matched. The example pattern matches all lines starting with [  
  43.   #multiline.pattern: ^\[  
  44.   # Defines if the pattern set under pattern should be negated or not. Default is false.  
  45.   #multiline.negate: false  
  46.   # Match can be set to "after" or "before". It is used to define if lines should be append to a pattern  
  47.   # that was (not) matched before or after or as long as a pattern is not matched based on negate.  
  48.   # Note: After is the equivalent to previous and before is the equivalent to to next in Logstash 
  49.   #multiline.match: after   
  50. #============================= Filebeat modules =============================== 
  51. filebeat.config.modules:  
  52.   # Glob pattern for configuration loading 
  53.   path: ${path.config}/modules.d/*.yml  
  54.   # Set to true to enable config reloading  
  55.   reload.enabled: false 
  56.   # Period on which files under path should be checked for changes  
  57.   #reload.period: 10s  
  58. #==================== Elasticsearch template setting ==========================  
  59. #================================ General =====================================  
  60. # The name of the shipper that publishes the network data. It can be used to group  
  61. # all the transactions sent by a single shipper in the web interface.  
  62. name: filebeat222  
  63. # The tags of the shipper are included in their own field with each  
  64. # transaction published. 
  65. #tags: ["service-X", "web-tier"]  
  66. # Optional fields that you can specify to add additional information to the  
  67. # output.  
  68. #fields:  
  69. #  env: staging  
  70. #cloud.auth:  
  71. #================================ Outputs =====================================  
  72. #-------------------------- Elasticsearch output ------------------------------  
  73. output.elasticsearch:  
  74.   # Array of hosts to connect to.  
  75.   hosts: ["192.168.110.130:9200","92.168.110.131:9200"]  
  76.   # Protocol - either `http` (default) or `https`.  
  77.   #protocol: "https"  
  78.   # Authentication credentials - either API key or username/password.  
  79.   #api_key: "id:api_key"  
  80.   username: "elastic"  
  81.   password: "${ES_PWD}"   #通过keystore设置密码 

./filebeat -e #启动Filebeat

查看Elasticsearch集群,有一个默认的索引名字filebeat-%{[beat.version]}-%{+yyyy.MM.dd}

Filebeat模块

官网:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-modules.html

这里我使用Elasticsearch模式来解析ES的慢日志查询,操作步骤如下,其他的模块操作也一样:

前提:安装好Elasticsearch和Kibana两个软件,然后使用Filebeat。

具体的操作官网有:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-modules-quickstart.html

第一步,配置filebeat.yml文件: 

  1. #============================== Kibana =====================================  
  2. # Starting with Beats version 6.0.0, the dashboards are loaded via the Kibana API.  
  3. # This requires a Kibana endpoint configuration.  
  4. setup.kibana:  
  5.   # Kibana Host  
  6.   # Scheme and port can be left out and will be set to the default (http and 5601)  
  7.   # In case you specify and additional path, the scheme is required: http://localhost:5601/path  
  8.   # IPv6 addresses should always be defined as: https://[2001:db8::1]:5601  
  9.   host: "192.168.110.130:5601"  #指定kibana  
  10.   username: "elastic"   #用户  
  11.   password: "${ES_PWD}"  #密码,这里使用了keystore,防止明文密码  
  12.   # Kibana Space ID  
  13.   # ID of the Kibana Space into which the dashboards should be loaded. By default,  
  14.   # the Default Space will be used.  
  15.   #space.id:  
  16. #================================ Outputs =====================================  
  17. # Configure what output to use when sending the data collected by the beat.  
  18. #-------------------------- Elasticsearch output ------------------------------ 
  19. output.elasticsearch:  
  20.   # Array of hosts to connect to.  
  21.   hosts: ["192.168.110.130:9200","192.168.110.131:9200"]  
  22.   # Protocol - either `http` (default) or `https`.  
  23.   #protocol: "https" 
  24.   # Authentication credentials - either API key or username/password.  
  25.   #api_key: "id:api_key"  
  26.   username: "elastic"  #es的用户  
  27.   password: "${ES_PWD}" # es的密码  
  28.   #这里不能指定index,因为我没有配置模板,会自动生成一个名为filebeat-%{[beat.version]}-%{+yyyy.MM.dd}的索引 

第二步,配置Elasticsearch的慢日志路径:

  1. cd filebeat-7.7.0-linux-x86_64/modules.d 

vim elasticsearch.yml:

第三步,生效ES模块: 

  1. ./filebeat modules elasticsearch 

查看生效的模块: 

  1. ./filebeat modules list 

第四步,初始化环境:

  1. ./filebeat setup -e 

第五步,启动Filebeat: 

  1. ./filebeat -e 

查看Elasticsearch集群,如下图所示,把慢日志查询的日志都自动解析出来了:

到这里,Elasticsearch这个module就实验成功了。 

 

责任编辑:庞桂玉 来源: 运维派
相关推荐

2017-09-05 08:52:37

Git程序员命令

2020-06-03 11:06:26

DNS域名缓存

2022-10-08 15:07:06

ChatOps运维

2017-07-20 16:55:56

Android事件响应View源码分析

2021-08-02 10:01:09

Iterator接口Java项目开发

2021-05-18 09:00:28

Pythonclass

2020-03-31 08:37:31

递归单链表反转

2019-07-23 08:55:46

Base64编码底层

2020-07-28 17:27:53

Nginx 负载均衡模块

2023-11-01 15:52:35

2019-07-15 07:58:10

前端开发技术

2021-08-30 10:01:01

Map接口HashMap

2021-05-27 09:01:14

Python文件读写Python基础

2021-08-17 09:55:05

JavaScript MicrotaskPromise

2020-07-08 13:38:10

NginxApache服务器

2021-05-21 09:01:56

Python继承多态

2019-08-13 09:00:01

内网外网通信

2020-06-23 16:28:25

Nginx负载均衡服务器

2020-10-09 08:15:11

JsBridge

2019-04-22 10:08:52

NginxApacheWEB服务器
点赞
收藏

51CTO技术栈公众号