bl双性强迫侵犯h_国产在线观看人成激情视频_蜜芽188_被诱拐的少孩全彩啪啪漫画

開源日志分析系統ELK平臺搭建部署

開源日志分析系統ELK平臺搭建部署

創新互聯是一家集網站建設,鐘山企業網站建設,鐘山品牌網站建設,網站定制,鐘山網站建設報價,網絡營銷,網絡優化,鐘山網站推廣為一體的創新建站企業,幫助傳統企業提升企業形象加強企業競爭力。可充分滿足這一群體相比中小企業更為豐富、高端、多元的互聯網需求。同時我們時刻保持專業、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們為更多的企業打造出實用型網站。

 

 

一、前言

日志主要包括系統日志、應用程序日志和安全日志。系統運維和開發人員可以通過日志了解服務器軟硬件信息、檢查配置過程中的錯誤及錯誤發生的原因。經常分析日志可以了解服務器的負荷,性能安全性,從而及時采取措施糾正錯誤。

通常,日志被分散的儲存不同的設備上。如果你管理數十上百臺服務器,你還在使用依次登錄每臺機器的傳統方法查閱日志。這樣是不是感覺很繁瑣和效率低下。當務之急我們使用集中化的日志管理,例如:開源的syslog,將所有服務器上的日志收集匯總。

集中化管理日志后,日志的統計和檢索又成為一件比較麻煩的事情,一般我們使用grep、awk和wc等Linux命令能實現檢索和統計,但是對于要求更高的查詢、排序和統計等要求和龐大的機器數量依然使用這樣的方法難免有點力不從心。

開源實時日志分析ELK平臺能夠完美的解決我們上述的問題,ELK由ElasticSearch、Logstash和Kiabana三個開源工具組成。官方網站:https://www.elastic.co/products

 

Elasticsearch是個開源分布式搜索引擎,它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據源,自動搜索負載等。

Logstash是一個完全開源的工具,他可以對你的日志進行收集、分析,并將其存儲供以后使用(如,搜索)。

kibana 也是一個開源和免費的工具,他Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助您匯總、分析和搜索重要數據日志。

二、準備工作

準備3臺機器:

192.168.2.61(安裝Elasticsearch,kibana,Logstash)

192.168.2.83(收集umember日志)

192.168.2.93(收集Nginx日志,安裝Logstash)

 

操作系統:Centos 6.5 x64

 

下載安裝包

Elasticsearch:

https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.3.0.tar.gz

Logstash:

https://artifacts.elastic.co/downloads/logstash/logstash-5.3.0.tar.gz

 

kibana:

https://artifacts.elastic.co/downloads/kibana/kibana-5.3.0-linux-x86_64.tar.gz

 

安裝第三方epel源

rpm -ivh http://download.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

 

安裝JDK環境(所有機器)

http://120.52.72.24/download.oracle.com/c3pr90ntc0td/otn-pub/java/jdk/8u131-b11/d54c1d3a095b4ff2b6607d096fa80163/jdk-8u131-linux-x64.tar.gz

 

cd /usr/local
tar -zxf jdk-8u131-linux-x64.tar.gz
ln -sv jdk1.8.0_131/ jdk

 

vi /etc/profile.d/jdk.sh

添加以下內容

export JAVA_HOME=/usr/local/jdk
export PATH=$PATH:/usr/local/jdk/bin

~

chmod 755 /etc/profile.d/jdk.sh
. /etc/profile.d/jdk.sh

 

查看是否生效

java –version

開源日志分析系統ELK平臺搭建部署

修改ulimit限制

vi /etc/security/limits.d/90-nproc.conf

*       soft  nproc        10240
*       hard   nproc        10240
*       soft  nofile        65536
*       hard   nofile        65536

vi /etc/sysctl.conf

添加下面內容

vm.max_map_count = 262144

然后執行以下命令

sysctl -p

三、ElasticSearch安裝配置

創建一個ELK目錄,把安裝包都放這個目錄下。

[unilife@cdh4 ~]$ mkdir elk
[unilife@cdh4 ~]$ cd elk/

解壓ElasticSearch安裝包

[unilife@cdh4 elk]$ tar -zxfelasticsearch-5.3.0.tar.gz

 

安裝Head插件

yum install npm git  #安裝node.js
git clonegit://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head
npm install
npm run start &  或者 grunt server 啟動

通過http://192.168.2.61:9100/ 登錄

開源日志分析系統ELK平臺搭建部署

然后編輯ES的配置文件:

vi config/elasticsearch.yml

修改以下配置項:

cluster.name: my-application
node.name: node-1
path.data: /tmp/elasticsearch/data
path.logs: /tmp/elasticsearch/logs
network.host=0.0.0.0
network.port=9200
http.cors.enabled: true
http.cors.allow-origin: "*"

 

其他的選項保持默認,然后啟動ES:

[unilife@cdh4 elk]$ /home/unilife/elk/elasticsearch-5.3.0/bin/elasticsearch &

開源日志分析系統ELK平臺搭建部署

可以看到,它跟其他的節點的傳輸端口為9300,接受HTTP請求的端口為9200。

 

然后,通過網頁打開http://192.168.2.61:9200/ ,可以看到以下內容

開源日志分析系統ELK平臺搭建部署

返回展示了配置的cluster_name和name,以及安裝的ES的版本等信息。

四、Logstash安裝

Logstash功能如下:

開源日志分析系統ELK平臺搭建部署

它就是一個收集器而已,我們需要為它指定Input和Output(當然Input和Output可以為多個)。由于我們需要把Java項目中Log4j的日志輸出到ElasticSearch中,因此這里的Input就是Log4j,而Output就是ElasticSearch。

tar -zxf logstash-5.3.0.tar.gz
cd logstash-5.3.0

 

編寫配置文件

vi config/log4j_to_es.conf

 

# For detail structure of this file
# Set:https://www.elastic.co/guide/en/logstash/current/configuration-file-structure.html
input {
  #For detail config for log4j as input,
  #See: https://www.elastic.co/guide/en/logstash/current/plugins-inputs-log4j.html
 log4j {
   mode => "server"
   host => "192.168.2.61"
   port => 4567
  }
}
filter {
 #Only matched data are send to output.
}
output {
  #For detail config for elasticsearch as output,
  #See: https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html
 elasticsearch {
   action => "index"                #The operation on ES
   hosts  =>"192.168.2.61:9200"    #ElasticSearch host, can be array.
   index  =>"dubbo"               #Theindex to write data to, can be any string.
  }

 

啟動Logstash

[unilife@cdh4 logstash-5.3.0]$./bin/logstash -f config/log4j_to_es.conf &

用 -f 選項指定配置文件

 

修改Java項目的log4j.properties,將Log4j的日志輸出到SocketAppender

 

log4j.rootCategory=debug, stdout, R, E, socket
 
# appender socket
log4j.appender.socket=org.apache.log4j.net.SocketAppender
log4j.appender.socket.Port=4567
log4j.appender.socket.RemoteHost=192.168.2.61
log4j.appender.socket.layout=org.apache.log4j.PatternLayout
log4j.appender.socket.layout.ConversionPattern=%d[%-5p] [%l] %m%n
log4j.appender.socket.ReconnectionDelay=10000

最后重新啟動Java服務

 

用Head插件查看ES狀態和內容

開源日志分析系統ELK平臺搭建部署

開源日志分析系統ELK平臺搭建部署

 

上面使用了ES的Head插件觀察了ES集群的狀態和數據,但這只是個簡單的用于跟ES交互的頁面而已,并不能生成報表或者圖表什么的,接下來使用Kibana來執行搜索并生成圖表。

五、Kiabana安裝

解壓安裝包

tar -zxf kibana-5.3.0.tar.gz
cd kibana-5.3.0

 

配置kibana

[unilife@cdh4 kibana-5.3.0]$ viconfig/kibana.yml

 

修改以下內容

server.host: "0.0.0.0"
elasticsearch.url: http://192.168.2.61:9200

啟動Kiabana

[unilife@cdh4 kibana-5.3.0]$ ./bin/kibana &

 

通過http://192.168.2.61:5601/ 訪問Kibana

開源日志分析系統ELK平臺搭建部署

為了后續使用Kibana,需要配置至少一個Index名字或者Pattern,它用于在分析時確定ES中的Index。這里我輸入之前配置的Index名字dubbo,Kibana會自動加載該Index下doc的field,并自動選擇合適的field用于圖標中的時間字段:

開源日志分析系統ELK平臺搭建部署

 

接下來切換到Discover標簽上,就能看到ES中的數據了:

開源日志分析系統ELK平臺搭建部署

六、Logstash收集日志

6.1、Logstash收集Nginx日志

192.168.2.93上操作

mkdir /home/unilife/elk
cd /home/unilife/elk

解壓文件

tar -zxf logstash-5.3.0.tar.gz
cd logstash-5.3.0

 

編寫配置文件

[unilife@localhost bin]$ vi/home/unilife/elk/logstash-5.3.0/config/nginx_to_es.conf

 

添加以下內容

input {
 file {
    type => "nginx_access"
    path => ["/usr/local/nginx/logs/access.log"]
 
  }
}
filter {
 #Only matched data are send to output.
}
output {
  #For detail config for elasticsearch as output,
  #See: https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html
 elasticsearch {
   action => "index"               #The operation on ES
   hosts  =>"192.168.2.61:9200"    #ElasticSearch host, can be array.
   index  =>"nginx"               #Theindex to write data to, can be any string.
  }
}

啟動Logstash

[unilife@localhost bin]$ ./bin/logstash -fconfig/nginx_to_es.conf &

 

用ElasticSearch的Head插件查看ES狀態和內容,

開源日志分析系統ELK平臺搭建部署

可以看到nginx日志已經存儲到ES

然后通過Kibana為nginx創建一個index

開源日志分析系統ELK平臺搭建部署

Kibana上能看到nginx數據了。

開源日志分析系統ELK平臺搭建部署

6.2、Logstash通過kafka收集日志信息

編輯配置文件

[unilife@localhost bin]$ vi/home/unilife/elk/logstash-5.3.0/config/kafka_to_elasticsearch.conf

 

添加以下內容

input {
 
    kafka {
      topics => "unilife_nginx_production"
      group_id => "flume_unilife_nginx_production"
      bootstrap_servers =>"192.168.2.240:9092,192.168.2.241:9093,192.168.2.242:9094,192.168.2.243:9095,192.168.2.244:9096"
  }
 
}

output {
 
    elasticsearch {
      action => "index"
      hosts  =>["192.168.2.240:9200","192.168.2.241:9200","192.168.2.242:9200","192.168.2.243:9200","192.168.2.244:9200"]
      index  => "nginx"
  }
 
}

 

 

啟動Logstash

[unilife@localhost bin]$ ./bin/logstash -fconfig/kafka_to_elasticsearch.conf &

 

 

當前標題:開源日志分析系統ELK平臺搭建部署
URL鏈接:http://vcdvsql.cn/article38/gdissp.html

成都網站建設公司_創新互聯,為您提供標簽優化企業網站制作虛擬主機網站收錄云服務器企業建站

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

h5響應式網站建設