bl双性强迫侵犯h_国产在线观看人成激情视频_蜜芽188_被诱拐的少孩全彩啪啪漫画

使用Spark和Scala怎么分析Apache訪問日志-創新互聯

使用Spark和Scala怎么分析Apache訪問日志,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

10年積累的網站設計制作、做網站經驗,可以快速應對客戶對網站的新想法和需求。提供各種問題對應的解決方案。讓選擇我們的客戶得到更好、更有力的網絡服務。我雖然不認識你,你也不認識我。但先做網站后付款的網站建設流程,更有康馬免費網站建設讓你可以放心的選擇與我們合作。

安裝

首先需要安裝好Java和Scala,然后下載Spark安裝,確保PATH 和JAVA_HOME 已經設置,然后需要使用Scala的SBT 構建Spark如下:

$ sbt/sbt assembly

構建時間比較長。構建完成后,通過運行下面命令確證安裝成功:

$ ./bin/spark-shell

scala> val textFile = sc.textFile("README.md") // 創建一個指向 README.md 引用scala> textFile.count // 對這個文件內容行數進行計數scala> textFile.first // 打印出第一行

Apache訪問日志分析器

首先我們需要使用Scala編寫一個對Apache訪問日志的分析器,所幸已經有人編寫完成,下載Apache logfile parser code。使用SBT進行編譯打包:

sbt compilesbt testsbt package

打包名稱假設為AlsApacheLogParser.jar。然后在Linux命令行啟動Spark:

// this works$ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell

對于Spark 0.9,有些方式并不起效:

// does not work$ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell// does not workspark> :cp AlsApacheLogParser.jar

上傳成功后,在Spark REPL創建AccessLogParser 實例:

import com.alvinalexander.accesslogparser._val p = new AccessLogParser

現在就可以像之前讀取readme.cmd一樣讀取apache訪問日志accesslog.small:

scala> val log = sc.textFile("accesslog.small")14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=30922506214/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB)log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15scala> log.count(a lot of output here)res0: Long = 100000

分析Apache日志

我們可以分析Apache日志中404有多少個,創建方法如下:

def getStatusCode(line: Option[AccessLogRecord]) = { line match {  case Some(l) => l.httpStatusCode  case None => "0" }}

其中Option[AccessLogRecord]是分析器的返回值。

然后在Spark命令行使用如下:

log.filter(line => getStatusCode(p.parseRecord(line)) == "404").count

這個統計將返回httpStatusCode是404的行數。

深入挖掘

下面如果我們想知道哪些URL是有問題的,比如URL中有一個空格等導致404錯誤,顯然需要下面步驟:

  1. 過濾出所有 404 記錄  從每個404記錄得到request字段(分析器請求的URL字符串是否有空格等)  不要返回重復的記錄

創建下面方法:

// get the `request` field from an access log recorddef getRequest(rawAccessLogString: String): Option[String] = { val accessLogRecordOption = p.parseRecord(rawAccessLogString) accessLogRecordOption match {  case Some(rec) => Some(rec.request)  case None => None }}

將這些代碼貼入Spark REPL,再運行如下代碼:

log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).countval recs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_))val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).distinctdistinctRecs.foreach(println)

看完上述內容,你們掌握使用Spark和Scala怎么分析Apache訪問日志的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注創新互聯行業資訊頻道,感謝各位的閱讀!

分享名稱:使用Spark和Scala怎么分析Apache訪問日志-創新互聯
URL網址:http://vcdvsql.cn/article20/dgojco.html

成都網站建設公司_創新互聯,為您提供靜態網站App設計標簽優化品牌網站設計Google網站內鏈

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

h5響應式網站建設