如何分析spark-mlib的線性回歸,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
創新互聯堅持“要么做到,要么別承諾”的工作理念,服務領域包括:成都網站建設、做網站、企業官網、英文網站、手機端網站、網站推廣等服務,滿足客戶于互聯網時代的上海網站設計、移動媒體設計的需求,幫助企業找到有效的互聯網解決方案。努力成為您成熟可靠的網絡建設合作伙伴!import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.ml.feature.VectorAssembler import org.apache.spark.sql.SQLContext import org.apache.spark.ml.regression.LinearRegression object SparkMlib { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("mlib").setMaster("local") val context = new SparkContext(conf) val sqlContext = new SQLContext(context) val rdd = context.makeRDD(List((1,3,9),(2,6,18),(3,9,27),(4,12,36))) val cols = Array("x1","x2") val vectors = new VectorAssembler().setInputCols(cols).setOutputCol("predict") import sqlContext.implicits._ val x = vectors.transform(rdd.toDF("x1","x2","y")) val model = new LinearRegression() //自變量的數據名 .setFeaturesCol("predict") //因變量 .setLabelCol("y") //是否有截距 .setFitIntercept(false) //訓練模型 .fit(x) //線性回歸的系數 println(model.coefficients) //線性回歸的截距 println(model.intercept) //線性回歸的自變量的個數 println(model.numFeatures) //上面的feature列 println(model.summary.featuresCol) //r2 println(model.summary.r2) //平均絕對誤差 println(model.summary.meanAbsoluteError) //方差 println(model.summary.meanSquaredError) //新的集合x1,x2 預測y val testRdd = context.makeRDD(List((1,3),(2,6),(3,9),(4,12))) //根據上面的模型預測結果 val testSet = vectors.transform(testRdd.toDF("x1","x2")) val pre = model.transform(testSet) pre.show() //println(pre.predictions) } }
關于如何分析spark-mlib的線性回歸問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注創新互聯-成都網站建設公司行業資訊頻道了解更多相關知識。
新聞名稱:如何分析spark-mlib的線性回歸-創新互聯
分享地址:http://vcdvsql.cn/article10/ddhhdo.html
成都網站建設公司_創新互聯,為您提供虛擬主機、網站設計公司、網站內鏈、ChatGPT、靜態網站、電子商務
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯