本文目录如下:
第1章 Spark 机器学习简介
1.1 Spark MLlib 与 Spark ML
1.1.1 Spark MLlib
- (1)
Spark MLlib
是 Spark 的可扩展机器学习库,提供基于RDD
的 API。 - (2) 在
Spark 2.x
版本中,MLlib
将向基于DataFrame
的 API 添加功能。并且MLlib
中基于DataFrame
的 API 将成为主流,MLlib
的 API 更加偏向于底层,可以灵活多变的修改逻辑。 - (3)
MLlib
的 API不 会被ML
替代。
1.1.2 Spark ML (重点)
- (1)
Spark ML
提供了一个基于DataFrame(数据帧)
构建的更高级的 API, 从而用于构建机器学习工作流ML Pipeline
。 - (2)
Spark ML
为主要学习的技术, 因为 API 能更灵活、更具弹性地使用DataFrame
。
1.2 Pipelines 的主要概念
1.2.1 Transformer (转换器)
1.2.2 Estimator (模型学习器)
也称为了评估器吗?
-
(1)
Estimators
模型学习器是 拟合 和 训练数据 的机器学习算法或者其他算法的抽象。 -
(2)
Estimator
实现fit()
方法,这个方法输入一个DataFrame
并产生一个Model
即一个Transformer
(转换器)。 -
(3) 例如:一个机器学习算法是一个
Estimator
模型学习器 ,比如这个算法是LogisticRegression
(逻辑回归),调用fit()
方法训练出一个LogisticRegressionModel
,这是一个Model
,因此也是一个Transformer
(转换器)。
1.3 实例: Estimator, Transformer, Param
import org.apache.spark.ml.feature._
import org.apache.spark.ml.classification.LogisticRegression
import org.apache.spark.m1.{ Pipeline, PipelineModel }
import org.apache.spark.ml.param.ParamMap
import org.apache.spark.ml.linalg.{Vector, Vectors}
import org.apache.spark.sql.Row
import org.apache.spark.sql.SparkSession
// 1.训练样本
val training = spark.createDataFrame(Seq(
(1.0, Vectors.dense(0.0, 1.1, 0.1)),
(0.0, Vectors.dense(2.0, 1.0, -1.0)),
(0.0, Vectors.dense(2.0, 1.3, 1.0)),
(1.0, Vectors.dense(0.0, 1.2, -0.5)))).toDF("label", "features")
// 2.创建逻辑回归 Estimator
val lr = new LogisticRegression( )
println("LogisticRegression parameters:\n" + lr.explainParams() + "\n")
// 3.通过setter方法设置模型参数
lr.setMaxIter(10)
.setRegParam(0.01)
// 4.训练模型
val model1 = lr.fit(training)
println("Model 1 was fit using parameters: " + model1.parent.extractParamMap)
// 5.通过ParamMap设置参数方法
val paramMap = ParamMap(lr.maxIter -> 20)
.put(lr.maxIter, 30)
.put(lr.regParam -> 0.1, lr.threshold -> 0.55)
// 5.ParamMap合并
val paramMap2 = ParamMap(lr.probabilityCol -> "myProbability")
val paramMapCombined = paramMap ++ paramMap2
// 6.训练模型,采用paramMap参数
// paramMapCombined会覆盖所有lr.set设置的参数
val model2 = lr.fit(training, paramMapCombined)
println("Model 2 was fit using parameters: " + model2.parent.extractParamMap)
// 7.测试样本
val test = spark.createDataFrame(Seq(
(1.0, Vectors.dense(-1.0, 1.5, 1.3 )),
(0.0, Vectors.dense(3.0, 2.0, -0.1)),
(1.0, Vectors.dense(0.0, 2.2, -1.5)))).toDF("label", "features")
// 8.对模型进行测试
model2.transform(test)
.select("features", "label", "myProbability", "prediction")
.collect()
.foreach {
case Row(features: Vector, label: Double, prob: Vector, prediction: Double) =>
println(s"($features, $label) -> prob=$prob, prediction=$prediction")
}
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。