本文主要是介绍Spark Mlib(二)k-menas,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
一 算法思想
K-MEANS算法是输入聚类个数k,以及包含 n个数据对象的数据库,输出满足方差最小标准k个聚类的一种算法。k-means 算法接受输入量 k ;然后将n个数据对象划分为 k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。
基本步骤
(1) 从 n个数据对象任意选择 k 个对象作为初始聚类中心;
(2) 根据每个聚类对象的均值(中心对象),计算每个对象与这些中心对象的距离;并根据最小距离重新对相应对象进行划分;
(3) 重新计算每个(有变化)聚类的均值(中心对象);
(4) 计算标准测度函数,当满足一定条件,如函数收敛时,则算法终止;如果条件不满足则回到步骤(2)。
二 使用领域
可以用来进行聚类,元素的相似度计算等
三 spark实现
spark官网给出的k-means的实现方式,原地址http://spark.apache.org/docs/latest/ml-clustering.html
package alg
import org.apache.spark.ml.clustering.KMeans
import org.apache.spark.ml.evaluation.ClusteringEvaluator
import org.apache.spark.sql.SparkSession
object k_means {def main(args:Array[String]):Unit={val spark: SparkSession = SparkSession.builder.appName("My").master("local[*]").getOrCreate()// Loads data.val dataset = spark.read.format("libsvm").load("data/mllib/sample_kmeans_data.txt")// Trains a k-means model.val kmeans = new KMeans().setK(2).setSeed(1L)val model = kmeans.fit(dataset)// Make predictionsval predictions = model.transform(dataset)// Evaluate clustering by computing Silhouette scoreval evaluator = new ClusteringEvaluator()val silhouette = evaluator.evaluate(predictions)println(s"Silhouette with squared euclidean distance = $silhouette")// Shows the result.println("Cluster Centers: ")model.clusterCenters.foreach(println)}}
这篇关于Spark Mlib(二)k-menas的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!