布隆过滤器+CBF scala实现+代码详解

2023-11-09 17:20

本文主要是介绍布隆过滤器+CBF scala实现+代码详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 简介
    • BloomFilter
    • BloomFilter的简单优化
    • 改进BloomFilter
    • spark 的布隆过滤器
    • scala实现BF、CBF

简介

布隆过滤器可以说是在大数据的处理算法方面经常使用的基础算法。
在这方面我看了很多的博客,确实看到了很多很详细的解释和总结,但是都是零散的,没有很全面的在原理和实现,以及实现代码的解析等方面做的很全面的。所以我将我自己整理的东西很完整的和大家分享。

其中在实际的使用和实现方面,我会增加spark的实现,以及scala的BF和CBF的两个简单的demo。

BloomFilter

使用范围:可以用来实现数据字典,进行数据的判重,或者集合求交

原理:位数组+k个独立hash函数。将hash函数对应的值的位数组置1,查找时如果发现所有hash函数对应位都是1说明存在,很明显这个过程并不保证查找的结果是100%正确的。

缺点:首先就是会存在错误率,但是为什么有错误率还是仍然被大量使用呢?这个也很简单理解,毕竟在真正的业务场景中那可以处理上十亿条数据,那么假如说有0.001的错误率那看在时间高效的优点下,还是会选择BF的。同时也不支持删除一个已经插入的关键字,因为修改关键字对应的位会牵动到其他的关键字。

上面的缺点我们提到了就是存在错误率,那么好消息是这个错误率其实是可以被开发人员根据应用场景的要求来调整的。

在这里插入图片描述
那么上面我们解释一下参数的意思:
p代表错误率,一般设置的参数0.01或者更小。
n是输入的元素的个数。
m代表bit数组长度。
然后k代表hash函数的个数。

举个例子我们假设错误率为0.01,则此时m应大概是n的13倍。这样k大概是8个。

通常单个元素的长度都是有很多bit的。所以使用bloom filter内存上通常都是节省的。

可见我们能得到一个规律:
那就是你想要的错误率越低,m就需要的位数越大。
然后m越大就需要的hash函数的个数越多。
仔细一想 没毛病。当然时间也会越长,但是和其他的遍历相等的方法也快了不止一点半点。

BloomFilter的简单优化

我们知道只要你使用了BloomFilter就会存在一点点的错误率,那么既然你使用布隆过滤器来加速查找和判断是否存在,那么性能很低的哈希函数不是个好选择,推荐 MurmurHash这类的高性能hash函数。

在后面的代码部分我会实现一个scala的使用MurmurHash的BloomFilter。

改进BloomFilter

Bloom filter将集合中的元素映射到位数组中,用k(k为哈希函数个数)个映射位是否全1表示元素在不在这个集合中。Counting bloom filter(CBF)将位数组中的每一位扩展为一个counter,从而支持了元素的删除操作。Spectral Bloom Filter(SBF)将其与集合元素的出现次数关联。SBF采用counter中的最小值来近似表示元素的出现频率。

spark 的布隆过滤器

其实spark框架下有很好的封装,所以即使你不知道原理,也可以使用。

bloomFilter(colName:String,expectedNumItems:Long,fpp:Double)
//param(使用的数据列,数据量期望,损失精度)
//损失精度越低生成的布隆数组长度越长,占用的空间越多,计算过程越长。

然后我用scala实现了一个spark中的BF

import day0215.schema_info
import org.apache.spark.sql.SparkSession/*** @Author: Braylon* @Date: 2020/2/18 17:02* @Description: BF in Spark*/
object BloomFilter {def main(args: Array[String]): Unit = {val spark = SparkSession.builder().master("local").appName("spark sql2").getOrCreate()val data = spark.sparkContext.textFile("D:\\idea\\projects\\scalaDemo\\src\\resources\\node.txt").map(_.split(" "))val df_ = data.map(s => schema_info(s(0).toInt, s(1).trim(), s(2).toInt))import spark.sqlContext.implicits._var df = df_.toDFdf.show()val df1 = spark.sparkContext.parallelize(Seq(Worker("Braylon",30000), Worker("Tim",1000), Worker("Jackson",20000))).toDFdf1.show(false)val rdd = spark.sparkContext.parallelize(Seq("Braylon","J.C","Neo"))// 生成bloomFilterval bf = df1.stat.bloomFilter("name",20L,0.01)val res = rdd.map(x=>(x,bf.mightContainString(x)))res.foreach(println)}
}
case class Worker(name:String,Sal:Int)

scala实现BF、CBF

package BigDataAlgorithmimport java.util.BitSetimport scala.util.hashing.MurmurHash3/*** @Author: Braylon* @Date: 2020/2/19 10:44* @Description: scala BF*/
object BloomFilter {//定义映射位数组长度val BitArr = 1 << 16//定义Bit数组val bitSet = new BitSet(BitArr)/*** 一个名为seed的值代表盐。向其提供任何随机但私有的(对您的应用而言)数据,因此哈希函数将为相同数据提供不同的结果。* 例如,使用此功能提取您的数据摘要,以检测第三人对原始数据的修改。在知道您使用的盐之前,他们几乎无法复制有效的哈希值。* final def stringHash(str: String, seed: Int): Int* Compute the hash of a string*/val seed = 2def hash(str:String):Unit = {//null是用来判断有没有这个容器,而isEmpty是有这个容器,来判断这个容器中的内容有没有东西是不是空的if (str != null && !str.isEmpty) {for (seed_tmp <- 1 to seed) bitSet.set(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % BitArr, true)}elseprintln("error input")}/*** 判断存在*/def checkIfExisted(str:String):Boolean = {def existsRecur(str: String,seed_tmp:Int):Boolean = {if (str == null && str.isEmpty) falseelse if (seed_tmp > seed) trueelse if (!bitSet.get(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % BitArr)) false/*** boolean get(int index)* 返回指定索引处的位值。*/else existsRecur(str, seed + 1)}if (str == null || str.isEmpty)falseelseexistsRecur(str, 1)}def main(args: Array[String]): Unit = {val str1 = "timeStamp"val str2 = "what are you up to"val str3 = "back to WHU as soon as possible"val str4 = "i love WHU"BloomFilter.hash(str1)BloomFilter.hash(str2)BloomFilter.hash(str3)BloomFilter.hash(str4)println(BloomFilter.checkIfExisted(str1))println(BloomFilter.checkIfExisted(str3))println(BloomFilter.checkIfExisted("neo"))println(BloomFilter.checkIfExisted("ksjdfhwiebxdkjfskf"))}
}

CBF

package BigDataAlgorithmimport scala.util.hashing.MurmurHash3/*** @Author: Braylon* @Date: 2020/2/19 12:08* @Description: scala CBF*/
object CountingBloomFilter {val totalNum = 1 << 16val CBFArr = new Array[Int](totalNum)//我们仍然使用MurmurHash,定义seedNumval seedNum = 2def hash(str:String):Unit = {if (str != null && !str.isEmpty){for (seed_tmp <- 1 to seedNum) CBFArr(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % totalNum) += 1}elseprintln("error input")}def checkIfExisted(str:String):Boolean = {def existed(str:String, seed_tmp:Int):Boolean = {if (str == null && str.isEmpty) falseelse if (seed_tmp > seedNum) trueelse if (CBFArr(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % totalNum) < 0 )  false/*** boolean get(int index)* 返回指定索引处的位值。*/else existed(str, seed_tmp + 1)}if (str==null || str.isEmpty) falseelse existed(str, 1)}def main(args: Array[String]): Unit = {val str1 = "www.baidu.com"val str2 = "Tom and Jerry"val str3 = "Tim is a good girl"val str4 = "Braylon is a good student"BloomFilter.hash(str1)BloomFilter.hash(str2)BloomFilter.hash(str3)BloomFilter.hash(str4)println(BloomFilter.checkIfExisted(str1))println(BloomFilter.checkIfExisted(str3))println(BloomFilter.checkIfExisted("neo"))println(BloomFilter.checkIfExisted("ksjdfhwiebxdkjfskf"))}
}

大家共勉~~
有不好的地方欢迎指正

这篇关于布隆过滤器+CBF scala实现+代码详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/377513

相关文章

MySQL数据库双机热备的配置方法详解

《MySQL数据库双机热备的配置方法详解》在企业级应用中,数据库的高可用性和数据的安全性是至关重要的,MySQL作为最流行的开源关系型数据库管理系统之一,提供了多种方式来实现高可用性,其中双机热备(M... 目录1. 环境准备1.1 安装mysql1.2 配置MySQL1.2.1 主服务器配置1.2.2 从

C++中unordered_set哈希集合的实现

《C++中unordered_set哈希集合的实现》std::unordered_set是C++标准库中的无序关联容器,基于哈希表实现,具有元素唯一性和无序性特点,本文就来详细的介绍一下unorder... 目录一、概述二、头文件与命名空间三、常用方法与示例1. 构造与析构2. 迭代器与遍历3. 容量相关4

C++中悬垂引用(Dangling Reference) 的实现

《C++中悬垂引用(DanglingReference)的实现》C++中的悬垂引用指引用绑定的对象被销毁后引用仍存在的情况,会导致访问无效内存,下面就来详细的介绍一下产生的原因以及如何避免,感兴趣... 目录悬垂引用的产生原因1. 引用绑定到局部变量,变量超出作用域后销毁2. 引用绑定到动态分配的对象,对象

Linux kill正在执行的后台任务 kill进程组使用详解

《Linuxkill正在执行的后台任务kill进程组使用详解》文章介绍了两个脚本的功能和区别,以及执行这些脚本时遇到的进程管理问题,通过查看进程树、使用`kill`命令和`lsof`命令,分析了子... 目录零. 用到的命令一. 待执行的脚本二. 执行含子进程的脚本,并kill2.1 进程查看2.2 遇到的

MyBatis常用XML语法详解

《MyBatis常用XML语法详解》文章介绍了MyBatis常用XML语法,包括结果映射、查询语句、插入语句、更新语句、删除语句、动态SQL标签以及ehcache.xml文件的使用,感兴趣的朋友跟随小... 目录1、定义结果映射2、查询语句3、插入语句4、更新语句5、删除语句6、动态 SQL 标签7、ehc

SpringBoot基于注解实现数据库字段回填的完整方案

《SpringBoot基于注解实现数据库字段回填的完整方案》这篇文章主要为大家详细介绍了SpringBoot如何基于注解实现数据库字段回填的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以了解... 目录数据库表pom.XMLRelationFieldRelationFieldMapping基础的一些代

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java AOP面向切面编程的概念和实现方式

《JavaAOP面向切面编程的概念和实现方式》AOP是面向切面编程,通过动态代理将横切关注点(如日志、事务)与核心业务逻辑分离,提升代码复用性和可维护性,本文给大家介绍JavaAOP面向切面编程的概... 目录一、AOP 是什么?二、AOP 的核心概念与实现方式核心概念实现方式三、Spring AOP 的关

详解SpringBoot+Ehcache使用示例

《详解SpringBoot+Ehcache使用示例》本文介绍了SpringBoot中配置Ehcache、自定义get/set方式,并实际使用缓存的过程,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录摘要概念内存与磁盘持久化存储:配置灵活性:编码示例引入依赖:配置ehcache.XML文件:配置

从基础到高级详解Go语言中错误处理的实践指南

《从基础到高级详解Go语言中错误处理的实践指南》Go语言采用了一种独特而明确的错误处理哲学,与其他主流编程语言形成鲜明对比,本文将为大家详细介绍Go语言中错误处理详细方法,希望对大家有所帮助... 目录1 Go 错误处理哲学与核心机制1.1 错误接口设计1.2 错误与异常的区别2 错误创建与检查2.1 基础