布隆过滤器+CBF scala实现+代码详解

2023-11-09 17:20

本文主要是介绍布隆过滤器+CBF scala实现+代码详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 简介
    • BloomFilter
    • BloomFilter的简单优化
    • 改进BloomFilter
    • spark 的布隆过滤器
    • scala实现BF、CBF

简介

布隆过滤器可以说是在大数据的处理算法方面经常使用的基础算法。
在这方面我看了很多的博客,确实看到了很多很详细的解释和总结,但是都是零散的,没有很全面的在原理和实现,以及实现代码的解析等方面做的很全面的。所以我将我自己整理的东西很完整的和大家分享。

其中在实际的使用和实现方面,我会增加spark的实现,以及scala的BF和CBF的两个简单的demo。

BloomFilter

使用范围:可以用来实现数据字典,进行数据的判重,或者集合求交

原理:位数组+k个独立hash函数。将hash函数对应的值的位数组置1,查找时如果发现所有hash函数对应位都是1说明存在,很明显这个过程并不保证查找的结果是100%正确的。

缺点:首先就是会存在错误率,但是为什么有错误率还是仍然被大量使用呢?这个也很简单理解,毕竟在真正的业务场景中那可以处理上十亿条数据,那么假如说有0.001的错误率那看在时间高效的优点下,还是会选择BF的。同时也不支持删除一个已经插入的关键字,因为修改关键字对应的位会牵动到其他的关键字。

上面的缺点我们提到了就是存在错误率,那么好消息是这个错误率其实是可以被开发人员根据应用场景的要求来调整的。

在这里插入图片描述
那么上面我们解释一下参数的意思:
p代表错误率,一般设置的参数0.01或者更小。
n是输入的元素的个数。
m代表bit数组长度。
然后k代表hash函数的个数。

举个例子我们假设错误率为0.01,则此时m应大概是n的13倍。这样k大概是8个。

通常单个元素的长度都是有很多bit的。所以使用bloom filter内存上通常都是节省的。

可见我们能得到一个规律:
那就是你想要的错误率越低,m就需要的位数越大。
然后m越大就需要的hash函数的个数越多。
仔细一想 没毛病。当然时间也会越长,但是和其他的遍历相等的方法也快了不止一点半点。

BloomFilter的简单优化

我们知道只要你使用了BloomFilter就会存在一点点的错误率,那么既然你使用布隆过滤器来加速查找和判断是否存在,那么性能很低的哈希函数不是个好选择,推荐 MurmurHash这类的高性能hash函数。

在后面的代码部分我会实现一个scala的使用MurmurHash的BloomFilter。

改进BloomFilter

Bloom filter将集合中的元素映射到位数组中,用k(k为哈希函数个数)个映射位是否全1表示元素在不在这个集合中。Counting bloom filter(CBF)将位数组中的每一位扩展为一个counter,从而支持了元素的删除操作。Spectral Bloom Filter(SBF)将其与集合元素的出现次数关联。SBF采用counter中的最小值来近似表示元素的出现频率。

spark 的布隆过滤器

其实spark框架下有很好的封装,所以即使你不知道原理,也可以使用。

bloomFilter(colName:String,expectedNumItems:Long,fpp:Double)
//param(使用的数据列,数据量期望,损失精度)
//损失精度越低生成的布隆数组长度越长,占用的空间越多,计算过程越长。

然后我用scala实现了一个spark中的BF

import day0215.schema_info
import org.apache.spark.sql.SparkSession/*** @Author: Braylon* @Date: 2020/2/18 17:02* @Description: BF in Spark*/
object BloomFilter {def main(args: Array[String]): Unit = {val spark = SparkSession.builder().master("local").appName("spark sql2").getOrCreate()val data = spark.sparkContext.textFile("D:\\idea\\projects\\scalaDemo\\src\\resources\\node.txt").map(_.split(" "))val df_ = data.map(s => schema_info(s(0).toInt, s(1).trim(), s(2).toInt))import spark.sqlContext.implicits._var df = df_.toDFdf.show()val df1 = spark.sparkContext.parallelize(Seq(Worker("Braylon",30000), Worker("Tim",1000), Worker("Jackson",20000))).toDFdf1.show(false)val rdd = spark.sparkContext.parallelize(Seq("Braylon","J.C","Neo"))// 生成bloomFilterval bf = df1.stat.bloomFilter("name",20L,0.01)val res = rdd.map(x=>(x,bf.mightContainString(x)))res.foreach(println)}
}
case class Worker(name:String,Sal:Int)

scala实现BF、CBF

package BigDataAlgorithmimport java.util.BitSetimport scala.util.hashing.MurmurHash3/*** @Author: Braylon* @Date: 2020/2/19 10:44* @Description: scala BF*/
object BloomFilter {//定义映射位数组长度val BitArr = 1 << 16//定义Bit数组val bitSet = new BitSet(BitArr)/*** 一个名为seed的值代表盐。向其提供任何随机但私有的(对您的应用而言)数据,因此哈希函数将为相同数据提供不同的结果。* 例如,使用此功能提取您的数据摘要,以检测第三人对原始数据的修改。在知道您使用的盐之前,他们几乎无法复制有效的哈希值。* final def stringHash(str: String, seed: Int): Int* Compute the hash of a string*/val seed = 2def hash(str:String):Unit = {//null是用来判断有没有这个容器,而isEmpty是有这个容器,来判断这个容器中的内容有没有东西是不是空的if (str != null && !str.isEmpty) {for (seed_tmp <- 1 to seed) bitSet.set(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % BitArr, true)}elseprintln("error input")}/*** 判断存在*/def checkIfExisted(str:String):Boolean = {def existsRecur(str: String,seed_tmp:Int):Boolean = {if (str == null && str.isEmpty) falseelse if (seed_tmp > seed) trueelse if (!bitSet.get(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % BitArr)) false/*** boolean get(int index)* 返回指定索引处的位值。*/else existsRecur(str, seed + 1)}if (str == null || str.isEmpty)falseelseexistsRecur(str, 1)}def main(args: Array[String]): Unit = {val str1 = "timeStamp"val str2 = "what are you up to"val str3 = "back to WHU as soon as possible"val str4 = "i love WHU"BloomFilter.hash(str1)BloomFilter.hash(str2)BloomFilter.hash(str3)BloomFilter.hash(str4)println(BloomFilter.checkIfExisted(str1))println(BloomFilter.checkIfExisted(str3))println(BloomFilter.checkIfExisted("neo"))println(BloomFilter.checkIfExisted("ksjdfhwiebxdkjfskf"))}
}

CBF

package BigDataAlgorithmimport scala.util.hashing.MurmurHash3/*** @Author: Braylon* @Date: 2020/2/19 12:08* @Description: scala CBF*/
object CountingBloomFilter {val totalNum = 1 << 16val CBFArr = new Array[Int](totalNum)//我们仍然使用MurmurHash,定义seedNumval seedNum = 2def hash(str:String):Unit = {if (str != null && !str.isEmpty){for (seed_tmp <- 1 to seedNum) CBFArr(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % totalNum) += 1}elseprintln("error input")}def checkIfExisted(str:String):Boolean = {def existed(str:String, seed_tmp:Int):Boolean = {if (str == null && str.isEmpty) falseelse if (seed_tmp > seedNum) trueelse if (CBFArr(Math.abs(MurmurHash3.stringHash(str, seed_tmp)) % totalNum) < 0 )  false/*** boolean get(int index)* 返回指定索引处的位值。*/else existed(str, seed_tmp + 1)}if (str==null || str.isEmpty) falseelse existed(str, 1)}def main(args: Array[String]): Unit = {val str1 = "www.baidu.com"val str2 = "Tom and Jerry"val str3 = "Tim is a good girl"val str4 = "Braylon is a good student"BloomFilter.hash(str1)BloomFilter.hash(str2)BloomFilter.hash(str3)BloomFilter.hash(str4)println(BloomFilter.checkIfExisted(str1))println(BloomFilter.checkIfExisted(str3))println(BloomFilter.checkIfExisted("neo"))println(BloomFilter.checkIfExisted("ksjdfhwiebxdkjfskf"))}
}

大家共勉~~
有不好的地方欢迎指正

这篇关于布隆过滤器+CBF scala实现+代码详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/377513

相关文章

SpringBoot集成redisson实现延时队列教程

《SpringBoot集成redisson实现延时队列教程》文章介绍了使用Redisson实现延迟队列的完整步骤,包括依赖导入、Redis配置、工具类封装、业务枚举定义、执行器实现、Bean创建、消费... 目录1、先给项目导入Redisson依赖2、配置redis3、创建 RedissonConfig 配

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

MySQL的JDBC编程详解

《MySQL的JDBC编程详解》:本文主要介绍MySQL的JDBC编程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言一、前置知识1. 引入依赖2. 认识 url二、JDBC 操作流程1. JDBC 的写操作2. JDBC 的读操作总结前言本文介绍了mysq

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函