Redis中HyperLogLog数据类型如何使用

1. HyperLogLog 的原理

Redis HyperLogLog使用概率算法——HyperLogLog算法,来估计基数。使用一组哈希函数和长度为m的位数组,HyperLogLog能够估算集合中独特元素的数量。

在 HyperLogLog 算法中,对每个元素进行哈希处理,把哈希值转换为二进制后,根据二进制串前缀中 1 的个数来给每个元素打分。例如,一个元素的哈希值为01110100011,那么前缀中1的个数是3,因此在 HyperLogLog 算法中,这个元素的分数为3。

  当所有元素的分数统计完之后,取每一个分数的倒数(1 / 2^n),然后将这些倒数相加后取倒数,就得到一个基数估计值,这个值就是HyperLogLog算法的估计结果。

超详解Redis中的HyperLogLog数据类型:用法全解析

  HyperLogLog算法通过对位数组的长度m的大小进行取舍,折衷数据结构占用的内存与估计值的精准度(即估计误差),得到了在数据占用空间与错误较小程度之间完美的平衡。

  简而言之,HyperLogLog算法的核心思想是基于哈希函数和位运算,通过将哈希值转换成比特流并统计前导0的个数,从而快速估算大型数据集中唯一值的数量。利用 hyperloglog 算法,我们能够快速识别非常大的数据集中的重复网页。

2.使用步骤:

  Redis HyperLogLog是一种可用于估算集合中元素数量的数据结构,它能够通过使用非常少的内存来维护海量的数据。它的精确性高于常规估算算法,并且处理大量数据时速度非常快。

  一个简单的例子,我们可以用HyperLogLog来计算访问网站的独立IP数,具体可以按以下步骤操作:

  • 首先创建一个HyperLogLog数据结构:  PFADD hll:unique_ips 127.0.0.1

  • 为每次访问ip添加到unique_ips数据结构中: PFADD hll:unique_ips 192.168.1.1

  • 获取计算集合中元素数量的近似值: PFCOUNT hll:unique_ips

  • 可以通过对多个HyperLogLog结构(例如按天或按小时)的合并,来获得更精确的计数。

  需要注意的是,HyperLogLog虽然可以节省大量的内存,但它是一种估计算法,误差范围并不是完全精确的,实际使用时应注意其适用范围。

3.实现请求ip去重的浏览量使用示例

4.Jedis客户端使用

  1. 添加依赖,引入jedis依赖:

<
dependency>

<
groupId>
redis.clients<
/groupId>

<
artifactId>
jedis<
/artifactId>

<
version>
3.6.0<
/version>

<
/dependency>

  2.创建一个Jedis对象:

Jedis jedis = new Jedis("
localhost"
);

  3.向HyperLogLog数据结构添加元素:

jedis.pfadd("
hll:unique_ips"
, "
127.0.0.1"
);

  4.获取计算集合中元素数量的近似值:

Long count = jedis.pfcount("
hll:unique_ips"
);

System.out.println(count);

  5.可以通过对多个HyperLogLog结构的合并来获得更精确的计数。在Jedis中可以使用PFMERGE命令来合并HyperLogLog数据结构:

jedis.pfmerge("
hll:unique_ips"
, "
hll:unique_ips1"
, "
hll:unique_ips2"
, "
hll:unique_ips3"
);
5.Redission使用依赖

  1.创建RedissonClient对象

Config config = new Config();

config.useSingleServer().setAddress("
redis://localhost:6379"
);

RedissonClient redisson = Redisson.create(config);

  2.创建RHyperLogLog对象

RHyperLogLog<
String>
uniqueIps = redisson.getHyperLogLog("
hll:unique_ips"
);

  3.添加元素

uniqueIps.add("
127.0.0.1"
);

  4..获取近似数量

long approximateCount = uniqueIps.count();

System.out.println(approximateCount);

  5.合并多个HyperLogLog对象

RHyperLogLog<
String>
uniqueIps1 = redisson.getHyperLogLog("
hll:unique_ips1"
);

RHyperLogLog<
String>
uniqueIps2 = redisson.getHyperLogLog("
hll:unique_ips2"
);

uniqueIps.mergeWith(uniqueIps1, uniqueIps2);
6.HyperLogLog 提供了哪些特性和方法

  特性:

  • 精确度低,但占用内存极少。

  • 支持插入新元素,同时不会重复计数。

  • 提供指令来优化内存使用和计数准确性。例如PFADD、PFCOUNT、PFMERGE等指令。

  • 能够估计一个数据集中的不同元素数量,即集合的基数(cardinality)。

  • 支持对多个HyperLogLog对象进行合并操作,以获得这些集合的总基数的近似值。

  HyperLogLog常用的方法:

  • PFADD key element [element ...]:添加一个或多个元素到HyperLogLog结构中。

  • PFCOUNT key [key ...]:获取一个或多个HyperLogLog结构的基数估计值。

  • PFMERGE destkey sourcekey [sourcekey ...]:合并一个或多个HyperLogLog结构到一个目标结构中。

  • PFSELFTEST [numtests]: 测试HyperLogLog估值性能和准确性(仅限Redis4.0+版本)

  需要注意的是,HyperLogLog虽然可以节省大量内存,但仍然是一种估计算法,误差范围并不是完全精确的,并且具有一定的计算成本。根据实际应用情况,需要斟酌是否要使用HyperLogLog或其他数据结构来估计元素数量。

7.使用场景总结:

  Redis使用HyperLogLog的主要作用是在大数据流(view,IP,城市)的情况下进行去重计数。

  具体来说,以下是Redis HyperLogLog用于去重计数的一些场景:

  • 统计页面访问量 - 在Web应用程序中, HyperLogLog可以使用为每个页面计算多少次独特的访问者。利用HyperLogLog技术,跨越不同的时间段计算该页面的平均访问量。

  • HyperLogLog在分析大数据集合中的用户数量方面具有显著的实用性。在处理独特的用户ID这类数据集合时,一种基于概率的数据结构显得尤为有效。HyperLogLog会在进行散列计算后,仅保存有限数量的散列值,并且能够推断出数据集的大小。

  • 统计广告点击量 - 对于网站或应用程序的广告分析,HyperLogLog可以用于捕获有效点击数量,即非重复或唯一点击数量。



Redis是一个功能强大的开源内存数据库,提供了多种数据结构来满足不同的需求。其中HyperLogLog数据类型可以高效地进行基数统计和去重。
1. HyperLogLog是什么?
HyperLogLog是一种基数统计算法,能够在极小的误差范围内估计一个集合中不同元素的数量。其原理是使用一种特殊的哈希函数将元素映射成一个二进制位串,再统计其中前缀为0的最长长度L,最后根据L估算集合的基数。
2. 使用HyperLogLog
创建HyperLogLog对象:使用PFADD命令来添加元素,例如PFADD key element1 element2 ... elementN。
统计基数:使用PFCOUNT命令来计算HyperLogLog对象中不同元素的个数,例如PFCOUNT key。
合并多个HyperLogLog对象:使用PFMERGE命令将多个HyperLogLog对象合并为一个,例如PFMERGE key1 key2 ... keyN dest_key。
3. 注意事项
- 单个HyperLogLog对象的误差率为0.81%,合并多个对象后误差率会略有提高。
- HyperLogLog对象所消耗的空间是固定的,与统计的元素数量无关,但误差率与所消耗的空间成反比。
- HyperLogLog适用于基数较大的集合,但不适用于极小的集合。
- PFADD、PFCOUNT和PFMERGE命令只能在Redis 2.8.9以上版本中使用。
4. 应用场景
HyperLogLog广泛应用于大数据场景中的网站流量分析、广告点击率统计、数据抽样等方面。由于其高效率和精确度,已成为处理大规模数据的首选算法之一。
HyperLogLog是Redis中的一个非常实用的数据结构,可以帮助我们高效地进行基数统计和去重。通过对其用法和注意事项的了解,可以更好地应用于实际的业务场景中,实现数据的高效处理和统计分析。