从微博到抖音:粉丝列表分页查询的5个性能优化冷知识(附压测数据)

张开发
2026/4/16 7:17:14 15 分钟阅读

分享文章

从微博到抖音:粉丝列表分页查询的5个性能优化冷知识(附压测数据)
从微博到抖音粉丝列表分页查询的5个性能优化冷知识附压测数据社交产品的核心功能之一就是展示用户的关注关系无论是微博的粉丝列表还是抖音的关注列表这些看似简单的功能背后隐藏着复杂的性能挑战。当用户量达到亿级尤其是遇到明星账号突然爆红的情况分页查询的性能问题会瞬间暴露无遗。本文将分享5个鲜为人知但极其有效的优化技巧这些方法已经在多个头部社交产品中验证过效果。1. 热点用户的分片隔离策略几乎所有社交平台都会遇到二八定律——20%的用户产生了80%的流量。当某个明星发布动态或参与热门活动时其粉丝列表的查询量可能激增数百倍。传统的分片策略在这种情况下会面临严峻挑战。我们曾对一个拥有5000万粉丝的测试账号进行压测发现当采用常规哈希分片时QPS每秒查询量在峰值时会从正常的2000骤降到不足300。问题出在分片的热点集中——所有查询都指向同一个分片节点。解决方案动态识别热点用户粉丝数超过阈值或查询频次异常为热点用户创建独立分片甚至单独的数据节点采用冷热分离架构将历史粉丝数据与新增粉丝数据分开存储-- 动态迁移热点用户数据示例 BEGIN TRANSACTION; INSERT INTO hot_user_follower SELECT * FROM follower_shard_3 WHERE user_id star_user123; DELETE FROM follower_shard_3 WHERE user_id star_user123; COMMIT;压测数据显示这种策略可以使热点用户的查询延迟降低60%同时避免对普通用户查询造成影响。2. 增量更新与合并查询的巧妙结合粉丝列表的一个特点是新增关注通常展示在最前面。我们发现90%的查询都集中在最近3页数据约30条记录。基于这个观察可以设计双层存储策略增量存储Redis Sorted Set保存最近1000个关注关系Key: user:{user_id}:recent_followersScore: 关注时间戳Value: 粉丝用户ID全量存储分片数据库保存完整关注关系查询优化流程先查询Redis获取最近N条记录如果需要更多数据再查询数据库合并结果并返回提示设置合理的TTL如1小时来自动淘汰旧数据避免Sorted Set过大我们对比了三种方案的性能方案平均延迟(ms)峰值QPS缓存命中率纯DB查询7812000%纯缓存128500100%混合方案15680092%混合方案在保证高性能的同时也确保了数据一致性。3. 智能预加载与分页缓存传统的分页查询LIMIT offset, size在offset很大时性能急剧下降。我们测试发现当offset超过1000时查询延迟呈指数级增长offset100: 5ms offset1000: 28ms offset10000: 352ms优化方案使用游标分页替代传统分页预判用户浏览行为提前加载下一页对固定页码的结果进行缓存def get_followers(user_id, cursorNone, size20): if cursor: # 使用游标查询 followers db.execute( SELECT * FROM followers WHERE user_id? AND id? ORDER BY id DESC LIMIT ?, user_id, cursor, size ) else: # 第一页查询 followers db.execute( SELECT * FROM followers WHERE user_id? ORDER BY id DESC LIMIT ?, user_id, size ) # 设置下一页游标 next_cursor followers[-1][id] if followers else None return followers, next_cursor实际应用中结合以下策略效果更佳对前5页进行独立缓存实现无限滚动时采用窗口化查询对热门分页如第1页设置更长的缓存时间4. 元数据与详情分离的架构设计粉丝列表页面通常需要展示两类数据粉丝关系元数据谁关注了谁用户详细信息头像、昵称等常见的问题是N1查询——先查关系列表再为每个用户查详情。当分页大小为20时这意味着21次查询。优化方案批量查询用户详情多级缓存策略异步加载非关键信息// 批量查询示例 public ListFollowerInfo getFollowerDetails(ListLong followerIds) { // 第一级本地缓存 ListFollowerInfo result checkLocalCache(followerIds); ListLong missingIds findMissingIds(followerIds, result); if (!missingIds.isEmpty()) { // 第二级Redis缓存 ListFollowerInfo redisResults checkRedisCache(missingIds); result.addAll(redisResults); missingIds findMissingIds(missingIds, redisResults); if (!missingIds.isEmpty()) { // 第三级数据库批量查询 ListFollowerInfo dbResults batchQueryFromDB(missingIds); result.addAll(dbResults); // 异步回填缓存 asyncFillCache(dbResults); } } return result; }性能对比数据方案查询次数平均延迟峰值内存N1查询21320ms低批量查询285ms中带缓存的批量查询1-245ms高5. 冷热数据分离与压缩存储对于粉丝数超过10万的用户其粉丝列表存在明显的冷热数据特征热数据最近6个月活跃的粉丝冷数据长期不活跃的粉丝我们设计了一套自动分级存储系统热数据存储存储介质内存数据库数据结构有序集合保留策略最近6个月有互动的粉丝冷数据存储存储介质列式存储数据库压缩算法Delta ZigZag编码查询方式批量扫描存储格式示例用户ID: 12345678 粉丝列表: 热数据: [1001,1003,1005...](Redis ZSET) 冷数据: base: 1000 deltas: [1,3,5...](压缩存储)压测结果显示这种设计可以节省60%的存储空间同时保持90%的查询在50ms内完成。对于历史数据查询如查看全部粉丝采用异步导出方式避免影响主流程性能。

更多文章