之前v6.5.8碰到这个问题:tikv时延上升,伴随region-size从平均100MB涨至30GB
上述问题触发的原因是反复覆盖写juicefs文件,对应会更新juicefs元数据的chunk的value,value值是不停append的slice
升级到v8.5.3依然存在这个问题
clinic采集的信息:
TiDB Clinic
之前v6.5.8碰到这个问题:tikv时延上升,伴随region-size从平均100MB涨至30GB
上述问题触发的原因是反复覆盖写juicefs文件,对应会更新juicefs元数据的chunk的value,value值是不停append的slice
升级到v8.5.3依然存在这个问题
clinic采集的信息:
TiDB Clinic
感觉是 GC 问题。Ref TiKV 最佳实践 | JuiceFS Document Center
juicefs默认是gc 3小时前的数据,这段时间确实是没有gc。即便一个region只有一条有效数据,是不是也应该要split?还是说这些数据需要gc,所以就不再split?
单个 key 是无法再 split 的,因为 Region 起止范围只到 key 这块,没有后边的 mvcc 版本号
已升级到 v8.5.3,建议调小 GC 设置,适当调小这些 GC compaction 相关参数的值 https://docs.pingcap.com/zh/tidb/stable/tikv-configuration-file/#gcauto-compaction
还有你装 tidb 节点了吗,虽然是 rawkv,但是 tidb 集群 gc 还是要 tidb 节点的,得装一个 tidb 节点
只能做表重建
没装tidb节点,有单独拉起来一个进程调用 GC()
问了一下研发人员:同一个key不能跨region,否则无法寻址
此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。