TIDB 两个节点内存飙升

1、看着tidb 和pd是同一机型,混合部署,请问pd-leader 和负载低的tidb机器是同一个?

2、看带宽/iops不太高,能否升级下?

3、确实像大佬说的bug,历史我这边有个case,频繁查 infromation_schema 表,导致pd-leader挂掉,集群抖动。PD leader oom

infoschema v2 btree concurrently multiple writes detected, this should be rare

搜一下这条日志,看看有没有什么内容?

我们pd、tidb服务是部署在同一个机器上,不管是否pd-leader,通过进程看tidb服务的内存都会变高。
目前是内存升高方面的问题,和带宽/iops关系不大吧?

没有检索到这个日志

1 个赞

我的问题,这个地方8.5.2才会有这个日志输出,8.5.1是没有的。

我只能说这两个地方的写法,随着子版本的变化,确实不一样。
8.5.2多了一个btreeSet方法。我翻了下是在lighting/br使用过程中可能出现问题。然后加的。
我不确定升级后能不能解决你的问题,但如果没有更好的办法,还是可以尝试一下的。

就是红圈处这个方法。

看下这个变量 tidb_enable_historical_stats的值

内存泄露的那块代码的确发生了改变,的确很难说是否能解决这个问题。

1 个赞


没有开启

好的,感谢大佬,我们评估下这块。