tikv 主机磁盘被占满了,已drop表,但无法自动恢复怎么解决

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】
v4.0.9
【问题描述】


若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

1.有几个 tikv 节点磁盘满了?
2. 集群中一共有几个 tikv 节点?
3. 删除一些日志之类的是否可以先释放空间出来,让 tikv 启动起来,然后扩容 tikv 节点。

1个满了,一共3个,已删除tiflash日志,tiflash日志过多导致的磁盘空间占满

删除之后,tikv 可以正常启动了么?
目前集群正常么?

可以启动,不过在那之前我scale了那台tikv,目前处于下线中的状态

如果只有 3 个 tikv 节点的话,那这个节点会一直处于下线状态中,因为下线 TiKV 节点的需要在别的节点上补副本后,将下线节点上的副本迁移走,但是因为默认不会将一个 region 的两个副本调度到同一个 tikv 实例上,所以 3 个 tikv 节点下线一个节点的时候,会一直处于下线状态。
这个可以考虑临时扩一个节点,让下线节点能够完成下线操作后重新将这个节点扩容回来。

可以参考下这个

好的谢谢,已按照建议处理方法解决

:handshake::handshake::handshake:

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。