ClickHouse常见问题排查与解决(一)
共 1488字,需浏览 3分钟
·
2022-02-25 08:42
1、Table is in readonly mode (zookeeper path: /clickhouse/tables/iov/t_fault/2)
•异常说明
表示Zookeeper压力过大,表处于只读状态,导致插入失败
•分析问题
Zookeeper压力过大原因分析:
•写入数据以及频率过高•集群中出现Zookeeper节点挂掉,导致压力过大
•解决方案:
•在zookeeper中将dataLogDir存放目录应该与dataDir分开,可单独采用一套存储设备来存放ZK日志。•做好zookeeper集群和clickhouse集群的规划,可以多套zookeeper集群服务一套clickhouse集群。保证Zookeeper集群高可用
2、Replica /clickhouse/tables/s1/dwd/xxxx/replicas/dt_fault already exists
•异常说明
删除表 ZK replicas未同步
•分析问题
表的元信息会保存到Zookeeper节点上,删除副本以及本地表后,客户端未显示表,但是Zookeeper中的元信息未同步删除,即会出现异常。
•解决方案
•删除本地表后等待若干时间(根据经验得大概5分钟),再删除副本(分布式表) •可以登录ClickHouse服务器进行删除
3、数据写入成功,但是数据库并不存在数据
• 问题说明
表引擎是MergeTree或者ReplicateMergeTree,所以不存在数据被合并掉。
order by字段包括四个,并且时间在中间,比如:id,name,time,type
•分析问题
根据Arthas(是一个Java诊断工具,由阿里巴巴中间件团队开源。它在开发人员中被广泛采用和流行。)一些手段查询到方法的入参以及方法栈的执行情况得知,数据确实入库。
比如同一时刻入参有三条数据进行入库,查询表只有两条数据。
• 第一种猜测
数据重复导致ClickHouse对重复数据进行幂等性操作,进而把重复数据删除。或者会被ClickH忽略掉此次insert
大概意思是说已经有一个一模一样的数据块了。另外ck没有事务概念,但是为了保证重复插入的insert的幂等性,会检测重复,如果重复则跳过。
本地测验重复数据会部分保留在数据库,部分被删除。
• 第二种猜测
怀疑order by排序字段位置不合理
•解决方案
1.如果想保存重复数据,两种解决办法
关闭幂等性校验。SET insert_deduplicate=0 增加一个或者多个冗余字段,保证每条数据不相同 2. 创建表时,order by字段是必须的,但是合理安排order by字段,时间放在所有字段的后边。比如:name,code,type,time等。
4、查询时(非MergeTree表引擎),查出多条重复数据
• 问题说明
表引擎为:ReplicatedReplacingMergeTree
select * from A join B A.id=B.id
• 分析问题
表引擎ReplacingMergeTree一个特性就是:去重;但是不保证过程的数据一致性,只能保证数据最终的一致性。如果数据出现更新的话,查询的时候可能会查询出来多条重复数据。
• 解决方案
查询数据时,在表名后边加上关键字 final ,保证数据唯一性。