ClickHouse常见问题排查与解决(一)

Java技术债务

共 1488字,需浏览 3分钟

 ·

2022-02-25 08:42

1、Table is in readonly mode (zookeeper path: /clickhouse/tables/iov/t_fault/2)

异常说明

表示Zookeeper压力过大,表处于只读状态,导致插入失败

    •分析问题

    Zookeeper压力过大原因分析:

写入数据以及频率过高集群中出现Zookeeper节点挂掉,导致压力过大

    •解决方案:

在zookeeper中将dataLogDir存放目录应该与dataDir分开,可单独采用一套存储设备来存放ZK日志。做好zookeeper集群和clickhouse集群的规划,可以多套zookeeper集群服务一套clickhouse集群。保证Zookeeper集群高可用




2、Replica /clickhouse/tables/s1/dwd/xxxx/replicas/dt_fault already exists

异常说明

    删除表 ZK replicas未同步

    •分析问题

    表的元信息会保存到Zookeeper节点上,删除副本以及本地表后,客户端未显示表,但是Zookeeper中的元信息未同步删除,即会出现异常。

    •解决方案

    •删除本地表后等待若干时间(根据经验得大概5分钟),再删除副本(分布式表)    •可以登录ClickHouse服务器进行删除

3、数据写入成功,但是数据库并不存在数据

•  问题说明

    表引擎是MergeTree或者ReplicateMergeTree,所以不存在数据被合并掉。

order by字段包括四个,并且时间在中间,比如:id,name,time,type

    •分析问题

    根据Arthas(是一个Java诊断工具,由阿里巴巴中间件团队开源。它在开发人员中被广泛采用和流行。)一些手段查询到方法的入参以及方法栈的执行情况得知,数据确实入库。

比如同一时刻入参有三条数据进行入库,查询表只有两条数据。

• 第一种猜测

    数据重复导致ClickHouse对重复数据进行幂等性操作,进而把重复数据删除。或者会被ClickH忽略掉此次insert

618592a5daa78aece629365385424998.webp

    大概意思是说已经有一个一模一样的数据块了。另外ck没有事务概念,但是为了保证重复插入的insert的幂等性,会检测重复,如果重复则跳过。

    本地测验重复数据会部分保留在数据库,部分被删除。

    • 第二种猜测

     怀疑order by排序字段位置不合理




解决方案

1.如果想保存重复数据,两种解决办法

    关闭幂等性校验。SET insert_deduplicate=0    增加一个或者多个冗余字段,保证每条数据不相同 2. 创建表时,order by字段是必须的,但是合理安排order by字段,时间放在所有字段的后边。比如:name,code,type,time等。


4、查询时(非MergeTree表引擎),查出多条重复数据

• 问题说明

    表引擎为:ReplicatedReplacingMergeTree

    select * from A join B A.id=B.id

• 分析问题

    表引擎ReplacingMergeTree一个特性就是:去重;但是不保证过程的数据一致性,只能保证数据最终的一致性。如果数据出现更新的话,查询的时候可能会查询出来多条重复数据。

•  解决方案

    查询数据时,在表名后边加上关键字 final ,保证数据唯一性。


浏览 148
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报