QueryNode的替换过于缓慢,请问如何加速? #38866
-
在2.5.2 cluster上,有6个query node,每个node 30 core,240GB memory。 由于各种原因,每个query node的sealed segment有12000-14000,growing segment也有6000-7000。 请问该如何加速? 目前我只能调整加速compaction,尽量减少segment数目。以及增加更多的query node,让每个query node承担较少的channel和segment。 |
Beta Was this translation helpful? Give feedback.
Replies: 2 comments 4 replies
-
把这两个改高,提高读取数据的并行数量,如果太高的话有可能触发s3的限流
|
Beta Was this translation helpful? Give feedback.
-
另外,这两个参数决定了,query node和index node处理”杂活“时的thread pool大小是吗?所以我提高这两个参数值,仅仅会提高读取S3数据的并行度吗,还会影响其他任务吗?谢谢。 |
Beta Was this translation helpful? Give feedback.
其实就是一个query node停止了,它之前所load的那些segments,要换成其他query nodes去load。所以就是其他query nodes去s3上把那些segments的数据读出来。common.threadCoreCoefficient.middlePriority是设置一个倍数,即节点的cpu核数的倍数,作为这个节点load pool的线程数。每个segment里可能有多个文件,不同的文件用不同的线程读。如果并行的数量多了,有可能会触发s3限流。