tldr usar ILM para gerenciar isso para você e conjunto de um fragmento de tamanho de algo entre 30-50 GB, e deixar ele gerenciar tudo isso para você
a resposta mais longa é que não são índices que são o problema, é cacos
por exemplo, se você usar 10 índices com 1 principal e 1 réplica caco, e que 500K de eventos é de 500MB, então você tem 20 fragmentos com 25 MB de dados. os recursos de pilha, CPU que Elasticsearch precisa para gerenciar esses é o mesmo como se você tivesse o mesmo caco e índice de contagem, mas com 50 gb de dados em cada fragmento
o tamanho recomendado de fragmentos é de 30-50 GB, mas que depende de caso de uso e um monte de outras coisas como cluster de dimensionamento, de consulta e indexação de SLAs e muito mais. para a maioria de registo de casos de uso, 50GB é um bom equilíbrio entre a densidade e a capacidade de resposta