tldr utilizzare ILM di gestire questo per voi e per impostare un frammento di dimensioni di qualche parte tra 30-50 GB, e lasciare gestire tutto questo per voi
la risposta è più che non gli indici che sono il problema, è schegge
ad esempio, se si utilizza 10 indici con 1 principale e 1 replica shard, e che 500K di eventi è di 500MB, quindi hai 20 frammenti con 25 MB di dati in loro. le risorse - heap, è impegnativo - che Elasticsearch deve gestire questi è lo stesso come se fosse lo stesso shard e indice di conte, ma con 50 GB di dati in ogni shard
la dimensione consigliata di frammenti è di 30-50 GB, ma che dipende dal caso d'uso e un sacco di altre cose, come i cluster di dimensionamento, query e indicizzazione dei contratti di servizio e di più. per la maggior parte la registrazione di casi d'uso, 50 GB è un buon equilibrio tra la densità e la reattività