Du kan göra det med --skip
&--limit
alternativ.
Om du till exempel att din samling innehåller 1 000 dokument kan du göra det med en skriptloop (pseudokod):
loops = 100
count = db.collection.count()
batch_size = count / loops
for (i = 0; i < loops; i++) {
mongoexport --skip (batch_size * i) --limit batch_size --out export${i}.json ...
}
Med hänsyn till att dina dokument är ungefär lika stora.
Observera dock att stora överhopp är långsamma.
Nedre gräns iterationer kommer att vara snabbare än övre gräns iterationer.