Rader per tabell kommer inte att vara ett problem i sig.
Så grovt sett är 1 miljon rader om dagen i 90 dagar 90 miljoner rader. Jag ser ingen anledning till att Postgres inte kan hantera det utan att känna till alla detaljer om vad du gör.
Beroende på din datadistribution kan du använda en blandning av index, filtrerade index och tabellpartitionering av något slag för att snabba upp det när du väl ser vilka prestandaproblem du kanske har eller inte. Ditt problem kommer att vara detsamma på alla andra RDMS som jag känner till. Om du bara behöver 3 månaders datadesign i en process för att beskära data behöver du inte längre. På så sätt kommer du att ha en konsekvent mängd data på bordet. Din tur att du vet hur mycket data som kommer att finnas, testa den för din volym och se vad du får. Att testa en tabell med 90 miljoner rader kan vara så enkelt som:
select x,1 as c2,2 as c3
from generate_series(1,90000000) x;
https://wiki.postgresql.org/wiki/FAQ a>
Limit Value
Maximum Database Size Unlimited
Maximum Table Size 32 TB
Maximum Row Size 1.6 TB
Maximum Field Size 1 GB
Maximum Rows per Table Unlimited
Maximum Columns per Table 250 - 1600 depending on column types
Maximum Indexes per Table Unlimited