Min lösning är att dela putback
med en enkel funktion som föreslagits här
:
def chunk(l, n):
n = max(1, n)
return [l[i:i + n] for i in range(0, len(l), n)]
och sedan
for chunk in chunk(putback, 250000):
curs.execute("UPDATE table1
SET col3 = p.result
FROM unnest(%s) p(sid INT, result JSONB)
WHERE sid = p.sid", (chunk,))
Detta fungerar, d.v.s. håller minnesfotavtrycket i schack, men är inte särskilt elegant och långsammare än att dumpa all data på en gång, som jag brukar.