sql >> Databasteknik >  >> NoSQL >> MongoDB

Hur man kan ignorera dubblettnyckelfel på ett säkert sätt med insert_many

Du kan hantera detta genom att inspektera de fel som skapats med BulkWriteError . Detta är faktiskt ett "objekt" som har flera egenskaper. De intressanta delarna finns i details :

import pymongo
from bson.json_util import dumps
from pymongo import MongoClient
client = MongoClient()
db = client.test

collection = db.duptest

docs = [{ '_id': 1 }, { '_id': 1 },{ '_id': 2 }]


try:
  result = collection.insert_many(docs,ordered=False)

except pymongo.errors.BulkWriteError as e:
  print e.details['writeErrors']

Vid en första körning kommer detta att ge en lista över fel under e.details['writeErrors'] :

[
  { 
    'index': 1,
    'code': 11000, 
    'errmsg': u'E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 1 }', 
    'op': {'_id': 1}
  }
]

Vid en andra körning ser du tre fel eftersom alla objekt fanns:

[
  {
    "index": 0,
    "code": 11000,
    "errmsg": "E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 1 }", 
    "op": {"_id": 1}
   }, 
   {
     "index": 1,
     "code": 11000,
     "errmsg": "E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 1 }",
     "op": {"_id": 1}
   },
   {
     "index": 2,
     "code": 11000,
     "errmsg": "E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 2 }",
     "op": {"_id": 2}
   }
]

Så allt du behöver göra är att filtrera arrayen för poster med "code": 11000 och sedan bara "panik" när något annat finns där

panic = filter(lambda x: x['code'] != 11000, e.details['writeErrors'])

if len(panic) > 0:
  print "really panic"

Det ger dig en mekanism för att ignorera de dubbla nyckelfelen men naturligtvis uppmärksamma något som faktiskt är ett problem.



  1. MongoDB - Ta bort ett dokument

  2. MongoDB $atan2

  3. hur använder man nestjs redis microservice?

  4. Expire time express och redis session