sql >> Databasteknik >  >> NoSQL >> MongoDB

Matcha ObjectId till String för $graphLookup

Du använder för närvarande en utvecklingsversion av MongoDB som har vissa funktioner aktiverade som förväntas släppas med MongoDB 4.0 som en officiell version. Observera att vissa funktioner kan komma att ändras innan den slutliga utgåvan, så produktionskoden bör vara medveten om detta innan du förbinder dig till det.

Varför $convert misslyckas här

Förmodligen det bästa sättet att förklara detta är att titta på ditt ändrade prov men ersätta med ObjectId värden för _id och "strängar" för de under arrayerna:

{
  "_id" : ObjectId("5afe5763419503c46544e272"),
   "name" : "cinco",
   "children" : [ { "_id" : "5afe5763419503c46544e273" } ]
},
{
  "_id" : ObjectId("5afe5763419503c46544e273"),
  "name" : "quatro",
  "ancestors" : [ { "_id" : "5afe5763419503c46544e272" } ],
  "children" : [ { "_id" : "5afe5763419503c46544e277" } ]
},
{ 
  "_id" : ObjectId("5afe5763419503c46544e274"),
  "name" : "seis",
  "children" : [ { "_id" : "5afe5763419503c46544e277" } ]
},
{ 
  "_id" : ObjectId("5afe5763419503c46544e275"),
  "name" : "um",
  "children" : [ { "_id" : "5afe5763419503c46544e276" } ]
}
{
  "_id" : ObjectId("5afe5763419503c46544e276"),
  "name" : "dois",
  "ancestors" : [ { "_id" : "5afe5763419503c46544e275" } ],
  "children" : [ { "_id" : "5afe5763419503c46544e277" } ]
},
{ 
  "_id" : ObjectId("5afe5763419503c46544e277"),
  "name" : "três",
  "ancestors" : [
    { "_id" : "5afe5763419503c46544e273" },
    { "_id" : "5afe5763419503c46544e274" },
    { "_id" : "5afe5763419503c46544e276" }
  ]
},
{ 
  "_id" : ObjectId("5afe5764419503c46544e278"),
  "name" : "sete",
  "children" : [ { "_id" : "5afe5763419503c46544e272" } ]
}

Det borde ge en generell simulering av vad du försökte arbeta med.

Det du försökte var att konvertera _id värde till en "sträng" via $project innan du anger $graphLookup skede. Anledningen till att detta misslyckas är när du gjorde ett första $project "inom" denna pipeline är problemet att källan för $graphLookup i "from" alternativet är fortfarande den oförändrade samlingen och därför får du inte de korrekta detaljerna vid de efterföljande "uppslagnings"-upprepningarna.

db.strcoll.aggregate([
  { "$match": { "name": "três" } },
  { "$addFields": {
    "_id": { "$toString": "$_id" }
  }},
  { "$graphLookup": {
    "from": "strcoll",
    "startWith": "$ancestors._id",
    "connectFromField": "ancestors._id",
    "connectToField": "_id",
    "as": "ANCESTORS_FROM_BEGINNING"
  }},
  { "$project": {
    "name": 1,
    "ANCESTORS_FROM_BEGINNING": "$ANCESTORS_FROM_BEGINNING._id"
  }}
])

Stämmer inte på "uppslagningen" därför:

{
        "_id" : "5afe5763419503c46544e277",
        "name" : "três",
        "ANCESTORS_FROM_BEGINNING" : [ ]
}

"Lättar" problemet

Det är dock kärnproblemet och inte ett misslyckande med $convert eller så är det alias. För att få detta att fungera kan vi istället skapa en "vy" som presenterar sig som en samling för inputens skull.

Jag gör det här tvärtom och konverterar "strängarna" till ObjectId via $toObjectId :

db.createView("idview","strcoll",[
  { "$addFields": {
    "ancestors": {
      "$ifNull": [ 
        { "$map": {
          "input": "$ancestors",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    },
    "children": {
      "$ifNull": [
        { "$map": {
          "input": "$children",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    }
  }}
])

Att använda "vyn" innebär dock att data konsekvent ses med de konverterade värdena. Så följande sammanställning med vyn:

db.idview.aggregate([
  { "$match": { "name": "três" } },
  { "$graphLookup": {
    "from": "idview",
    "startWith": "$ancestors._id",
    "connectFromField": "ancestors._id",
    "connectToField": "_id",
    "as": "ANCESTORS_FROM_BEGINNING"
  }},
  { "$project": {
    "name": 1,
    "ANCESTORS_FROM_BEGINNING": "$ANCESTORS_FROM_BEGINNING._id"
  }}
])

Returnerar det förväntade resultatet:

{
    "_id" : ObjectId("5afe5763419503c46544e277"),
    "name" : "três",
    "ANCESTORS_FROM_BEGINNING" : [
        ObjectId("5afe5763419503c46544e275"),
        ObjectId("5afe5763419503c46544e273"),
        ObjectId("5afe5763419503c46544e274"),
        ObjectId("5afe5763419503c46544e276"),
        ObjectId("5afe5763419503c46544e272")
    ]
}

Åtgärdar problemet

Med allt detta sagt är det verkliga problemet här att du har vissa data som "ser ut som" ett ObjectId värde och är faktiskt giltigt som ett ObjectId , men det har spelats in som en "sträng". Den grundläggande frågan för att allt fungerar som det ska är att de två "typerna" inte är desamma och detta resulterar i en jämlikhetsfel när man försöker "ansluta sig".

Så den verkliga fixen är fortfarande densamma som den alltid har varit, vilket är att istället gå igenom data och fixa den så att "strängarna" faktiskt också är ObjectId värden. Dessa matchar sedan _id nycklar som de är avsedda att referera till, och du sparar en avsevärd mängd lagringsutrymme eftersom ett ObjectId tar upp mycket mindre utrymme att lagra än dess strängrepresentation med hexadecimala tecken.

Genom att använda MongoDB 4.0-metoder "kunde" använder faktiskt "$toObjectId" för att kunna skriva en ny samling, precis i ungefär samma sak som vi skapade "vyn" tidigare:

db.strcoll.aggregate([
  { "$addFields": {
    "ancestors": {
      "$ifNull": [ 
        { "$map": {
          "input": "$ancestors",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    },
    "children": {
      "$ifNull": [
        { "$map": {
          "input": "$children",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    }
  }}
  { "$out": "fixedcol" }
])

Eller naturligtvis där du "behöver" behålla samma samling, då förblir den traditionella "loop and update" densamma som det som alltid har krävts:

var updates = [];

db.strcoll.find().forEach(doc => {
  var update = { '$set': {} };

  if ( doc.hasOwnProperty('children') )
    update.$set.children = doc.children.map(e => ({ _id: new ObjectId(e._id) }));
  if ( doc.hasOwnProperty('ancestors') )
    update.$set.ancestors = doc.ancestors.map(e => ({ _id: new ObjectId(e._id) }));

  updates.push({
    "updateOne": {
      "filter": { "_id": doc._id },
      update
    }
  });

  if ( updates.length > 1000 ) {
    db.strcoll.bulkWrite(updates);
    updates = [];
  }

})

if ( updates.length > 0 ) {
  db.strcoll.bulkWrite(updates);
  updates = [];
}

Vilket faktiskt är lite av en "slägga" på grund av att man faktiskt skriver över hela arrayen på en gång. Ingen bra idé för en produktionsmiljö, men tillräckligt som en demonstration för syftet med denna övning.

Slutsats

Så även om MongoDB 4.0 kommer att lägga till dessa "casting"-funktioner som verkligen kan vara mycket användbara, är deras egentliga avsikt inte riktigt för fall som detta. De är i själva verket mycket mer användbara, vilket visas i "konverteringen" till en ny samling med hjälp av en aggregeringspipeline än de flesta andra möjliga användningsområden.

Medan vi "kan" skapa en "vy" som omvandlar datatyperna för att möjliggöra saker som $lookup och $graphLookup för att fungera där den faktiska insamlingsdatan skiljer sig är detta egentligen bara ett "plåster" på det verkliga problemet eftersom datatyperna egentligen inte borde skilja sig åt, och de borde faktiskt konverteras permanent.

Att använda en "vy" betyder faktiskt att aggregeringspipelinen för byggandet effektivt måste köras varje gång "samlingen" (egentligen en "vy") nås, vilket skapar en rejäl overhead.

Att undvika overhead är vanligtvis ett designmål, därför är det absolut nödvändigt att korrigera sådana datalagringsmisstag för att få verklig prestanda ur din applikation, snarare än att bara arbeta med "brute force" som bara saktar ner saker och ting.

Ett mycket säkrare "konverterings"-skript som tillämpade "matchade" uppdateringar på varje matriselement. Koden här kräver NodeJS v10.x och en senaste version av MongoDB noddrivrutin 3.1.x:

const { MongoClient, ObjectID: ObjectId } = require('mongodb');
const EJSON = require('mongodb-extended-json');

const uri = 'mongodb://localhost/';

const log = data => console.log(EJSON.stringify(data, undefined, 2));

(async function() {

  try {

    const client = await MongoClient.connect(uri);
    let db = client.db('test');
    let coll = db.collection('strcoll');

    let fields = ["ancestors", "children"];

    let cursor = coll.find({
      $or: fields.map(f => ({ [`${f}._id`]: { "$type": "string" } }))
    }).project(fields.reduce((o,f) => ({ ...o, [f]: 1 }),{}));

    let batch = [];

    for await ( let { _id, ...doc } of cursor ) {

      let $set = {};
      let arrayFilters = [];

      for ( const f of fields ) {
        if ( doc.hasOwnProperty(f) ) {
          $set = { ...$set,
            ...doc[f].reduce((o,{ _id },i) =>
              ({ ...o, [`${f}.$[${f.substr(0,1)}${i}]._id`]: ObjectId(_id) }),
              {})
          };

          arrayFilters = [ ...arrayFilters,
            ...doc[f].map(({ _id },i) =>
              ({ [`${f.substr(0,1)}${i}._id`]: _id }))
          ];
        }
      }

      if (arrayFilters.length > 0)
        batch = [ ...batch,
          { updateOne: { filter: { _id }, update: { $set }, arrayFilters } }
        ];

      if ( batch.length > 1000 ) {
        let result = await coll.bulkWrite(batch);
        batch = [];
      }

    }

    if ( batch.length > 0 ) {
      log({ batch });
      let result = await coll.bulkWrite(batch);
      log({ result });
    }

    await client.close();

  } catch(e) {
    console.error(e)
  } finally {
    process.exit()
  }

})()

Producerar och utför bulkoperationer som dessa för de sju dokumenten:

{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e272"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e273"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e273"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e273"
      }
    },
    "update": {
      "$set": {
        "ancestors.$[a0]._id": {
          "$oid": "5afe5763419503c46544e272"
        },
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e277"
        }
      }
    },
    "arrayFilters": [
      {
        "a0._id": "5afe5763419503c46544e272"
      },
      {
        "c0._id": "5afe5763419503c46544e277"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e274"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e277"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e277"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e275"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e276"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e276"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e276"
      }
    },
    "update": {
      "$set": {
        "ancestors.$[a0]._id": {
          "$oid": "5afe5763419503c46544e275"
        },
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e277"
        }
      }
    },
    "arrayFilters": [
      {
        "a0._id": "5afe5763419503c46544e275"
      },
      {
        "c0._id": "5afe5763419503c46544e277"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e277"
      }
    },
    "update": {
      "$set": {
        "ancestors.$[a0]._id": {
          "$oid": "5afe5763419503c46544e273"
        },
        "ancestors.$[a1]._id": {
          "$oid": "5afe5763419503c46544e274"
        },
        "ancestors.$[a2]._id": {
          "$oid": "5afe5763419503c46544e276"
        }
      }
    },
    "arrayFilters": [
      {
        "a0._id": "5afe5763419503c46544e273"
      },
      {
        "a1._id": "5afe5763419503c46544e274"
      },
      {
        "a2._id": "5afe5763419503c46544e276"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5764419503c46544e278"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e272"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e272"
      }
    ]
  }
}



  1. Geospatialt stöd i MongoDB

  2. Hur man hanterar stora databaser effektivt

  3. Hur man begränsar antalet uppdateringsdokument i mongodb

  4. TransactionRequiredException Kör en uppdatering/raderingsfråga