sql >> Databasteknik >  >> NoSQL >> MongoDB

hur sparar man dataframe i mongodb med pyspark?

Ett effektivt sätt att skriva till mongodb från pyspark är att använda MongoDB Spark Connector . Connector konverterar data till BSON-format och sparar dem till mongodb. Låt oss säga att du har en sparkdataram som heter df som du vill spara i mongodb. Du kan prova:

from pyspark.sql import SparkSession, SQLContext
from pyspark import SparkConf, SparkContext
sc = SparkContext()
spark = SparkSession(sc)   


df.write.format("com.mongodb.spark.sql.DefaultSource").mode("append").option("spark.mongodb.output.uri","mongodb://username:[email protected]_details:27017/db_name.collection_name?authSource=admin").save()

Om du använder anteckningsbok skriv detta överst-

%%configure
{"conf": {"spark.jars.packages": "org.mongodb.spark:mongo-spark-connector_2.11:2.3.2"}}

Om du använder kommandot spark-submit:

spark-submit --conf spark.pyspark.python=/usr/bin/anaconda/envs/py35/bin/python3.5 --packages org.mongodb.spark:mongo-spark-connector_2.11:2.3.1 file_name.py


  1. Native MongoDB-maskering (tredje metoden)

  2. MongoDB-dokumentverksamheten är atomär och isolerad, men är de konsekventa?

  3. TTL för en uppsättningsmedlem

  4. Ansluter till MongoDB från azurfunktion