a亚洲精品_精品国产91乱码一区二区三区_亚洲精品在线免费观看视频_欧美日韩亚洲国产综合_久久久久久久久久久成人_在线区

首頁 > 數據庫 > MongoDB > 正文

Spark整合Mongodb的方法

2020-03-14 12:51:19
字體:
來源:轉載
供稿:網友

Spark介紹

按照官方的定義,Spark 是一個通用,快速,適用于大規模數據的處理引擎。

通用性:我們可以使用Spark SQL來執行常規分析, Spark Streaming 來流數據處理, 以及用Mlib來執行機器學習等。Java,python,scala及R語言的支持也是其通用性的表現之一。

快速: 這個可能是Spark成功的最初原因之一,主要歸功于其基于內存的運算方式。當需要處理的數據需要反復迭代時,Spark可以直接在內存中暫存數據,而無需像Map Reduce一樣需要把數據寫回磁盤。官方的數據表明:它可以比傳統的Map Reduce快上100倍。

大規模:原生支持HDFS,并且其計算節點支持彈性擴展,利用大量廉價計算資源并發的特點來支持大規模數據處理。

環境準備

mongodb下載

解壓安裝

啟動mongodb服務

$MONGODB_HOME/bin/mongod --fork --dbpath=/root/data/mongodb/ --logpath=/root/data/log/mongodb/mongodb.log

pom依賴

<dependency> <groupId>org.mongodb.spark</groupId> <artifactId>mongo-spark-connector_2.11</artifactId> <version>${spark.version}</version> </dependency>

實例代碼

object ConnAppTest { def main(args: Array[String]): Unit = { val spark = SparkSession.builder() .master("local[2]") .appName("ConnAppTest") .config("spark.mongodb.input.uri", "mongodb://192.168.31.136/testDB.testCollection") // 指定mongodb輸入 .config("spark.mongodb.output.uri", "mongodb://192.168.31.136/testDB.testCollection") // 指定mongodb輸出 .getOrCreate() // 生成測試數據 val documents = spark.sparkContext.parallelize((1 to 10).map(i => Document.parse(s"{test: $i}"))) // 存儲數據到mongodb MongoSpark.save(documents) // 加載數據 val rdd = MongoSpark.load(spark) // 打印輸出 rdd.show } }

總結

以上所述是小編給大家介紹的Spark整合Mongodb的方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對VEVB武林網網站的支持!

 

注:相關教程知識閱讀請移步到MongoDB頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 久久国产精品久久 | 亚洲精品影院 | 黄a免费| 91亚洲精华国产精华精华液 | 精品一区二区在线观看 | 午夜精品久久久久久久99黑人 | 久久精品这里热有精品 | 欧美日韩精品一区二区 | 色丁香在线 | 青青成人| 三级在线观看 | 制服 丝袜 激情 欧洲 亚洲 | 99精品不卡| 中文在线a在线 | 久久久男人天堂 | 亚洲国产精品视频 | 欧美 日韩 国产 成人 在线 | 一区二区在线免费观看 | 亚洲精品一区二区三区蜜桃久 | 亚洲欧美激情精品一区二区 | 成人午夜免费视频 | 亚洲精品在线国产 | 中文不卡在线 | 日本久久网 | 毛片免费观看视频 | 亚洲黄色性视频 | 成人三级黄色片 | 国产精品久久久久久福利一牛影视 | 欧美精品一区二区三区一线天视频 | 国产l精品国产亚洲区久久 国产suv精品一区 | 亚洲国产一区二区在线 | 探花 在线 | 亚洲欧洲一区二区 | 精品国产一区二区三区在线观看 | 九九免费视频 | 久久久久久久久国产精品 | 日韩中文在线视频 | 国产高清免费视频 | 日本一本不卡 | 在线观看不卡一区 | 在线免费一级片 |