a亚洲精品_精品国产91乱码一区二区三区_亚洲精品在线免费观看视频_欧美日韩亚洲国产综合_久久久久久久久久久成人_在线区

首頁 > 學院 > 編程設計 > 正文

hadoop入門之hadoop集群驗證任務存放在不同的節點上

2020-07-14 13:30:02
字體:
來源:轉載
供稿:網友

Linux環境:CentOs6.4

Hadoop版本:Hadoop-1.1.2

master: 192.168.1.241      NameNode    JobTracker   DataNode   TaskTracker

slave:192.168.1.242    DataNode   TaskTracker

內容:想hadoop文件系統中上傳一個大文件,驗證文件分別分布在192.168.1.241節點和192.168.1.242節點上。

第一步: 前期工作:搭建Hadoop集群,

在hdfs-site.xml中的配置為2.


復制代碼
代碼如下:

<property>
<name>dfs.replication</name>
<value>2</value>
</property>

運行執行start-all.sh命令,運行結果如圖所示:

查看9000和9001的信息

9000是HDFS的入口9001是MapReduce的JobTracker的入口

從以上圖中可以確定Ip地址為192.168.1.241.

第二步:通過網頁查看節點的個數。在瀏覽器中輸入http://localhost:50070

以上看到LiveNodes的個數為2,說明啟動成功。

第三步:上傳大文件。具體步驟如圖所示:

通過網頁查看運行狀況:

大文件已經上傳成功.文件的大小是244.91MBlock的大小是64M。所以每個節點能夠有4個Block。

Replication為2,表明每個Block有2個備份。

查看節點的使用情況:

從圖中可以看出,此文件分成了4個Block。(TotalNumberofblocks:4)。

每個Block在兩個節點上進行了備份,分別是192.168.1.241192.168.1.242

hadoop集群至此測試結束。測試成功。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 免费观看黄a一级视频 | 欧美亚洲日本国产 | 国产精品一区二区三区麻豆 | 成人欧美一区二区三区黑人孕妇 | 久久99影视| 国产日批 | 日韩成人av在线 | 81精品国产乱码久久久久久 | 日本久久二区 | 国产欧美在线观看 | 国产成人精品国内自产拍免费看 | 日本不卡免费新一二三区 | av在线播放网址 | 欧美成人免费观看 | 亚洲精品福利网站 | 精品成人 | 美国一级黄色片 | 91精品动漫在线观看 | 在线观看国产 | 成人在线免费av | 国产综合精品 | 综合天天| 五月激情综合网 | 超碰网址 | 亚洲一区二区三区精品视频 | 日韩手机专区 | 亚洲最新视频在线观看 | 亚洲精品乱码久久久久久 | 特黄网站| 日本天堂在线 | 黄色网址免费在线播放 | 亚洲精品久久久久午夜 | 欧美大片在线免费观看 | 黄色高清网站 | 亚洲精品一区二区网址 | 手机在线观看毛片 | 国产成人精品网站 | 九九热免费精品视频 | 性生生活大片免费看视频 | 欧美欧美欧美 | 久久久一区二区 |