這篇文章給大家分享的是有關hadoop中如何解決java.io.IOException: Bad connect ack with firstBad問題的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
為通川等地區用戶提供了全套網頁設計制作服務,及通川網站建設行業解決方案。主營業務為成都網站制作、成都網站設計、外貿營銷網站建設、通川網站設計,以傳統方式定制建設網站,并提供域名空間備案等一條龍服務,秉承以專業、用心的態度為用戶提供真誠的服務。我們深信只要達到每一位用戶的要求,就會得到認可,從而選擇與我們長期合作。這樣,我們也可以走得更遠!
[hadoop
@master ~]$
touch bigfile.tar
[hadoop
@master ~]$
cat hadoop-2.5.2.tar.gz >> bigfile.tar
[hadoop
@master ~]$ touch bigfile.tarcat
[hadoop
@master ~]$
[hadoop
@master ~]$
[hadoop@master ~]$
cat hadoop-2.5.2.tar.gz >> bigfile.tar
[hadoop@master ~]$
hadoop fs -put bigfile.tar / 上傳文件到遠程目錄(/)下
15/12/03 00:57:22 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
15/12/03 00:57:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Bad connect ack with firstBadLink as 192.168.209.102:50010
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1377)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1281)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:526)
15/12/03 00:57:26 INFO hdfs.DFSClient: Abandoning BP-2062059271-192.168.209.100-1448384244888:blk_1073741864_1040
15/12/03 00:57:26 INFO hdfs.DFSClient: Excluding datanode 192.168.209.102:50010
15/12/03 00:57:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Bad connect ack with firstBadLink as 192.168.209.101:50010
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1377)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1281)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:526)
15/12/03 00:57:26 INFO hdfs.DFSClient: Abandoning BP-2062059271-192.168.209.100-1448384244888:blk_1073741865_1041
15/12/03 00:57:26 INFO hdfs.DFSClient: Excluding datanode 192.168.209.101:50010
原因:
1、某個節點機器突然開啟防火墻,導致不能連接
2、強制kill掉某個節點(據說)
3、某個機器直接當掉,豈不是完蛋了?數據冗余容災的設計干什么吃的?(推測)
解決方法:
root用戶關閉防火墻 service iptables stop
可能是某個節點因為重啟把iptables又起來了,
可以用chkconfig iptables off解決重啟帶來的問題,
不重啟的話用service iptables stop關掉。
感謝各位的閱讀!關于“hadoop中如何解決java.io.IOException: Bad connect ack with firstBad問題”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
本文題目:hadoop中如何解決java.io.IOException:BadconnectackwithfirstBad問題
瀏覽路徑:http://vcdvsql.cn/article36/gdicpg.html
成都網站建設公司_創新互聯,為您提供手機網站建設、用戶體驗、企業網站制作、外貿建站、域名注冊、自適應網站
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯