bl双性强迫侵犯h_国产在线观看人成激情视频_蜜芽188_被诱拐的少孩全彩啪啪漫画

hadoop中怎么讀取protobuf數據

這篇文章主要介紹“ hadoop中怎么讀取protobuf數據 ”,在日常操作中,相信很多人在 hadoop中怎么讀取protobuf數據 問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答” hadoop中怎么讀取protobuf數據 ”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

創新互聯網站建設提供從項目策劃、軟件開發,軟件安全維護、網站優化(SEO)、網站分析、效果評估等整套的建站服務,主營業務為成都網站建設、做網站,成都App制作以傳統方式定制建設網站,并提供域名空間備案等一條龍服務,秉承以專業、用心的態度為用戶提供真誠的服務。創新互聯深信只要達到每一位用戶的要求,就會得到認可,從而選擇與我們長期合作。這樣,我們也可以走得更遠!

在mapreduce中讀取protobuf數據時,會遇到一個坑

BytesWritable。當你把byte[]數據保存到BytesWritable后,通過BytesWritable.getBytes()再讀到的數據并不一定是原數據,可能變長了很多,這是因為BytesWritable采用了自動內存增長算法,你保存的數據長度為size時,它可能將數據保存到了長度為capacity(capacity>size)的buffer中,這時候,你通過BytesWritable.getBytes()得到的數據最后一些字符是多余的,如果里面保存的是protobuf序列化后的數據,則無法反序列化,這時候可以使用BytesWritable.setCapacity(BytesWritable.getLength())將后面多余空間剔除掉,然后就可以使用protobuf反序列為原始數據。

關鍵代碼如下

conf.setInputFormat(SequenceFileAsBinaryInputFormat.class);
public void map(Object key, BytesWritable values, OutputCollector output,
            Reporter reporter) throws IOException {
    values.setCapacity(values.getLength());// very important !!!
    byte[] data = values.getBytes();
    // more code
}

到此,關于“ hadoop中怎么讀取protobuf數據 ”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注創新互聯網站,小編會繼續努力為大家帶來更多實用的文章!

新聞名稱:hadoop中怎么讀取protobuf數據
轉載來于:http://vcdvsql.cn/article40/pehdeo.html

成都網站建設公司_創新互聯,為您提供網頁設計公司品牌網站建設虛擬主機用戶體驗外貿網站建設全網營銷推廣

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

成都seo排名網站優化