本篇文章給大家分享的是有關怎么在python中實現數據抽樣解析,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
Python是一種編程語言,內置了許多有效的工具,Python幾乎無所不能,該語言通俗易懂、容易入門、功能強大,在許多領域中都有廣泛的應用,例如最熱門的大數據分析,人工智能,Web開發等。
何為數據抽樣:
抽樣是數據處理的一種基本方法,常常伴隨著計算資源不足、獲取全部數據困難、時效性要求等情況使用。
抽樣方法:
一般有四種方法:
隨機抽樣 直接從整體數據中等概率抽取n個樣本。這種方法優勢是,簡單、好操作、適用于分布均勻的場景;缺點是總體大時無法一一編號
系統抽樣 又稱機械、等距抽樣,將總體中個體按順序進行編號,然后計算出間隔,再按照抽樣間隔抽取個體。優勢,易于理解、簡便易行。缺點是,如有明顯分布規律時容易產生偏差。
群體抽樣 總體分群,在隨機抽取幾個小群代表總體。優點是簡單易行、便與組織;缺點是群體劃分容易造成誤差
分層抽樣 先按照觀察指標影響較大的某一種特征,將總體分若干個類別,再從每一層隨機抽取一定數量的單位合并成總體。優點樣本代表性好,少誤差
以上四種基本抽樣方法都屬單階段抽樣,實際應用中常根據實際情況將整個抽樣過程分為若干階段來進行,稱為多階段抽樣。
各種抽樣方法的抽樣誤差一般是:整群抽樣≥單純隨機抽樣≥系統抽樣≥分層抽樣
python代碼實現
import random import numpy as np import pandas as pd # 導入數據 df = pd.read_csv('https://raw.githubusercontent.com/ffzs/dataset/master/glass.csv') df.index.size # 214 ##########隨機抽樣########## # # 使用pandas # DataFrame.sample(n=None, frac=None, replace=False, weights=None, random_state=None, axis=None) # n是要抽取的行數。(例如n=20000時,抽取其中的2W行) # frac是抽取的比列。(有一些時候,我們并對具體抽取的行數不關系,我們想抽取其中的百分比,這個時候就可以選擇使用frac,例如frac=0.8,就是抽取其中80%) # replace:是否為有放回抽樣,取replace=True時為有放回抽樣。 # weights這個是每個樣本的權重,具體可以看官方文檔說明。 # random_state這個在之前的文章已經介紹過了。 # axis是選擇抽取數據的行還是列。axis=0的時是抽取行,axis=1時是抽取列(也就是說axis=1時,在列中隨機抽取n列,在axis=0時,在行中隨機抽取n行) df_0 = df.sample(n=20, replace=True) df_0.index.size # 20 # 數據準備 data = df.values # 使用random data_sample = random.sample(list(data), 20) len(data_sample) # 20 ##########等距抽樣########## # 指定抽樣數量 sample_count = 50 # 獲取大樣本量 record_count = data.shape[0] # 抽樣間距 width = record_count//sample_count data_sample = [] i = 0 # 本量小于等于指定抽樣數量并且矩陣索引在有效范圍內是 while len(data_sample) <= sample_count and i * width <= record_count -1: data_sample.append(data[i*width]) i += 1 len(data_sample) # 51 ##########分層抽樣########## # 數據只是隨便找的分層僅限于演示 # 定義每個分層的抽樣數量 each_sample_count = 6 # 定義分層值域 label_data_unique = np.unique(data[:, -1]) # 定義一些數據 sample_list, sample_data, sample_dict = [], [], {} # 遍歷每個分層標簽 for label_data in label_data_unique: for data_tmp in data: # 讀取每條數據 if data_tmp[-1] == label_data: sample_list.append(data_tmp) # 對每層數據都數據抽樣 each_sample_data = random.sample(sample_list, each_sample_count) sample_data.extend(each_sample_data) sample_dict[label_data] = len(each_sample_data) sample_dict # {1.0: 6, 2.0: 6, 3.0: 6, 5.0: 6, 6.0: 6, 7.0: 6} ##########整群抽樣########## # 數據分群僅限于演示,不符合實際情況 # 定義整群的標簽 label_data_unique = np.unique(data[:, -1]) # 隨機抽取2個群 sample_label = random.sample(list(label_data_unique), 2) # 定義空列表 sample_data = [] # 遍歷每個整群標簽值域 for each_label in sample_label: for data_tmp in data: if data_tmp[-1] == each_label: sample_data.append(data_tmp) len(sample_data) # 83
需要注意的問題
數據抽樣過程中要注意一些問題
數據時效性 不能用過時的數據來分析現在的運營狀態
關鍵因素數據 整體數據的關鍵性數據必須要在模型中,如雙十一帶來的銷售增長
業務隨機性 抽樣數據要使各個場景的數據分布均衡
數據來源多樣性 數據覆蓋要全面
抽樣數據量問題
時間分布 能包含業務周期。月銷售預測,至少包含12個月數據;時間還要考慮季節、節假日、特定促銷日等周期性。
做預測分析 考慮特征數據和特征值域的分布,通常數據記錄要同時是特征數量和特征值域的100倍以上。例如數據集有5個特征值,每個特征有2個值域,那么數據記錄數需要至少1000(10052)條以上
做關聯規則分析 根據關聯前后項數量(每個前項或后項可包含多個要關聯的主體,例如品牌+商品+價格關聯),每個主體需要至少1000條數據。例如只做單品銷售關聯,那么單品的銷售記錄需要在1000條以上;如果要同時做單品+品牌的關聯,那么需要至少2000條數據。
異常檢測 無論是監督室還是非監督式建模,對于異常數據本來就是小概率分布的,因此異常數據記錄一般越多越好。
以上就是怎么在python中實現數據抽樣解析,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注創新互聯成都網站設計公司行業資訊頻道。
另外有需要云服務器可以了解下創新互聯scvps.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業上云的綜合解決方案,具有“安全穩定、簡單易用、服務可用性高、性價比高”等特點與優勢,專為企業上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。
新聞標題:怎么在python中實現數據抽樣解析-創新互聯
當前URL:http://vcdvsql.cn/article38/cedjpp.html
成都網站建設公司_創新互聯,為您提供網站建設、用戶體驗、網站設計、定制開發、域名注冊、網站改版
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯