整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          多功能SQL數據庫編輯器:RazorSQL 10.4

          多功能SQL數據庫編輯器:RazorSQL 10.4.6 (64位)

          azorSQL for PC 64位是一款適用于Windows、macOS、macOS,Linux和Solaris的SQL查詢工具、數據庫瀏覽器、SQL編輯器和數據庫管理工具。RazorSQL已經在30多個數據庫上進行了測試,可以通過JDBC或ODBC連接到數據庫,并支持以下數據庫:

          Athena,H2,MonetDB,Salesforce,Aurora,HSQLDB,MS SQL Server,SimpleDB,Cassandra,Informix,MySQL,solidDB,DB2,Ingres,Netezza,SQLite,DBASE,Interbase,OpenBase,SQL Anywhere,Derby,Int.Sys.Cache,Oracle,SQL Azure,DynamoDB,JavaDB,Paradox,Sybase(ASE),Filemaker,MariaDB,Pervasive,Sybase IQ,Firebird,Microsoft Access,PostgreSQL,Teradata,Frontbase,Mimer SQL,Redshift,Greenplum,MongoDB。立即下載適用于Windows 64位的RazorSQL!

          特點和亮點

          數據庫瀏覽器

          瀏覽數據庫對象,如架構、表、列、主鍵和外鍵、視圖、索引、過程、函數等。

          SQL編輯器

          編輯SQL腳本。運行SQL查詢。自動列和自動表查找。使用功能強大的EditRocket代碼編輯器,該編輯器支持20多種編程語言,包括SQL、PL/SQL、Transact-SQL、SQL PL、HTML、Java、XML等。

          數據庫工具

          用于創建、更改、描述、執行和刪除數據庫對象(如表、視圖、索引、存儲過程、函數、觸發器等)的可視化工具。

          數據庫查詢工具

          包括查詢的多表格顯示,包括篩選、排序、搜索等選項。

          導入數據

          從各種格式導入數據,如分隔文件、Excel電子表格和固定寬度文件。

          導出數據

          以各種格式導出數據,如分隔文件、XML、HTML、Excel電子表格和SQL插入語句。

          SQL查詢生成器

          創建select、插入、更新和刪除SQL語句。創建多表聯接。

          內置數據庫

          包括一個健壯的關系數據庫(HSQLDB),該數據庫已啟動并運行,無需開箱即用的手動配置。

          編輯表格工具

          以類似電子表格的格式插入、更新和刪除表格數據。查找和替換數據、預覽生成的SQL等。

          數據比較

          比較數據庫中的表數據,或比較查詢結果。

          自TowardsDataScience

          作者:Lianne & Justin

          機器之心編譯

          參與:魔王、杜偉

          要獲得優秀的模型,首先需要清洗數據。這是一篇如何在 Python 中執行數據清洗的分步指南。

          在擬合機器學習或統計模型之前,我們通常需要清洗數據。用雜亂數據訓練出的模型無法輸出有意義的結果。

          數據清洗:從記錄集、表或數據庫中檢測和修正(或刪除)受損或不準確記錄的過程。它識別出數據中不完善、不準確或不相關的部分,并替換、修改或刪除這些臟亂的數據。

          「數據清洗」光定義就這么長,執行過程肯定既枯燥又耗時。

          圖源:https://www.kdnuggets.com/2017/09/cartoon-machine-learning-class.html

          為了將數據清洗簡單化,本文介紹了一種新型完備分步指南,支持在 Python 中執行數據清洗流程。讀者可以學習找出并清洗以下數據的方法:

          缺失數據;

          不規則數據(異常值);

          不必要數據:重復數據(repetitive data)、復制數據(duplicate data)等;

          不一致數據:大寫、地址等;

          該指南使用的數據集是 Kaggle 競賽 Sberbank 俄羅斯房地產價值預測競賽數據(該項目的目標是預測俄羅斯的房價波動)。本文并未使用全部數據,僅選取了其中的一部分樣本。

          本文兩位作者 Lianne & Justin。

          在進入數據清洗流程之前,我們先來看一下數據概況。

          # import packagesimport pandas as pdimport numpy as npimport seaborn as sns

          import matplotlib.pyplot as pltimport matplotlib.mlab as mlabimport matplotlibplt.style.use('ggplot')from matplotlib.pyplot import figure

          %matplotlib inlinematplotlib.rcParams['figure.figsize']=(12,8)

          pd.options.mode.chained_assignment=None

          # read the datadf=pd.read_csv('sberbank.csv')

          # shape and data types of the dataprint(df.shape)print(df.dtypes)

          # select numeric columnsdf_numeric=df.select_dtypes(include=[np.number])numeric_cols=df_numeric.columns.valuesprint(numeric_cols)

          # select non numeric columnsdf_non_numeric=df.select_dtypes(exclude=[np.number])non_numeric_cols=df_non_numeric.columns.valuesprint(non_numeric_cols)

          從以上結果中,我們可以看到該數據集共有 30,471 行、292 列,還可以辨別特征屬于數值變量還是分類變量。這些都是有用的信息。

          現在,我們可以瀏覽「臟」數據類型檢查清單,并一一攻破。

          開始吧!

          缺失數據

          處理缺失數據/缺失值是數據清洗中最棘手也最常見的部分。很多模型可以與其他數據問題和平共處,但大多數模型無法接受缺失數據問題。

          如何找出缺失數據?

          本文將介紹三種方法,幫助大家更多地了解數據集中的缺失數據。

          方法 1:缺失數據熱圖

          當特征數量較少時,我們可以通過熱圖對缺失數據進行可視化。

          cols=df.columns[:30] # first 30 columnscolours=['#000099', '#ffff00'] # specify the colours - yellow is missing. blue is not missing.sns.heatmap(df[cols].isnull(), cmap=sns.color_palette(colours))

          下表展示了前 30 個特征的缺失數據模式。橫軸表示特征名,縱軸表示觀察值/行數,黃色表示缺失數據,藍色表示非缺失數據。

          例如,下圖中特征 life_sq 在多個行中存在缺失值。而特征 floor 只在第 7000 行左右出現零星缺失值。

          缺失數據熱圖

          方法 2:缺失數據百分比列表

          當數據集中存在很多特征時,我們可以為每個特征列出缺失數據的百分比。

          # if it's a larger dataset and the visualization takes too long can do this.# % of missing.for col in df.columns: pct_missing=np.mean(df[col].isnull()) print('{} - {}%'.format(col, round(pct_missing*100)))

          得到如下列表,該表展示了每個特征的缺失值百分比。

          具體而言,我們可以從下表中看到特征 life_sq 有 21% 的缺失數據,而特征 floor 僅有 1% 的缺失數據。該列表有效地總結了每個特征的缺失數據百分比情況,是對熱圖可視化的補充。

          前 30 個特征的缺失數據百分比列表

          方法 3:缺失數據直方圖

          在存在很多特征時,缺失數據直方圖也不失為一種有效方法。

          要想更深入地了解觀察值中的缺失值模式,我們可以用直方圖的形式進行可視化。

          # first create missing indicator for features with missing datafor col in df.columns: missing=df[col].isnull() num_missing=np.sum(missing)

          if num_missing > 0: print('created missing indicator for: {}'.format(col)) df['{}_ismissing'.format(col)]=missing

          # then based on the indicator, plot the histogram of missing valuesismissing_cols=[col for col in df.columns if 'ismissing' in col]df['num_missing']=df[ismissing_cols].sum(axis=1)

          df['num_missing'].value_counts().reset_index().sort_values(by='index').plot.bar(x='index', y='num_missing')

          直方圖可以幫助在 30,471 個觀察值中識別缺失值狀況。

          例如,從下圖中可以看到,超過 6000 個觀察值不存在缺失值,接近 4000 個觀察值具備一個缺失值。

          缺失數據直方圖

          如何處理缺失數據?

          這方面沒有統一的解決方案。我們必須研究特定特征和數據集,據此決定處理缺失數據的最佳方式。

          下面介紹了四種最常用的缺失數據處理方法。不過,如果情況較為復雜,我們需要創造性地使用更復雜的方法,如缺失數據建模。

          解決方案 1:丟棄觀察值

          在統計學中,該方法叫做成列刪除(listwise deletion),需要丟棄包含缺失值的整列觀察值。

          只有在我們確定缺失數據無法提供信息時,才可以執行該操作。否則,我們應當考慮其他解決方案。

          此外,還存在其他標準。

          例如,從缺失數據直方圖中,我們可以看到只有少量觀察值的缺失值數量超過 35。因此,我們可以創建一個新的數據集 df_less_missing_rows,該數據集刪除了缺失值數量超過 35 的觀察值。

          # drop rows with a lot of missing values.ind_missing=df[df['num_missing'] > 35].indexdf_less_missing_rows=df.drop(ind_missing, axis=0)

          解決方案 2:丟棄特征

          與解決方案 1 類似,我們只在確定某個特征無法提供有用信息時才丟棄它。

          例如,從缺失數據百分比列表中,我們可以看到 hospital_beds_raion 具備較高的缺失值百分比——47%,因此我們丟棄這一整個特征。

          # hospital_beds_raion has a lot of missing.# If we want to drop.cols_to_drop=['hospital_beds_raion']df_less_hos_beds_raion=df.drop(cols_to_drop, axis=1)

          解決方案 3:填充缺失數據

          當特征是數值變量時,執行缺失數據填充。對同一特征的其他非缺失數據取平均值或中位數,用這個值來替換缺失值。

          當特征是分類變量時,用眾數(最頻值)來填充缺失值。

          以特征 life_sq 為例,我們可以用特征中位數來替換缺失值。

          # replace missing values with the median.med=df['life_sq'].median()print(med)df['life_sq']=df['life_sq'].fillna(med)

          此外,我們還可以對所有數值特征一次性應用同樣的填充策略。

          # impute the missing values and create the missing value indicator variables for each numeric column.df_numeric=df.select_dtypes(include=[np.number])numeric_cols=df_numeric.columns.values

          for col in numeric_cols: missing=df[col].isnull() num_missing=np.sum(missing) if num_missing > 0: # only do the imputation for the columns that have missing values. print('imputing missing values for: {}'.format(col)) df['{}_ismissing'.format(col)]=missing med=df[col].median() df[col]=df[col].fillna(med)

          很幸運,本文使用的數據集中的分類特征沒有缺失值。不然,我們也可以對所有分類特征一次性應用眾數填充策略。

          # impute the missing values and create the missing value indicator variables for each non-numeric column.df_non_numeric=df.select_dtypes(exclude=[np.number])non_numeric_cols=df_non_numeric.columns.values

          for col in non_numeric_cols: missing=df[col].isnull() num_missing=np.sum(missing) if num_missing > 0: # only do the imputation for the columns that have missing values. print('imputing missing values for: {}'.format(col)) df['{}_ismissing'.format(col)]=missing top=df[col].describe()['top'] # impute with the most frequent value. df[col]=df[col].fillna(top)

          解決方案 4:替換缺失值

          對于分類特征,我們可以添加新的帶值類別,如 _MISSING_。對于數值特征,我們可以用特定值(如-999)來替換缺失值。

          這樣,我們就可以保留缺失值,使之提供有價值的信息。

          # categoricaldf['sub_area']=df['sub_area'].fillna('_MISSING_')

          # numericdf['life_sq']=df['life_sq'].fillna(-999)

          不規則數據(異常值)

          異常值指與其他觀察值具備顯著差異的數據,它們可能是真的異常值也可能是錯誤。

          如何找出異常值?

          根據特征的屬性(數值或分類),使用不同的方法來研究其分布,進而檢測異常值。

          方法 1:直方圖/箱形圖

          當特征是數值變量時,使用直方圖和箱形圖來檢測異常值。

          下圖展示了特征 life_sq 的直方圖。

          # histogram of life_sq.df['life_sq'].hist(bins=100)

          由于數據中可能存在異常值,因此下圖中數據高度偏斜。

          直方圖

          為了進一步研究特征,我們來看一下箱形圖。

          # box plot.df.boxplot(column=['life_sq'])

          從下圖中我們可以看到,異常值是一個大于 7000 的數值。

          箱形圖

          方法 2:描述統計學

          對于數值特征,當異常值過于獨特時,箱形圖無法顯示該值。因此,我們可以查看其描述統計學。

          例如,對于特征 life_sq,我們可以看到其最大值是 7478,而上四分位數(數據的第 75 個百分位數據)是 43。因此值 7478 是異常值。

          df['life_sq'].describe()

          方法 3:條形圖

          當特征是分類變量時,我們可以使用條形圖來了解其類別和分布。

          例如,特征 ecology 具備合理的分布。但如果某個類別「other」僅有一個值,則它就是異常值。

          # bar chart?-? distribution of a categorical variabledf['ecology'].value_counts().plot.bar()

          條形圖

          其他方法:還有很多方法可以找出異常值,如散點圖、z 分數和聚類,本文不過多探討全部方法。

          如何處理異常值?

          盡管異常值不難檢測,但我們必須選擇合適的處理辦法。而這高度依賴于數據集和項目目標。

          處理異常值的方法與處理缺失值有些類似:要么丟棄,要么修改,要么保留。(讀者可以返回上一章節處理缺失值的部分查看相關解決方案。)

          不必要數據

          處理完缺失數據和異常值,現在我們來看不必要數據,處理不必要數據的方法更加直接。

          輸入到模型中的所有數據應服務于項目目標。不必要數據即無法增加價值的數據。

          這里將介紹三種主要的不必要數據類型。

          不必要數據類型 1:信息不足/重復

          有時一個特征不提供信息,是因為它擁有太多具備相同值的行。

          如何找出重復數據?

          我們可以為具備高比例相同值的特征創建一個列表。

          例如,下圖展示了 95% 的行是相同值的特征。

          num_rows=len(df.index)low_information_cols=[] #

          for col in df.columns: cnts=df[col].value_counts(dropna=False) top_pct=(cnts/num_rows).iloc[0] if top_pct > 0.95: low_information_cols.append(col) print('{0}: {1:.5f}%'.format(col, top_pct*100)) print(cnts) print()

          我們可以逐一查看這些變量,確認它們是否提供有用信息。(此處不再詳述。)

          如何處理重復數據?

          我們需要了解重復特征背后的原因。當它們的確無法提供有用信息時,我們就可以丟棄它。

          不必要數據類型 2:不相關

          再次強調,數據需要為項目提供有價值的信息。如果特征與項目試圖解決的問題無關,則這些特征是不相關數據。

          如何找出不相關數據?

          瀏覽特征,找出不相關的數據。

          例如,記錄多倫多氣溫的特征無法為俄羅斯房價預測項目提供任何有用信息。

          如何處理不相關數據?

          當這些特征無法服務于項目目標時,刪除之。

          不必要數據類型 3:復制

          復制數據即,觀察值存在副本。

          復制數據有兩個主要類型。

          復制數據類型 1:基于所有特征

          如何找出基于所有特征的復制數據?

          這種復制發生在觀察值內所有特征的值均相同的情況下,很容易找出。

          我們需要先刪除數據集中的唯一標識符 id,然后刪除復制數據得到數據集 df_dedupped。對比 df 和 df_dedupped 這兩個數據集的形態,找出復制行的數量。

          # we know that column 'id' is unique, but what if we drop it?df_dedupped=df.drop('id', axis=1).drop_duplicates()

          # there were duplicate rowsprint(df.shape)print(df_dedupped.shape)

          我們發現,有 10 行是完全復制的觀察值。

          如何處理基于所有特征的復制數據?

          刪除這些復制數據。

          復制數據類型 2:基于關鍵特征

          如何找出基于關鍵特征的復制數據?

          有時候,最好的方法是刪除基于一組唯一標識符的復制數據。

          例如,相同使用面積、相同價格、相同建造年限的兩次房產交易同時發生的概率接近零。

          我們可以設置一組關鍵特征作為唯一標識符,比如 timestamp、full_sq、life_sq、floor、build_year、num_room、price_doc。然后基于這些特征檢查是否存在復制數據。

          key=['timestamp', 'full_sq', 'life_sq', 'floor', 'build_year', 'num_room', 'price_doc']

          df.fillna(-999).groupby(key)['id'].count().sort_values(ascending=False).head(20)

          基于這組關鍵特征,我們找到了 16 條復制數據。

          如何處理基于關鍵特征的復制數據?

          刪除這些復制數據。

          # drop duplicates based on an subset of variables.

          key=['timestamp', 'full_sq', 'life_sq', 'floor', 'build_year', 'num_room', 'price_doc']df_dedupped2=df.drop_duplicates(subset=key)

          print(df.shape)print(df_dedupped2.shape)

          刪除 16 條復制數據,得到新數據集 df_dedupped2。

          不一致數據

          在擬合模型時,數據集遵循特定標準也是很重要的一點。我們需要使用不同方式來探索數據,找出不一致數據。大部分情況下,這取決于觀察和經驗。不存在運行和修復不一致數據的既定代碼。

          下文介紹了四種不一致數據類型。

          不一致數據類型 1:大寫

          在類別值中混用大小寫是一種常見的錯誤。這可能帶來一些問題,因為 Python 分析對大小寫很敏感。

          如何找出大小寫不一致的數據?

          我們來看特征 sub_area。

          df['sub_area'].value_counts(dropna=False)

          它存儲了不同地區的名稱,看起來非常標準化。

          但是,有時候相同特征內存在不一致的大小寫使用情況。「Poselenie Sosenskoe」和「pOseleNie sosenskeo」指的是相同的地區。

          如何處理大小寫不一致的數據?

          為了避免這個問題,我們可以將所有字母設置為小寫(或大寫)。

          # make everything lower case.df['sub_area_lower']=df['sub_area'].str.lower()df['sub_area_lower'].value_counts(dropna=False)

          不一致數據類型 2:格式

          我們需要執行的另一個標準化是數據格式。比如將特征從字符串格式轉換為 DateTime 格式。

          如何找出格式不一致的數據?

          特征 timestamp 在表示日期時是字符串格式。

          df

          如何處理格式不一致的數據?

          使用以下代碼進行格式轉換,并提取日期或時間值。然后,我們就可以很容易地用年或月的方式分析交易量數據。

          df['timestamp_dt']=pd.to_datetime(df['timestamp'], format='%Y-%m-%d')df['year']=df['timestamp_dt'].dt.yeardf['month']=df['timestamp_dt'].dt.monthdf['weekday']=df['timestamp_dt'].dt.weekday

          print(df['year'].value_counts(dropna=False))print()print(df['month'].value_counts(dropna=False))

          相關文章:https://towardsdatascience.com/how-to-manipulate-date-and-time-in-python-like-a-boss-ddea677c6a4d

          不一致數據類型 3:類別值

          分類特征的值數量有限。有時由于拼寫錯誤等原因可能出現其他值。

          如何找出類別值不一致的數據?

          我們需要觀察特征來找出類別值不一致的情況。舉例來說:

          由于本文使用的房地產數據集不存在這類問題,因此我們創建了一個新的數據集。例如,city 的值被錯誤輸入為「torontoo」和「tronto」,其實二者均表示「toronto」(正確值)。

          識別它們的一種簡單方式是模糊邏輯(或編輯距離)。該方法可以衡量使一個值匹配另一個值需要更改的字母數量(距離)。

          已知這些類別應僅有四個值:「toronto」、「vancouver」、「montreal」和「calgary」。計算所有值與單詞「toronto」(和「vancouver」)之間的距離,我們可以看到疑似拼寫錯誤的值與正確值之間的距離較小,因為它們只有幾個字母不同。

          from nltk.metrics import edit_distance

          df_city_ex=pd.DataFrame(data={'city': ['torontoo', 'toronto', 'tronto', 'vancouver', 'vancover', 'vancouvr', 'montreal', 'calgary']})

          df_city_ex['city_distance_toronto']=df_city_ex['city'].map(lambda x: edit_distance(x, 'toronto'))df_city_ex['city_distance_vancouver']=df_city_ex['city'].map(lambda x: edit_distance(x, 'vancouver'))df_city_ex

          如何處理類別值不一致的數據?

          我們可以設置標準將這些拼寫錯誤轉換為正確值。例如,下列代碼規定所有值與「toronto」的距離在 2 個字母以內。

          msk=df_city_ex['city_distance_toronto'] df_city_ex.loc[msk, 'city']='toronto'

          msk=df_city_ex['city_distance_vancouver'] df_city_ex.loc[msk, 'city']='vancouver'

          df_city_ex

          不一致數據類型 4:地址

          地址特征對很多人來說是老大難問題。因為人們往數據庫中輸入數據時通常不會遵循標準格式。

          如何找出地址不一致的數據?

          用瀏覽的方式可以找出混亂的地址數據。即便有時我們看不出什么問題,也可以運行代碼執行標準化。

          出于隱私原因,本文采用的房地產數據集沒有地址列。因此我們創建具備地址特征的新數據集 df_add_ex。

          # no address column in the housing dataset. So create one to show the code.df_add_ex=pd.DataFrame(['123 MAIN St Apartment 15', '123 Main Street Apt 12 ', '543 FirSt Av', ' 876 FIRst Ave.'], columns=['address'])df_add_ex

          我們可以看到,地址特征非常混亂。

          如何處理地址不一致的數據?

          運行以下代碼將所有字母轉為小寫,刪除空格,刪除句號,并將措辭標準化。

          df_add_ex['address_std']=df_add_ex['address'].str.lower()df_add_ex['address_std']=df_add_ex['address_std'].str.strip() # remove leading and trailing whitespace.df_add_ex['address_std']=df_add_ex['address_std'].str.replace('\.', '') # remove period.df_add_ex['address_std']=df_add_ex['address_std'].str.replace('\bstreet\b', 'st') # replace street with st.df_add_ex['address_std']=df_add_ex['address_std'].str.replace('\bapartment\b', 'apt') # replace apartment with apt.df_add_ex['address_std']=df_add_ex['address_std'].str.replace('\bav\b', 'ave') # replace apartment with apt.

          df_add_ex

          現在看起來好多了:

          結束了!我們走過了長長的數據清洗旅程。

          現在你可以運用本文介紹的方法清洗所有阻礙你擬合模型的「臟」數據了。

          參考鏈接:https://towardsdatascience.com/data-cleaning-in-python-the-ultimate-guide-2020-c63b88bf0a0d

          hp修改html標簽中的內容php與html如何配合使用php改變htmlphp過濾htmlphp輸出html標簽

          PHP刪除HTMl標簽的三種解決方法_流年-CSDN博客_php去除htm...

          2017年9月19日 在PHP中可以使用strip_tags函數去除HTML標簽,看下面示例: 復制代碼代碼如下: <?php $str=‘www<p>dreamdu</p>.com'; echo(htmlspecialchars($str).”<br>”);...

          CSDN技術社區

          百度快照

          php去除HTML標簽實例_php實例_腳本之家

          2013年11月6日 在php中要去除字符串中的HTML標簽方法有很多種,最常用的就是使用strip_tags函數一并去了,只保留字符了,還在就是有選擇性的去除了這里要用正則表達式了,下面寫二...


          主站蜘蛛池模板: 久久一区二区三区99| 日韩一区二区三区免费体验| 亚洲福利一区二区精品秒拍| 国产成人欧美一区二区三区| 一区二区三区在线观看免费 | 无码国产精成人午夜视频一区二区 | 中文字幕一区二区三区在线观看| 伊人色综合视频一区二区三区| 区三区激情福利综合中文字幕在线一区亚洲视频1| 精品少妇人妻AV一区二区| 精品一区二区三区东京热| 在线观看国产一区| 国产一区二区三区免费在线观看| 无码福利一区二区三区| 国精品无码一区二区三区在线蜜臀| 日本一区二区三区在线视频观看免费| 中文乱码人妻系列一区二区| 91精品一区二区| 中文字幕一区二区三区5566| 亚洲国产精品一区第二页| 日韩电影一区二区三区| 国产内射在线激情一区| 丰满人妻一区二区三区免费视频 | 精品一区高潮喷吹在线播放| 国产亚洲无线码一区二区| 夜色福利一区二区三区| 亚洲乱码一区av春药高潮| 亚洲国产av一区二区三区丶| 亚洲va乱码一区二区三区| 伊人久久大香线蕉AV一区二区 | 国产成人精品一区二区秒拍| 国产免费一区二区视频| 日韩精品区一区二区三VR| 国模私拍福利一区二区| 色欲AV蜜桃一区二区三| 免费无码AV一区二区| 日韩人妻无码一区二区三区 | 无码一区二区三区亚洲人妻| 亚洲一区精品伊人久久伊人 | 国产成人AV一区二区三区无码| 熟妇人妻AV无码一区二区三区|