整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          這些資格考試網上報名的常見問題,你應該知道

          這些資格考試網上報名的常見問題,你應該知道

          、忘記用戶名及密碼該如何處理

          系統提供兩種找回方式:驗證預留安全問題和驗證手機。

          1.驗證預留問題找回。

          2.驗證手機找回。

          如果上述兩種方式無法找回,請聯系所報考省市人事考試機構核實身份,協助查詢。各省市咨詢方式:

          (http://www.cpta.com.cn/n/2014/0620/c376049-25177961.html)。

          二、找回密碼成功后登入時仍提示用戶名密碼錯誤

          這類情況基本是用戶名輸入錯誤。請仔細核對輸入的用戶名與“密碼修改”頁面顯示的用戶名是否一致,注意區分用戶名大小寫。

          三、注冊信息中姓名及證件號碼如何修改

          用戶注冊成功后,則不允許修改姓名及證件號碼,如果注冊姓名或證件號碼有誤,考生可重新注冊。

          如果姓名有誤,重新注冊時,系統會提示“該證件號碼在注冊庫中已經存在”,點擊“確定”繼續操作即可。

          四、綁定手機時無法接收到短信驗證碼如何處理?

          查看手機本身是否有攔截軟件,攔截了驗證碼短信。建議考生將手機卡放到其他手機上重新接收。

          五、如何修改照片?

          由于目前上傳成功的照片均通過照片審核工具處理,上傳后系統自動審核通過,不允許考生自行修改上傳成功的照片。如因特殊原因需修改,請聯系當地人事考試機構,核實身份后,由管理人員協助操作。各省市咨詢方式:

          (http://www.cpta.com.cn/n/2014/0620/c376049-25177961.html)。

          六、郵政編碼無法輸入如何處理?

          請將輸入法切換到英文半角模式。

          例如:

          搜狗輸入法:

          谷歌輸入法:

          七、搜狗瀏覽器(極速模式),在使用日期控件選擇日期時,年份不能修改,只能選擇默認的當前年份。

          請使用IE瀏覽器或360極速版本瀏覽器重新登錄系統進行報名。如確實要使用搜狗瀏覽器,需切換到兼容模式。

          下圖為搜狗瀏覽器兼容模式:

          八、報名信息如何修改?

          各省市對報考人員修改信息的規定不同,有的省市設定報名信息確認后就不允許修改,有的省市設定審核后不允許修改,存在多種情況。

          1.報名信息確認前

          報考人員在報名信息確認前可以修改報名信息,在報考狀態流程圖點擊“信息維護”進行操作,如下圖:

          2.確認或審核后允許修改信息的情況

          報考該類設置的考生,在確認報名信息或資格審核后,左側菜單會出現“修改報名信息”選項,考生點擊“修改報名信息”或右側流程圖中“信息維護”,可自行修改報名信息。

          3.其他情況修改信息

          報名確認或資格審核后,如左側菜單無“修改報名信息”選項,考生則不可自行修改報名信息。如因特殊原因進行修改,請聯系當地人事考試機構:(http://www.cpta.com.cn/n/2014/0620/c376049-25177961.html)。

          九、下載的報名表無法打開或內容顯示不完整

          報名表是pdf格式的文件,請一定要下載adobe reader10.0以上版本軟件安裝后即可查看或打印報名表。

          十、網上支付問題

          1.支付時無法跳轉到第三方支付平臺

          請臨時關閉電腦安裝的金山毒霸、騰訊安全管家、360等安全軟件。

          2.使用支付寶支付時,點擊【支付】進入支付寶系統出現【錯誤代碼 ILLEGAL_EXTERFACE】。

          支付寶公司解釋發生這種情況原因是報名電腦相關設置引起的,報考人員可換其它電腦登錄系統進行支付。

          十一、老考生提示需要現場資格審核。

          1.首先確認本人是否老考生,見下圖考生狀態提示。

          2.老考生確認信息后提示需要資格審核的請聯系當地人事考試機構(http://www.cpta.com.cn/n/2014/0620/c376049-25177961.html)。(注:考試機構可以審核老考生、異地考生。變更級別考生、變更專業考生)

          十二、資格審核

          報名信息確認后,系統會自動判斷您是否需要進行資格審核。對于需要去現場進行資格審核的考生,需要打印報名表,攜帶考試文件要求的相關證明材料,前往您所選擇的審核點進行資格審核。

          切實保護您和家人的健康,減少人員聚集,共同做好疫情防控,方便反映信訪訴求,我們倡議:

          一、首選網上信訪渠道:網上信訪可查詢、可跟蹤、可督辦、可評價,已成為群眾表達信訪訴求的重要渠道,請您登陸上海市人民政府信訪辦公室網站:

          http://xfb.sh.gov.cn/xfb/xfdt/index.html,或通過上海信訪APP、上海信訪微信公眾號提出信訪事項。

          二、書面來信:請郵寄至黃浦區人民大道200號上海市人民政府信訪辦公室,郵編200003。

          三、市民服務熱線:請撥打12345。

          四、請您就近到所在地街道(鄉鎮)人民來訪接待室走訪表達訴求,或請信訪代理員代為信訪。若確需到市政府人民來訪接待室走訪反映情況的,請務必事先預約(預約渠道:上海市人民政府信訪辦公室網站、上海信訪APP、上海信訪微信公眾號)。同時請嚴格遵守疫情防控規定,全程佩戴口罩,主動出示健康碼、行程碼,接受體溫檢測,保持社交距離。

          疫情防控是每個市民的共同責任,感謝您對上海信訪工作的支持和理解!

          上海市信訪辦

          2021年8月11日

          圖片來源:上海發布

          讀:數據工作者經常會遇到各種狀況,比如你收集到的數據并不像你期待的那樣完整、干凈。此前我們講解了用OpenRefine搞定數據清洗,本文進一步探討用pandas和NumPy插補缺失數據并將數據規范化、標準化。

          作者:托馬茲·卓巴斯(Tomasz Drabas)

          如需轉載請聯系華章科技

          本文將使用一個數據集,包含985項真實的房產交易。這些交易是連續5天內在Sacramento發生的。數據下載自:

          http://samplecsvs.s3.amazonaws.com/Sacramentorealestatetransactions.csv

          數據已轉成多種格式,放在GitHub代碼庫的Data/Chapter01文件夾中。

          https://github.com/drabastomek/practicalDataAnalysisCookbook.git

          01 插補缺失值

          數據的收集工作很棘手。收集工具壞了,調查問卷上某些問題人們不想回答,或者文件被損壞了;這些還只是數據集可能不全的一小部分原因。如果想使用這個數據集,我們有兩個選擇:忽略缺失的數據,或者用一些值替代。

          1. 準備

          要實踐本技巧,你要先裝好pandas模塊。

          2. 怎么做

          csv_read DataFrame可供使用。要插補缺失值,你只需要使用下面的代碼(data_imput.py文件):

          # 估算平均數以替代空值
          csv_read['price_mean']=csv_read['price'] \
          .fillna(
          csv_read.groupby('zip')['price'].transform('mean')
          )
          

          3. 原理

          pandas的.fillna(...)方法幫我們處理了所有重活。這是DataFrame對象的一個方法,將要估算的值作為唯一必須傳入的參數。

          查閱pandas文檔中.fillna(...)的部分,了解可傳入的其他參數。文檔位于:

          http://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.fillna.html

          在我們的處理過程中,我們假設每個郵編可能會有不同的均價。這就是我們用.groupby(...)方法對數據分組的原因。房產的價格重度依賴于房間的數目,這個推論也是成立的;如果我們的數據集更大,我們還能考慮beds這個變量。

          .groupby(...)方法返回一個GroupBy對象。其.transform(...)方法高效地對郵編分組,在我們的例子中,分組的依據是各郵編價格數據的平均數。

          現在,.fillna(...)方法簡單地用這個平均數替代缺失的觀測數據即可。

          4. 更多

          插補數據不是填補缺失值的唯一方法。數據對稱分布且沒有異常值時,才會返回一個合理的值;如果分布比較偏,平均值是有偏差的。衡量集中趨勢更好的維度是中位數。我們前面的例子只需要改一個小地方:

          # 估算中位數以替代空值
          csv_read['price_median']=csv_read['price'] \
          .fillna(
          csv_read.groupby('zip')['price'].transform('median')
          )
          

          02 將特征規范化、標準化

          為了提高計算效率,我們將特征規范化(或標準化),這樣不會超出計算機的限制。探索模型中變量之間的相互作用時也建議這么處理。

          計算機是有限制的:整型值是有上限的(盡管目前在64位機器上這不是個問題),浮點型的精確度也有上限。

          數據規范化是讓所有的值落在0到1的范圍內(閉區間)。數據標準化是移動其分布,使得數據的平均數是0、標準差是1。

          1. 準備

          要實踐本技巧,你要先裝好pandas模塊。

          其他沒有什么要準備的了。

          2. 怎么做

          要實現規范化與標準化,我們定義了兩個輔助函數(data_standardize.py文件):

          def normalize(col):
          '''
          規范化
          '''
          return (col - col.min()) / (col.max() - col.min())
          def standardize(col):
          '''
          標準化
          '''
          return (col - col.mean()) / col.std()
          

          3. 原理

          要規范化數據,即讓每個值都落在0和1之間,我們減去數據的最小值,并除以樣本的范圍。統計學上的范圍指的是最大值與最小值的差。normalize(...)方法就是做的前面描述的工作:對數據的集合,減去最小值,除以范圍。

          標準化的過程類似:減去平均數,除以樣本的標準差。這樣,處理后的數據,平均數為0而標準差為1。standardize(...)方法做了這些處理:

          csv_read['n_price_mean']=normalize(csv_read['price_mean'])
          csv_read['s_price_mean']=standardize(csv_read['price_mean'])
          

          03 分級數據

          當我們想查看數據分布的形狀,或將數據轉換為有序的形式時,數據分級就派上用場了。

          1. 準備

          要實踐本技巧,你要先裝好pandas和NumPy模塊。

          2. 怎么做

          可以用下面的代碼(data_binning.py文件)對數據分級(比如處理成直方圖):

          # 根據線性劃分的價格的范圍,創建價格的容器
          bins=np.linspace(
          csv_read['price_mean'].min(),
          csv_read['price_mean'].max(),
          6
          )
          # 將容器應用到數據上
          csv_read['b_price']=np.digitize(
          csv_read['price_mean'],
          bins
          )
          

          3. 原理

          第一步是創建容器。對于價格數據(缺失值用估算的平均數填補),我們創建了六個容器,在最小值和最大值之間均勻分配。.linspace(...)方法做了這點工作:創建長度為6的NumPy數組,其中每個元素比前一個大固定的差值。比如,.linspace(0, 6, 6)生成數組[0., 1.2, 2.4, 3.6, 4.8, 6.]。

          NumPy對線性代數來說是個強大的數字處理庫。可輕松處理大型數組和矩陣,還提供了極其豐富的函數操作數據。想了解更多,可訪問:

          http://www.numpy.org

          .digitize(...)方法對指定列中的每個值,都返回所屬的容器索引。第一個參數是要分級的列,第二個參數是容器的數組。

          使用DataFrame的.value_counts()得到每個容器中的記錄計數,counts_b=csv_read['b_price'].value_counts()。

          4. 更多

          有時候我們不會用均勻間隔的值,我們會讓每個桶中擁有相同的數目。要達成這個目標,我們可以使用分位數。

          分位數與百分位數有緊密的聯系。區別在于百分位數返回的是給定百分數的值,而分位數返回的是給定分位點的值。想了解更多,可訪問:

          https://www.stat.auckland.ac.nz/~ihaka/787/lectures-quantiles-handouts.pdf

          我們想把列拆成十分位數,即10個(差不多)相等的容器。要做到這點,我們可以使用下面的代碼(你可以一眼看出其和之前方法的相似之處):

          # 根據十分位數創建容器
          decile=csv_read['price_mean'].quantile(np.linspace(0, 1, 11))
          # 將容器應用到數據上
          csv_read['p_price']=np.digitize(
          csv_read['price_mean'],
          decile
          )
          

          .quantile(...)方法可以傳一個(0到1之間的)數字,來表明要返回的分位數(例如,0.5是中位數,0.25和0.75是上下四分位數)。它也可以傳入一個分位的列表,返回相應的值的數組。.linspace(0, 1, 11)方法會生成這個數組:

          [ 0., 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.]
          

          所以,.quantile(...)方法會以price_mean列的最小值開始,直到最大值,返回十分位數的列表。

          04 編碼分類變量

          為數據的探索階段準備的最后一步就是分類變量了。有些軟件包在背后做了這個工作,但最好還是理解這步處理的時機與做法。

          統計模型只能接受有序的數據。分類變量(有時根據上下文可表示為數字)不能直接在模型中使用。要使用它們,我們要先進行編碼,也就是給它們一個唯一的數字編號。這解釋了什么時候做。至于如何做—應用下述技巧即可。

          1. 準備

          要實踐本技巧,你要先裝好pandas模塊。

          其他沒有什么要準備的了。

          2. 怎么做

          pandas又提供了一個方法,幫我們做完所有事(data_dummy_code.py文件):

          # 根據房產類型處理的簡單代碼
          csv_read=pd.get_dummies(
          csv_read,
          prefix='d',
          columns=['type']
          )
          

          3. 原理

          .get_dummies(...)方法將分類變量轉換為簡單的變量。比如,考慮一個變量,以三種水平中的某一種作為值:

          1 One
          2 Two
          3 Three
          

          需要用三列進行編碼:

          1 One 1 0 0
          2 Two 0 1 0
          3 Three 0 0 1
          

          有時可用兩列。如果有一個水平等效于null的話,我們可以這樣做:

          1 One 1 0 
          2 Two 0 1 
          3 Three 0 0 
          

          .get_dummies(...)方法的第一個參數是DataFrame對象。columns參數指定了代碼要處理的DataFrame的列(或某些列,因為可以傳入列表)。通過指定前綴,我們告訴方法生成的列名以d打頭;本例中生成的列會叫d_Condo。下劃線是默認的,可以通過指定prefix_sep參數更改。

          .get_dummies(...)方法的完整參數列表,參見:

          http://pandas.pydata.org/pandas-docs/stable/generated/pandas.get_dummies.html

          關于作者:托馬茲·卓巴斯(Tomasz Drabas),微軟數據科學家,致力于解決高維特征空間的問題。他有超過13年的數據分析和數據科學經驗:在歐洲、澳大利亞和北美洲三大洲期間,工作領域遍及高新技術、航空、電信、金融和咨詢。

          本文摘編自《數據分析實戰》,經出版方授權發布。

          延伸閱讀《數據分析實戰》

          推薦語:通過大量的現實案例,詳細講解數據分析相關的各種方法。


          主站蜘蛛池模板: 中文人妻无码一区二区三区| 精品视频一区二区三区四区五区 | 中文字幕在线不卡一区二区| 好看的电影网站亚洲一区| 日本人真淫视频一区二区三区 | 免费一区二区无码东京热| 中文字幕永久一区二区三区在线观看| 亚洲美女高清一区二区三区 | 天海翼一区二区三区高清视频| 国产大秀视频在线一区二区| 色偷偷一区二区无码视频| 日韩一区二区三区四区不卡| 国产精品亚洲一区二区无码 | 国产精品盗摄一区二区在线| 色一情一乱一伦一区二区三区| 精品一区二区三区色花堂| 亚洲午夜精品一区二区公牛电影院| 国产精品日韩欧美一区二区三区 | 极品尤物一区二区三区| 国产一区二区三区在线看片| 国产成人一区二区三区在线观看 | 国产成人精品一区二三区在线观看 | 天堂Av无码Av一区二区三区| 国产成人精品久久一区二区三区av| 无码精品一区二区三区免费视频| 亚洲欧洲无码一区二区三区| 国产一区三区三区| 日本精品无码一区二区三区久久久 | 精品久久一区二区| 精品日韩一区二区三区视频| 国产精品丝袜一区二区三区| 日本免费精品一区二区三区| 亚洲国产激情在线一区| 国产品无码一区二区三区在线蜜桃 | 夜夜嗨AV一区二区三区| 日本激情一区二区三区| 亚洲AV美女一区二区三区| 国产AV一区二区三区无码野战| 无码午夜人妻一区二区三区不卡视频| 国偷自产av一区二区三区| 一区二区三区视频在线|