- 相關(guān)推薦
數據處理工作總結
總結是對某一階段的工作、學(xué)習或思想中的經(jīng)驗或情況進(jìn)行分析研究的書(shū)面材料,通過(guò)它可以全面地、系統地了解以往的學(xué)習和工作情況,讓我們一起來(lái)學(xué)習寫(xiě)總結吧。你想知道總結怎么寫(xiě)嗎?以下是小編收集整理的數據處理工作總結,希望能夠幫助到大家。
數據處理工作總結1
一、數據量過(guò)大,數據中什么情況都可能存在。
如果說(shuō)有10條數據,那么大不了每條去逐一檢查,人為處理,如果有上百條數據,也可以考慮,如果數據上到千萬(wàn)級別,甚至過(guò)億,那不是手工能解決的了,必須通過(guò)工具或者程序進(jìn)行處理,尤其海量的數據中,什么情況都可能存在,例如,數據中某處格式出了問(wèn)題,尤其在程序處理時(shí),前面還能正常處理,突然到了某個(gè)地方問(wèn)題出現了,程序終止了。
二、軟硬件要求高,系統資源占用率高。
對海量的數據進(jìn)行處理,除了好的方法,最重要的就是合理使用工具,合理分配系統資源。一般情況,如果處理的數據過(guò)TB級,小型機是要考慮的,普通的機子如果有好的方法可以考慮,不過(guò)也必須加大CPU和內存,就象面對著(zhù)千軍萬(wàn)馬,光有勇氣沒(méi)有一兵一卒是很難取勝的。
三、要求很高的處理方法和技巧。
這也是本文的寫(xiě)作目的所在,好的處理方法是一位工程師長(cháng)期工作經(jīng)驗的積累,也是個(gè)人的經(jīng)驗的總結。沒(méi)有通用的處理方法,但有通用的原理和規則。
下面我們來(lái)詳細介紹一下處理海量數據的經(jīng)驗和技巧:
1、選用優(yōu)秀的數據庫工具
現在的數據庫工具廠(chǎng)家比較多,對海量數據的處理對所使用的數據庫工具要求比較高,一般使用Oracle或者DB2,微軟公司最近發(fā)布的SQL Server 20xx性能也不錯。另外在BI領(lǐng)域:數據庫,數據倉庫,多維數據庫,數據挖掘等相關(guān)工具也要進(jìn)行選擇,象好的ETL工具和好的OLAP工具都十分必要,例如Informatic,Eassbase等。筆者在實(shí)際數據分析項目中,對每天6000萬(wàn)條的日志數據進(jìn)行處理,使用SQL Server 20xx需要花費6小時(shí),而使用SQL Server 20xx則只需要花費3小時(shí)。
2、編寫(xiě)優(yōu)良的程序代碼
處理數據離不開(kāi)優(yōu)秀的程序代碼,尤其在進(jìn)行復雜數據處理時(shí),必須使用程序。好的程序代碼對數據的處理至關(guān)重要,這不僅僅是數據處理準確度的問(wèn)題,更是數據處理效率的問(wèn)題。良好的程序代碼應該包含好的算法,包含好的處理流程,包含好的效率,包含好的異常處理機制等。
3、對海量數據進(jìn)行分區操作
對海量數據進(jìn)行分區操作十分必要,例如針對按年份存取的數據,我們可以按年進(jìn)行分區,不同的數據庫有不同的分區方式,不過(guò)處理機制大體相同。例如SQL Server的數據庫分區是將不同的數據存于不同的文件組下,而不同的文件組存于不同的磁盤(pán)分區下,這樣將數據分散開(kāi),減小磁盤(pán)I/O,減小了系統負荷,而且還可以將日志,索引等放于不同的分區下。
4、建立廣泛的索引
對海量的數據處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序等字段,都要建立相應索引,一般還可以建立復合索引,對經(jīng)常插入的表則建立索引時(shí)要小心,筆者在處理數據時(shí),曾經(jīng)在一個(gè)ETL流程中,當插入表時(shí),首先刪除索引,然后插入完畢,建立索引,并實(shí)施聚合操作,聚合完成后,再次插入前還是刪除索引,所以索引要用到好的時(shí)機,索引的填充因子和聚集、非聚集索引都要考慮。
5、建立緩存機制
當數據量增加時(shí),一般的處理工具都要考慮到緩存問(wèn)題。緩存大小設置的好差也關(guān)系到數據處理的成敗,例如,筆者在處理2億條數據聚合操作時(shí),緩存設置為100000條/Buffer,這對于這個(gè)級別的數據量是可行的。
6、加大虛擬內存
如果系統資源有限,內存提示不足,則可以靠增加虛擬內存來(lái)解決。筆者在實(shí)際項目中曾經(jīng)遇到針對18億條的數據進(jìn)行處理,內存為1GB,1個(gè)P4 2.4G的CPU,對這么大的數據量進(jìn)行聚合操作是有問(wèn)題的,提示內存不足,那么采用了加大虛擬內存的方法來(lái)解決,在6塊磁盤(pán)分區上分別建立了6個(gè)4096M的磁盤(pán)分區,用于虛擬內存,這樣虛擬的內存則增加為4096x6 + 1024 = 25600 M,解決了數據處理中的內存不足問(wèn)題。
7、分批處理
海量數據處理難因為數據量大,那么解決海量數據處理難的問(wèn)題其中一個(gè)技巧是減少數據量?梢詫A繑祿峙幚,然后處理后的數據再進(jìn)行合并操作,這樣逐個(gè)擊破,有利于小數據量的處理,不至于面對大數據量帶來(lái)的問(wèn)題,不過(guò)這種方法也要因時(shí)因勢進(jìn)行,如果不允許拆分數據,還需要另想辦法。不過(guò)一般的數據按天、按月、按年等存儲的,都可以采用先分后合的方法,對數據進(jìn)行分開(kāi)處理。
8、使用臨時(shí)表和中間表
數據量增加時(shí),處理中要考慮提前匯總。這樣做的目的是化整為零,大表變小表,分塊處理完成后,再利用一定的規則進(jìn)行合并,處理過(guò)程中的臨時(shí)表的使用和中間結果的保存都非常重要,如果對于超海量的數據,大表處理不了,只能拆分為多個(gè)小表。如果處理過(guò)程中需要多步匯總操作,可按匯總步驟一步步來(lái),不要一條語(yǔ)句完成,一口氣吃掉一個(gè)胖子。
9、優(yōu)化查詢(xún)SQL語(yǔ)句
在對海量數據進(jìn)行查詢(xún)處理過(guò)程中,查詢(xún)的SQL語(yǔ)句的性能對查詢(xún)效率的影響是非常大的,編寫(xiě)高效優(yōu)良的SQL腳本和存儲過(guò)程是數據庫工作人員的職責,也是檢驗數據庫工作人員水平的一個(gè)標準,在對SQL語(yǔ)句的編寫(xiě)過(guò)程中,例如減少關(guān)聯(lián),少用或不用游標,設計好高效的數據庫表結構等都十分必要。筆者在工作中試著(zhù)對1億行的數據使用游標,運行3個(gè)小時(shí)沒(méi)有出結果,這是一定要改用程序處理了。
10、使用文本格式進(jìn)行處理
對一般的數據處理可以使用數據庫,如果對復雜的數據處理,必須借助程序,那么在程序操作數據庫和程序操作文本之間選擇,是一定要選擇程序操作文本的,原因為:程序操作文本速度快;對文本進(jìn)行處理不容易出錯;文本的存儲不受限制等。例如一般的海量的網(wǎng)絡(luò )日志都是文本格式或者csv格式(文本格式),對它進(jìn)行處理牽扯到數據清洗,是要利用程序進(jìn)行處理的,而不建議導入數據庫再做清洗。
11、定制強大的'清洗規則和出錯處理機制
海量數據中存在著(zhù)不一致性,極有可能出現某處的瑕疵。例如,同樣的數據中的時(shí)間字段,有的可能為非標準的時(shí)間,出現的原因可能為應用程序的錯誤,系統的錯誤等,這是在進(jìn)行數據處理時(shí),必須制定強大的數據清洗規則和出錯處理機制。
12、建立視圖或者物化視圖
視圖中的數據來(lái)源于基表,對海量數據的處理,可以將數據按一定的規則分散到各個(gè)基表中,查詢(xún)或處理過(guò)程中可以基于視圖進(jìn)行,這樣分散了磁盤(pán)I/O,正如10根繩子吊著(zhù)一根柱子和一根吊著(zhù)一根柱子的區別。
13、避免使用32位機子(極端情況)
目前的計算機很多都是32位的,那么編寫(xiě)的程序對內存的需要便受限制,而很多的海量數據處理是必須大量消耗內存的,這便要求更好性能的機子,其中對位數的限制也十分重要。
14、考慮操作系統問(wèn)題
海量數據處理過(guò)程中,除了對數據庫,處理程序等要求比較高以外,對操作系統的要求也放到了重要的位置,一般是必須使用服務(wù)器的,而且對系統的安全性和穩定性等要求也比較高。尤其對操作系統自身的緩存機制,臨時(shí)空間的處理等問(wèn)題都需要綜合考慮。
15、使用數據倉庫和多維數據庫存儲
數據量加大是一定要考慮OLAP的,傳統的報表可能5、6個(gè)小時(shí)出來(lái)結果,而基于Cube的查詢(xún)可能只需要幾分鐘,因此處理海量數據的利器是OLAP多維分析,即建立數據倉庫,建立多維數據集,基于多維數據集進(jìn)行報表展現和數據挖掘等。
16、使用采樣數據,進(jìn)行數據挖掘
基于海量數據的數據挖掘正在逐步興起,面對著(zhù)超海量的數據,一般的挖掘軟件或算法往往采用數據抽樣的方式進(jìn)行處理,這樣的誤差不會(huì )很高,大大提高了處理效率和處理的成功率。一般采樣時(shí)要注意數據的完整性和,防止過(guò)大的偏差。筆者曾經(jīng)對1億2千萬(wàn)行的表數據進(jìn)行采樣,抽取出400萬(wàn)行,經(jīng)測試軟件測試處理的誤差為千分之五,客戶(hù)可以接受。
還有一些方法,需要在不同的情況和場(chǎng)合下運用,例如使用代理鍵等操作,這樣的好處是加快了聚合時(shí)間,因為對數值型的聚合比對字符型的聚合快得多。類(lèi)似的情況需要針對不同的需求進(jìn)行處理。
海量數據是發(fā)展趨勢,對數據分析和挖掘也越來(lái)越重要,從海量數據中提取有用信息重要而緊迫,這便要求處理要準確,精度要高,而且處理時(shí)間要短,得到有價(jià)值信息要快,所以,對海量數據的研究很有前途,也很值得進(jìn)行廣泛深入的研究。
數據處理工作總結2
20xx年xxx水利普查空間數據工作,嚴格按照《第一次全國水利普查空間數據采集與處理實(shí)施方案》要求,以質(zhì)量為中心,精心組織、周密安排,經(jīng)過(guò)全區普查工作人員的辛苦努力在對數據錄入、外業(yè)采集及內業(yè)標繪等各項工作,達到了上級規定的具體要求,水利普查清查階段的空間數據處理工作,現將xxx水利普查清查階段的空間數據處理工作總結報告如下
一、數據處理情況
1、清查數據錄入情況普查辦數據處理工作完成如下:
一是完成清查數據錄入,水利工程128處、經(jīng)濟社會(huì )用水調查對象39個(gè)、河湖治理清查對象22個(gè)、行業(yè)能力單位41個(gè)、灌區13個(gè);
二是完成鄉鎮典型居民生活用水戶(hù)調查對象100戶(hù)、地下水取水井清查對象xxx眼、規模以上地下水水源地xx處;
2、普查靜態(tài)數據采集、錄入情況
通過(guò)清查登記、審核對比、查缺補漏、數據處理、普查靜態(tài)數據獲取等工作流程,獲取普查靜態(tài)數據表xxx張,錄入普查靜態(tài)數據表xxxx張、靜態(tài)指標xxxx個(gè)。按照全國水利普查空間數據采集與處理相關(guān)技術(shù)規定要求,空間數據采集是采用“內業(yè)為主、外業(yè)為輔”的方法,但為了提高空間數據的精度,最大限度地減小空間標繪的.誤差,采集小組對所有需要標繪對象的空間數據都進(jìn)行了外業(yè)采集,并按要求規范填寫(xiě)《水利普查空間數據外業(yè)采集成果一覽表》,對采集的坐標位置進(jìn)行整理、匯總,采集數據完成GPS空間外業(yè)數據采集點(diǎn)xxx處,萬(wàn)畝灌區主干渠系完成普查靜態(tài)數據采集100%、數據錄入100%。
二、空間數據標繪情況
1、內業(yè)標繪情況對可以在電子工作底圖上直接辨識的清查對象,參照《第一次全國水利普查空間數據采集與處理技術(shù)規定》,通過(guò)選取工作底圖中的相應分類(lèi)要素,完成該對象在電子工作底圖上的位置、形態(tài)特征,若分類(lèi)要素未表達該對象或表達的位置、形態(tài)與遙感影像存在較大差異,則結合已掌握的實(shí)際信息,以遙感影像為參考,做必要的調整。完成空間數據采集100%、標繪100%。
2、對象關(guān)系建立xxx水利普查數據處理組,依據清查登記成果,結合基礎資料等相關(guān)信息,利用配發(fā)的電子工作底圖,借助水利普查空間數據采集處理軟件,完成對象空間關(guān)系的建立。
三、涉密數據管理
xxx水利普查數據組為切實(shí)規范第一次全國水利普查涉密數據的使用管理,保障涉密數據使用安全防止國家秘密、商業(yè)秘密和個(gè)人隱私等泄露,根據《中華人民共和國保守國家秘密法》、《中華人民共和國保守國家秘密法實(shí)施辦法》、《中華人民共和國統計法》和《水利部保密工作管理規定》等有關(guān)法規,結合我區水利普查工作實(shí)際制定《普查涉密數據日常安全管理細則》、《xxx普查涉密信息保密管理制度》并嚴格執行。對普查相關(guān)人員進(jìn)出保密機房實(shí)行在冊登記。四、下一步工作打算
普查辦數據組下一步打算,一是要嚴格按照普查時(shí)間節點(diǎn)要求,做好普查表數據審核、平衡處理、內業(yè)標繪工作。二是對今年工作經(jīng)驗教訓進(jìn)行系統總結,重點(diǎn)是完善各專(zhuān)項普查對象的空間關(guān)系建立。三是對空間數據,做到科學(xué)分析、認真標繪。今后我們將在市普查辦數據專(zhuān)項組的領(lǐng)導下,按照水利普查方案,嚴把時(shí)間節點(diǎn),順利完成xxx第一次全國水利普查工作空間數據處理工作。
【數據處理工作總結】相關(guān)文章:
數據處理實(shí)習日記06-25
數據處理求職簡(jiǎn)歷模板10-05
數據處理崗位職責06-16
EXCEL數據處理中的方法07-17
數據處理與分析相關(guān)空白表格09-28
數據處理與分析相關(guān)空白表格07-01
數據處理員簡(jiǎn)歷表格10-18
MatrixVB在測量數據處理中的應用07-26
關(guān)于海量數據處理的面試題08-27