中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Java怎么將千萬級別數據生成文件并優化

發布時間:2021-09-10 11:57:52 來源:億速云 閱讀:216 作者:chen 欄目:編程語言

這篇文章主要講解了“Java怎么將千萬級別數據生成文件并優化”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Java怎么將千萬級別數據生成文件并優化”吧!

現場提的問題概況

  • 數據量:生成xml,每個文件100W+ 條的數據

  • 內存控制:最好不要超過512M

  • 問題詳情:在處理70W左右的時候內存溢出

一、先來看一下程序要生成的xml文件的結構

<File> 
<FileType>1</FileType> 
<RType>12</RType> 
<Version>03</Version> 
<BNo>004</BNo> 
<FileQ>5</FileQ> 
<FNo>0006</FNo> 
<RecordNum>1000000</RecordNum> 
<!-- 上面是文件頭 下面是百萬個<RecordList> --> 
<RecordList> 
  <Msisdn>10350719507</Msisdn> 
  <State>1</State> 
  <StartDate>20110303</StartDate> 
  <Date>20110419</Date> 
  <Balance>45000</Balance> 
</RecordList> 
  ... <!-- 可能百萬個 <RecordList> 塊--> 
</File>

二、給大家說一下如何把大數據生成xml文件

1、小數據量的情況下 < 1W條數據

比較好用的方法是使用開源框架,比如XStream 直接把javabean 生成 xml

  • 優點:api操作簡單,方便維護

  • 缺點:數據量大的情況下太消耗內存

2、大數據量生成一個xml文件(本程序采用的方法)

自己做的一個可以使用極少的內存生成無限制大的xml文件框架由3部分生成xml文件

第一部分:生成文件頭

例如:xxx.toXML(Object obj, String fileName)

第二部分:通過每次向文件里面追加3000(可配置)條數據的形式生成文件塊

例如:xxx.appendXML(Object object); //object 可以是ArrayList 或者一個單獨的javaBean

第三部分:生成xml文件尾巴

例如:xxx.finishXML();

  • 程序中的調用:調用xxx.toXML(Object obj, String fileName) 生成文件頭之后,可以循環從數據庫中讀取數據生成ArrayList,通過xxx.appendXML(Object object) 方法追加到xml文件里面,xxx.finishXML() 對文件進行收尾

  • 對框架說明:我上面提供的例子有文件頭 + 文件塊 + 文件尾巴. 如果和你們的實際使用文件不太一致的話,可以參考上面提供的思路修改一下即可,主要的方法是把相同的文件塊部分分離出來通過追加的形式寫入xml文件.

有了思路之后,大家可以嘗試著自己寫一個類似的大數據處理框架(千萬級別以上),如何有什么需要幫助的可以直接聯系我,因為是公司的程序,不太敢放出來,怕......

三、我是如何測試性能和優化的

1、手動排除

根據文件崩潰時候的日志發現是在生成xml的框架里面報的錯誤,第一想到的是框架有些資源沒有釋放.于是把自己做的文件生成框架整體的排查了一遍,并且自己寫個簡單程序生成200萬條數據,使用xml框架生成一個xml文件,整個生成過程中任務管理器(xp)查看程序對應的java進程使用的內存基本在20M左右,因此排除框架的問題.懷疑是數據庫查詢和調用框架的部門出現問題.

檢測了一遍主程序的關鍵部分代碼,優化了一下字符串處理.手動的釋放一些對象的內存(例如:調用ArrayList.clear(),或者把對象置空等),分配512內存后運行程序,60萬數據的時候內存溢出,因為能主動釋放的對象都已經釋放掉了,還是沒有解決,果斷放棄看代碼,準備使用JProfile進行內存檢測.

2、手動排除沒有解決,借助內存分析工具JProfile進行排除

通過在數據庫中生成300W條數據,在JProfile上面多跑程序,一邊運行,一邊調用JProfile 提供的執行GC按鈕主動運行垃圾回收,運行50W數據后,通過檢測中發現 java.long.String[] 和 oracle.jdbc.driver.Binder[] 兩個對象的數目一直保持在自增狀態,而且數目基本上差不多,對象數目 都在200W以上,由于java.long.String[]對象是需要依賴對象而存在的,因此斷定問題就出在oracle.jdbc.driver.Binder[]上面,由于改對象存在引用導致String[]不能正常回收.

3、通過在JProfile對象查看對象的管理

檢測到oracle.jdbc.driver.Binder 被 oracle.jdbc.driver.T4CPreparedStatement 引起,而T4CPreparedStatement正好是Oracle對jdbc OraclePreparedStatement的具體實現,因此斷定是在數據庫處理方面出現的問題導致oracle.jdbc.driver.Binder對象不能正常釋放,通過再一次有目的的檢測代碼,排查jdbc數據查詢的問題,把問題的矛頭直至數據庫的批處理和事務處理.因此程序是每生成一個文件成功后,會把已經處理的數據轉移到對應的歷史表中進行備份,而再個表操作的過程中使用了批處理和事務,使用批處理主要是保證執行速度,使用事務主要是保證同時成功和失敗。

4、又因此程序每次從數據庫中查詢3000條數據處理

所以準備監控oracle.jdbc.driver.Binder的對象數目是否和查詢次數對應.,通過在程序中Sysout輸出查詢次數 + JProfile運行GC測試 Binder,數據匹配,證實是java在數據庫批處理的過程中有些問題.

5、專門把批處理代碼提取出來通過JProfile內存分析.最終問題定位完畢.

原因如下:100W數據生成一個文件的過程中,等文件生成完畢之后才能把數據庫中的數據備份到歷史表中,這個時候才能進行事務的提交,也就是執行commit(), 并且刪除原表數據,100W數據按照3000一批寫入文件,每批次只是通過 PreparedStatement.addBatch();加入到批次里面去,并沒有執行PreparedStatement.executeBatch(),而是在commit()之前統一調用的PreparedStatement.executeBatch(),這樣的話PreparedStatement就會緩存100W條數據信息,造成了內存溢出.

錯誤的方法如下

try{
    conn.setAutoCommit(false);
    pst = conn.prepareStatement(insertSql);
    pstDel = conn.prepareStatement(delSql);
    pstUpdate = conn.prepareStatement(sql);
    ... 
      //totalSize = 100W數據 / 3000一批次 
    for (int i = 1; i <= totalSize; i++) {
        client.appendXML(list);
    }
    // 錯誤的使用方法 
    client.finishXML();
    pst.executeBatch();
    pstDel.executeBatch();
}
... 
  finally {
    try {
        if (isError) {
            conn.rollback();
        } else 
              conn.commit();
        ...
    }
    ...
}

正確的方法如下

try{
    conn.setAutoCommit(false);
    pst = conn.prepareStatement(insertSql);
    pstDel = conn.prepareStatement(delSql);
    pstUpdate = conn.prepareStatement(sql);
    ... 
        //totalSize = 100W數據 / 3000一批次 
    for (int i = 1; i <= totalSize; i++) {
        list = 從數據庫中查詢3000條數據 
                client.appendXML(list);
        pst.executeBatch();
        pstDel.executeBatch();
    }
    client.finishXML();
}
... 
finally {
    try {
        if (isError) {
            conn.rollback();
        } else 
               conn.commit();
        ...
    }
    ...
}

如果碰到和我一樣的需要給大家一個提醒。

oracle在每次執行executeBatch();進行批處理的時候,當前connection對應的rownum會根據操作的結果發生變化。

在執行pst.executeBatch(); 之后,當前連接的 rownum 數就會發生變化. 因此凡是通過rownum查詢數據的程序都要小心這一點。

感謝各位的閱讀,以上就是“Java怎么將千萬級別數據生成文件并優化”的內容了,經過本文的學習后,相信大家對Java怎么將千萬級別數據生成文件并優化這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

拉萨市| 博兴县| 汤阴县| 尚义县| 武义县| 赞皇县| 汶川县| 海阳市| 尉犁县| 五指山市| 长寿区| 石家庄市| 边坝县| 侯马市| 田阳县| 宁德市| 固始县| 城步| 万荣县| 浦北县| 兴仁县| 日土县| 门头沟区| 静安区| 孟州市| 调兵山市| 霍林郭勒市| 尤溪县| 大田县| 英吉沙县| 遵化市| 彭山县| 齐河县| 离岛区| 南充市| 安阳县| 乌鲁木齐县| 云浮市| 永和县| 庆云县| 稻城县|