您好,登錄后才能下訂單哦!
小編給大家分享一下使用python多線程處理大量文件數據的案例,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
在python中,我們會遇到處理大量文件數據的時候。如果我們用for循環順序處理,處理文件數據效率額很低,這時我們就可以使用我們的多線程來處理多個超大的文件數據。
第一步:導入import threading 模塊
import threading
第二步:使用多線程可以同時打開并運行多個數據
#! /usr/bin/env python #encoding=utf-8 import threading import time from Queue import Queue def readFile(): file_object = open('/opt/dev/python/list.dat') global queue for line in file_object: queue.put(line) class Consumer(threading.Thread): def run(self): global queue while queue.qsize() > 0: msg = self.name + '消費了 '+queue.get() print msg time.sleep(0.01) queue = Queue() def main(): readFile() for i in range(5): c = Consumer() c.start() if __name__ == '__main__': main()
以上是“使用python多線程處理大量文件數據的案例”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。