中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python頻繁寫入文件如何提速

發布時間:2020-09-22 14:18:04 來源:億速云 閱讀:209 作者:小新 欄目:編程語言

python頻繁寫入文件如何提速?這個問題可能是我們日常學習或工作經常見到的。希望通過這個問題能讓你收獲頗深。下面是小編給大家帶來的參考內容,讓我們一起來看看吧!

問題背景:有一批需要處理的文件,對于每一個文件,都需要調用同一個函數進行處理,相當耗時。

有沒有加速的辦法呢?當然有啦,比如說你將這些文件分成若干批,每一個批次都調用自己寫的python腳本進行處理,這樣同時運行若干個python程序也可以進行加速。

有沒有更簡單的方法呢?比如說,我一個運行的一個程序里面,同時分為多個線程,然后進行處理?

大概思路:將這些個文件路徑的list,分成若干個,至于分成多少,要看自己cpu核心有多少,比如你的cpu有32核的,理論上就可以加速32倍。

代碼如下:

# -*-coding:utf-8-*-
import numpy as np
from glob import glob
import math
import os
import torch
from tqdm import tqdm
import multiprocessing
label_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/label.txt'
file_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/distortion_image'
save_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/flow_field'
r_d_max = 128
image_index = 0
txt_file = open(label_path)
file_list = txt_file.readlines()
txt_file.close()
file_label = {}
for i in file_list:
    i = i.split()
    file_label[i[0]] = i[1]
r_d_max = 128
eps = 1e-32
H = 256
W = 256
def generate_flow_field(image_list):
    for image_file_path in ((image_list)):
        pixel_flow = np.zeros(shape=tuple([256, 256, 2]))  # 按照pytorch中的grid來寫
        image_file_name = os.path.basename(image_file_path)
        # print(image_file_name)
        k = float(file_label[image_file_name])*(-1)*1e-7
        # print(k)
        r_u_max = r_d_max/(1+k*r_d_max**2)  # 計算出畸變校正之后的對角線的理論長度
        scale = r_u_max/128  # 將這個長度壓縮到256的尺寸,會有一個scale,實際上這里寫128*sqrt(2)可能會更加直觀
        for i_u in range(256):
            for j_u in range(256):
                x_u = float(i_u - 128)
                y_u = float(128 - j_u)
                theta = math.atan2(y_u, x_u)
                r = math.sqrt(x_u ** 2 + y_u ** 2)
                r = r * scale  # 實際上得到的r,即沒有resize到256×256的圖像尺寸size,并且帶入公式中
                r_d = (1.0 - math.sqrt(1 - 4.0 * k * r ** 2)) / (2 * k * r + eps)  # 對應在原圖(畸變圖)中的r
                x_d = int(round(r_d * math.cos(theta)))
                y_d = int(round(r_d * math.sin(theta)))
                i_d = int(x_d + W / 2.0)
                j_d = int(H / 2.0 - y_d)
                if i_d < W and i_d >= 0 and j_d < H and j_d >= 0:  # 只有求的的畸變點在原圖中的時候才進行賦值
                    value1 = (i_d - 128.0)/128.0
                    value2 = (j_d - 128.0)/128.0
                    pixel_flow[j_u, i_u, 0] = value1  # mesh中存儲的是對應的r的比值,在進行畸變校正的時候,給定一張這樣的圖,進行找像素即可
                    pixel_flow[j_u, i_u, 1] = value2
# 保存成array格式
        saved_image_file_path = os.path.join(save_path, image_file_name.split('.')[0] + '.npy')
        pixel_flow = pixel_flow.astype('f2')  # 將數據的格式轉換成float16類型, 節省空間
        # print(saved_image_file_path)
        # print(pixel_flow)
        np.save(saved_image_file_path, pixel_flow)
    return
if __name__ == '__main__':
    file_list = glob(file_path + '/*.JPEG')
    m = 32
    n = int(math.ceil(len(file_list) / float(m)))  # 向上取整
    result = []
    pool = multiprocessing.Pool(processes=m)  # 32進程
    for i in range(0, len(file_list), n):
        result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))
    pool.close()
    pool.join()

在上面的代碼中,函數

generate_flow_field(image_list)

需要傳入一個list,然后對于這個list進行操作,之后對操作的結果進行保存

所以,只需要將你需要處理的多個文件,切分成盡量等大小的list,然后再對每一個list,開一個線程進行處理即可

上面的主函數:

if __name__ == '__main__':
    file_list = glob(file_path + '/*.JPEG')  # 將文件夾下所有的JPEG文件列成一個list
    m = 32  # 假設CPU有32個核心
    n = int(math.ceil(len(file_list) / float(m)))  # 每一個核心需要處理的list的數目
    result = []
    pool = multiprocessing.Pool(processes=m)  # 開32線程的線程池
    for i in range(0, len(file_list), n):
        result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))  # 對每一個list都用上面我們定義的函數進行處理
    pool.close()  # 處理結束之后,關閉線程池
    pool.join()

主要是這樣的兩行代碼,一行是

pool = multiprocessing.Pool(processes=m)  # 開32線程的線程池

用來開辟線程池

另外一行是

result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))  # 對每一個list都用上面我們定義的函數進行處理

對于線程池,用apply_async()同時跑generate_flow_field這個函數,傳入的參數是:file_list[i: i+n]

實際上apply_async()這個函數的作用是所有的線程同時跑,速度是比較快的。

感謝各位的閱讀!看完上述內容,你們對python頻繁寫入文件如何提速大概了解了嗎?希望文章內容對大家有所幫助。如果想了解更多相關文章內容,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

三河市| 星座| 镇赉县| 鹤壁市| 唐河县| 民勤县| 金阳县| 亳州市| 临夏市| 阳信县| 黄龙县| 吉林市| 百色市| 都兰县| 周宁县| 柳州市| 额敏县| 峨边| 和顺县| 厦门市| 安龙县| 庄浪县| 陇川县| 县级市| 疏附县| 商南县| 巴楚县| 彭山县| 确山县| 长岛县| 台南市| 永川市| 新巴尔虎左旗| 桃源县| 都昌县| 宣武区| 昌宁县| 济阳县| 雷波县| 巴彦淖尔市| 凯里市|