中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Numpy與Pandas的高效技巧有哪些

發布時間:2021-10-18 17:41:57 來源:億速云 閱讀:144 作者:iii 欄目:編程語言

本篇內容介紹了“使用Numpy與Pandas的高效技巧有哪些”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

Numpy 的 6 種高效函數

首先從 Numpy 開始。Numpy 是用于科學計算的 Python 語言擴展包,通常包含強大的 N 維數組對象、復雜函數、用于整合 C/C++和 Fortran 代碼的工具以及有用的線性代數、傅里葉變換和隨機數生成能力。

除了上面這些明顯的用途,Numpy 還可以用作通用數據的高效多維容器(container),定義任何數據類型。這使得 Numpy 能夠實現自身與各種數據庫的無縫、快速集成。

使用Numpy與Pandas的高效技巧有哪些

接下來一一解析 6 種 Numpy 函數。

argpartition()

借助于 argpartition(),Numpy 可以找出 N 個最大數值的索引,也會將找到的這些索引輸出。然后我們根據需要對數值進行排序。

x = np.array([12, 10, 12, 0, 6, 8, 9, 1, 16, 4, 6, 0])index_val = np.argpartition(x, -4)[-4:]  index_val  array([1, 8, 2, 0], dtype=int64)np.sort(x[index_val])  array([10, 12, 12, 16])

allclose()

allclose() 用于匹配兩個數組,并得到布爾值表示的輸出。如果在一個公差范圍內(within a tolerance)兩個數組不等同,則 allclose() 返回 False。該函數對于檢查兩個數組是否相似非常有用。

array1 = np.array([0.12,0.17,0.24,0.29])  array2 = np.array([0.13,0.19,0.26,0.31])# with a tolerance of 0.1, it should return False:  np.allclose(array1,array2,0.1)  False# with a tolerance of 0.2, it should return True:  np.allclose(array1,array2,0.2)  True

clip()

Clip() 使得一個數組中的數值保持在一個區間內。有時,我們需要保證數值在上下限范圍內。為此,我們可以借助 Numpy 的 clip() 函數實現該目的。給定一個區間,則區間外的數值被剪切至區間上下限(interval edge)。

x = np.array([3, 17, 14, 23, 2, 2, 6, 8, 1, 2, 16, 0])np.clip(x,2,5)  array([3, 5, 5, 5, 2, 2, 5, 5, 2, 2, 5, 2])

extract()

顧名思義,extract() 是在特定條件下從一個數組中提取特定元素。借助于 extract(),我們還可以使用 and 和 or 等條件。

# Random integers  array = np.random.randint(20, size=12)  array  array([ 0,  1,  8, 19, 16, 18, 10, 11,  2, 13, 14,  3])#  Divide by 2 and check if remainder is 1  cond = np.mod(array, 2)==1  cond  array([False,  True, False,  True, False, False, False,  True, False, True, False,  True])# Use extract to get the values  np.extract(cond, array)  array([ 1, 19, 11, 13,  3])# Apply condition on extract directly  np.extract(((array < 3) | (array > 15)), array)  array([ 0,  1, 19, 16, 18,  2])

where()

Where() 用于從一個數組中返回滿足特定條件的元素。比如,它會返回滿足特定條件的數值的索引位置。Where() 與 SQL 中使用的 where condition 類似,如以下示例所示:

y = np.array([1,5,6,8,1,7,3,6,9])# Where y is greater than 5, returns index position  np.where(y>5)  array([2, 3, 5, 7, 8], dtype=int64),)# First will replace the values that match the condition,   # second will replace the values that does not  np.where(y>5, "Hit", "Miss")  array([ Miss ,  Miss ,  Hit ,  Hit ,  Miss ,  Hit ,  Miss ,  Hit ,  Hit ],dtype= <U4 )

percentile()

Percentile() 用于計算特定軸方向上數組元素的第 n 個百分位數。

a = np.array([1,5,6,8,1,7,3,6,9])print("50th Percentile of a, axis = 0 : ",          np.percentile(a, 50, axis =0))  50th Percentile of a, axis = 0 :  6.0b = np.array([[10, 7, 4], [3, 2, 1]])print("30th Percentile of b, axis = 0 : ",          np.percentile(b, 30, axis =0))  30th Percentile of b, axis = 0 :  [5.1 3.5 1.9]

這就是 Numpy 擴展包的 6 種高效函數,相信會為你帶來幫助。接下來看一看 Pandas 數據分析庫的 6 種函數。

Pandas 數據統計包的 6 種高效函數

Pandas 也是一個 Python 包,它提供了快速、靈活以及具有顯著表達能力的數據結構,旨在使處理結構化 (表格化、多維、異構) 和時間序列數據變得既簡單又直觀。

使用Numpy與Pandas的高效技巧有哪些

Pandas 適用于以下各類數據:

  •  具有異構類型列的表格數據,如 SQL 表或 Excel 表;

  •  有序和無序 (不一定是固定頻率) 的時間序列數據;

  •  帶有行/列標簽的任意矩陣數據(同構類型或者是異構類型);

  •  其他任意形式的統計數據集。事實上,數據根本不需要標記就可以放入 Pandas 結構中。

Pandas 擅長處理的類型如下所示:

  •  容易處理浮點數據和非浮點數據中的 缺失數據(用 NaN 表示);

  •  大小可調整性: 可以從 DataFrame 或者更高維度的對象中插入或者是刪除列;

  •  顯式數據可自動對齊: 對象可以顯式地對齊至一組標簽內,或者用戶可以簡單地選擇忽略標簽,使 Series、 DataFrame 等自動對齊數據;

  •  靈活的分組功能,對數據集執行拆分-應用-合并等操作,對數據進行聚合和轉換;

  •  簡化將數據轉換為 DataFrame 對象的過程,而這些數據基本是 Python 和 NumPy 數據結構中不規則、不同索引的數據;

  •  基于標簽的智能切片、索引以及面向大型數據集的子設定;

  •  更加直觀地合并以及連接數據集;

  •  更加靈活地重塑、轉置(pivot)數據集;  軸的分級標記 (可能包含多個標記);

  •  具有魯棒性的 IO 工具,用于從平面文件 (CSV 和 delimited)、 Excel 文件、數據庫中加在數據,以及從 HDF5 格式中保存 / 加載數據;

  •  時間序列的特定功能: 數據范圍的生成以及頻率轉換、移動窗口統計、數據移動和滯后等。

read_csv(nrows=n)

大多數人都會犯的一個錯誤是,在不需要.csv 文件的情況下仍會完整地讀取它。如果一個未知的.csv 文件有 10GB,那么讀取整個.csv 文件將會非常不明智,不僅要占用大量內存,還會花很多時間。我們需要做的只是從.csv 文件中導入幾行,之后根據需要繼續導入。

import io  import requests# I am using this online data set just to make things easier for you guys  url = "https://raw.github.com/vincentarelbundock/Rdatasets/master/csv/datasets/AirPassengers.csv"  s = requests.get(url).content# read only first 10 rows  df = pd.read_csv(io.StringIO(s.decode( utf-8 )),nrows=10 , index_col=0)

map()

map( ) 函數根據相應的輸入來映射 Series 的值。用于將一個 Series 中的每個值替換為另一個值,該值可能來自一個函數、也可能來自于一個 dict 或 Series。

# create a dataframe  dframe = pd.DataFrame(np.random.randn(4, 3), columns=list( bde ), index=[ India ,  USA ,  China ,  Russia ])#compute a formatted string from each floating point value in frame changefn = lambda x:  %.2f  % x# Make changes element-wise  dframe[ d ].map(changefn)

apply()

apply() 允許用戶傳遞函數,并將其應用于 Pandas 序列中的每個值。

# max minus mix lambda fn  fn = lambda x: x.max() - x.min()# Apply this on dframe that we ve just created above  dframe.apply(fn)

isin()

lsin () 用于過濾數據幀。Isin () 有助于選擇特定列中具有特定(或多個)值的行。

# Using the dataframe we created for read_csv  filter1 = df["value"].isin([112])   filter2 = df["time"].isin([1949.000000])df [filter1 & filter2]

copy()

Copy () 函數用于復制 Pandas 對象。當一個數據幀分配給另一個數據幀時,如果對其中一個數據幀進行更改,另一個數據幀的值也將發生更改。為了防止這類問題,可以使用 copy () 函數。

# creating sample series   data = pd.Series([ India ,  Pakistan ,  China ,  Mongolia ])# Assigning issue that we face  datadata1= data  # Change a value  data1[0]= USA   # Also changes value in old dataframe  data# To prevent that, we use  # creating copy of series   new = data.copy()# assigning new values   new[1]= Changed value # printing data   print(new)   print(data)

select_dtypes()

select_dtypes() 的作用是,基于 dtypes 的列返回數據幀列的一個子集。這個函數的參數可設置為包含所有擁有特定數據類型的列,亦或者設置為排除具有特定數據類型的列。

# We ll use the same dataframe that we used for read_csv  framex =  df.select_dtypes(include="float64")# Returns only time column

最后,pivot_table( ) 也是 Pandas 中一個非常有用的函數。如果對 pivot_table( ) 在 excel 中的使用有所了解,那么就非常容易上手了。

# Create a sample dataframe  school = pd.DataFrame({ A : [ Jay ,  Usher ,  Nicky ,  Romero ,  Will ],          B : [ Masters ,  Graduate ,  Graduate ,  Masters ,  Graduate ],          C : [26, 22, 20, 23, 24]})# Lets create a pivot table to segregate students based on age and course  table = pd.pivot_table(school, values = A , index =[ B ,  C ],                            columns =[ B ], aggfunc = np.sum, fill_value="Not Available")   table

“使用Numpy與Pandas的高效技巧有哪些”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

康保县| 宁化县| 太湖县| 谢通门县| 乐东| 衡阳县| 平陆县| 河西区| 永川市| 永寿县| 临漳县| 沁阳市| 河池市| 韩城市| 定边县| 普兰县| 曲水县| 师宗县| 安龙县| 德钦县| 上饶县| 灵璧县| 江城| 沾益县| 沙洋县| 武城县| 阜新市| 友谊县| 阿图什市| 沅江市| 克山县| 甘谷县| 延津县| 任丘市| 崇仁县| 潞西市| 抚顺县| 资中县| 文水县| 黄大仙区| 潢川县|