中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python的三大開源數據分析工具是什么

發布時間:2022-01-18 14:38:10 來源:億速云 閱讀:196 作者:iii 欄目:編程語言

本文小編為大家詳細介紹“Python的三大開源數據分析工具是什么”,內容詳細,步驟清晰,細節處理妥當,希望這篇“Python的三大開源數據分析工具是什么”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。

在大數據庫領域,Python是最常被使用的編程語言,因此了解與其相關的數據分析工具是很有必要的。如果你正在使用virtualenv、pyenv或其他變體在自己的環境中運行Python,那么,可以嘗試本文推薦的三大開源工具。

(注:本文示例使用IPython,如果感興趣,請確保已經安裝)

$ mkdir python-big-data
$ cd python-big-data
$ virtualenv ../venvs/python-big-data
$ source ../venvs/python-big-data/bin/activate
$ pip install ipython
$ pip install pandas
$ pip install pyspark
$ pip install scikit-learn
$ pip install scipy

本文選取的示例數據是最近幾天從某網站獲取的實際生產日志數據,從技術層面來看,這些數據并不能算作是大數據,因為它的大小只有大約2Mb,但就演示來說已經足夠了。

如果你想獲取這些示例數據,可以使用git從作者的公共GitHub存儲庫中下載:admintome / access-log-data

$ git clone https://github.com/admintome/access-log-data.git

數據是一個簡單的CSV文件,因此每行代表一個單獨的日志,字段用逗號分隔:

2018-08-01 17:10,'www2','www_access','172.68.133.49 - - [01/Aug/2018:17:10:15 +0000] "GET /wp-content/uploads/2018/07/spark-mesos-job-complete-1024x634.png HTTP/1.0" 200 151587 "https://dzone.com/" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"'

以下是日志行架構:

Python的三大開源數據分析工具是什么

由于對數據可執行的操作的復雜性不確定,因此本文重點選取加載數據和獲取數據樣本兩個操作來講解三個工具。

1、Python Pandas

我們討論的第一個工具是Python Pandas。正如它的網站所述,Pandas是一個開源的Python數據分析庫。它最初由AQR Capital Management于2008年4月開發,并于2009年底開源,目前由專注于Python數據包開發的PyData開發團隊繼續開發和維護,屬于PyData項目的一部分。Pandas最初被作為金融數據分析工具而開發出來,因此,pandas為時間序列分析提供了很好的支持。 

首先,啟動IPython并對示例數據進行一些操作。(因為pandas是python的第三方庫所以使用前需要安裝一下,直接使用pip install pandas 就會自動安裝pandas以及相關組件)

Python的三大開源數據分析工具是什么

import pandas as pd
headers = ["datetime", "source", "type", "log"]
df = pd.read_csv('access_logs_parsed.csv', quotechar="'", names=headers)

大約一秒后,我們會收到如下回復:

[6844 rows x 4 columns]
In [3]:

如上所見,我們有大約7000行數據,它從中找到了四個與上述模式匹配的列。

Pandas自動創建了一個表示CSV文件的DataFrame對象,Pandas中的DataFrame數據既可以存儲在SQL數據庫中,也可以直接存儲在CSV文件中。接下來我們使用head()函數導入數據樣本。

In [11]: df.head()
Out[11]:
           datetime source        type                                                log
0  2018-08-01 17:10   www2  www_access  172.68.133.49 - - [01/Aug/2018:17:10:15 +0000]...
1  2018-08-01 17:10   www2  www_access  162.158.255.185 - - [01/Aug/2018:17:10:15 +000...
2  2018-08-01 17:10   www2  www_access  108.162.238.234 - - [01/Aug/2018:17:10:22 +000...
3  2018-08-01 17:10   www2  www_access  172.68.47.211 - - [01/Aug/2018:17:10:50 +0000]...
4  2018-08-01 17:11   www2  www_access  141.101.96.28 - - [01/Aug/2018:17:11:11 +0000]...

使用Python Pandas可以做很多事情, 數據科學家通常將Python Pandas與IPython一起使用,以交互方式分析大量數據集,并從該數據中獲取有意義的商業智能。

2、PySpark

我們討論的第二個工具是PySpark,該工具來自Apache Spark項目的大數據分析庫。

PySpark提供了許多用于在Python中分析大數據的功能,它自帶shell,用戶可以從命令行運行。

$ pyspark

這會加載pyspark shell:

(python-big-data)[email protected]:~/Development/access-log-data$ pyspark Python 3.6.5 (default, Apr 1 2018, 05:46:30) [GCC 7.3.0] on linux Type "help", "copyright", "credits" or "license" for more information. 2018-08-03 18:13:38 WARN Utils:66 - Your hostname, admintome resolves to a loopback address: 127.0.1.1; using 192.168.1.153 instead (on interface enp0s3) 2018-08-03 18:13:38 WARN Utils:66 - Set SPARK_LOCAL_IP if you need to bind to another address 2018-08-03 18:13:39 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /__ / .__/\_,_/_/ /_/\_\ version 2.3.1 /_/ Using Python version 3.6.5 (default, Apr 1 2018 05:46:30) SparkSession available as 'spark'. >>>

當你啟動shell時,你會得到一個Web GUI查看你的工作狀態,只需瀏覽到http:// localhost:4040即可獲得PySpark Web GUI。

讓我們使用PySpark Shell加載示例數據:

dataframe = spark.read.format("csv").option("header","false").option("mode","DROPMALFORMED").option("quote","'").load("access_logs.csv")
dataframe.show()

PySpark提供了已創建的DataFrame示例:

>>> dataframe2.show()
+----------------+----+----------+--------------------+
|             _c0| _c1|       _c2|                 _c3|
+----------------+----+----------+--------------------+
|2018-08-01 17:10|www2|www_access|172.68.133.49 - -...|
|2018-08-01 17:10|www2|www_access|162.158.255.185 -...|
|2018-08-01 17:10|www2|www_access|108.162.238.234 -...|
|2018-08-01 17:10|www2|www_access|172.68.47.211 - -...|
|2018-08-01 17:11|www2|www_access|141.101.96.28 - -...|
|2018-08-01 17:11|www2|www_access|141.101.96.28 - -...|
|2018-08-01 17:11|www2|www_access|162.158.50.89 - -...|
|2018-08-01 17:12|www2|www_access|192.168.1.7 - - [...|
|2018-08-01 17:12|www2|www_access|172.68.47.151 - -...|
|2018-08-01 17:12|www2|www_access|192.168.1.7 - - [...|
|2018-08-01 17:12|www2|www_access|141.101.76.83 - -...|
|2018-08-01 17:14|www2|www_access|172.68.218.41 - -...|
|2018-08-01 17:14|www2|www_access|172.68.218.47 - -...|
|2018-08-01 17:14|www2|www_access|172.69.70.72 - - ...|
|2018-08-01 17:15|www2|www_access|172.68.63.24 - - ...|
|2018-08-01 17:18|www2|www_access|192.168.1.7 - - [...|
|2018-08-01 17:18|www2|www_access|141.101.99.138 - ...|
|2018-08-01 17:19|www2|www_access|192.168.1.7 - - [...|
|2018-08-01 17:19|www2|www_access|162.158.89.74 - -...|
|2018-08-01 17:19|www2|www_access|172.68.54.35 - - ...|
+----------------+----+----------+--------------------+
only showing top 20 rows

我們再次看到DataFrame中有四列與我們的模式匹配,DataFrame此處可以被視為數據庫表或Excel電子表格。

3、Python SciKit-Learn

任何關于大數據的討論都會引發關于機器學習的討論,幸運的是,Python開發人員有很多選擇來使用機器學習算法。

在沒有詳細介紹機器學習的情況下,我們需要獲得一些執行機器學習的數據,我在本文中提供的示例數據不能正常工作,因為它不是數字類型的數據。我們需要操縱數據并將其呈現為數字格式,這超出了本文的范圍,例如,我們可以按時間映射日志以獲得具有兩列的DataFrame:一分鐘內的日志數和當前時間:

+------------------+---+
| 2018-08-01 17:10 | 4 |
+------------------+---+
| 2018-08-01 17:11 | 1 |
+------------------+---+

通過這種形式的數據,我們可以執行機器學習算法來預測未來可能獲得的訪客數量,SciKit-Learn附帶了一些樣本數據集,我們可以加載一些示例數據,來看一下具體如何運作。

In [1]: from sklearn import datasets
In [2]: iris = datasets.load_iris()
In [3]: digits = datasets.load_digits()
In [4]: print(digits.data)
[[ 0.  0.  5. ...  0.  0.  0.]
 [ 0.  0.  0. ... 10.  0.  0.]
 [ 0.  0.  0. ... 16.  9.  0.]
 ...
 [ 0.  0.  1. ...  6.  0.  0.]
 [ 0.  0.  2. ... 12.  0.  0.]
 [ 0.  0. 10. ... 12.  1.  0.]]

這將加載兩個用于機器學習分類的算法,用于對數據進行分類。

讀到這里,這篇“Python的三大開源數據分析工具是什么”文章已經介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內容的文章,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

长丰县| 祁东县| 桂东县| 岳池县| 三穗县| 濮阳县| 奈曼旗| 天峻县| 昭平县| 靖江市| 于田县| 绥宁县| 疏勒县| 阿拉善右旗| 洛隆县| 浑源县| 阳新县| 年辖:市辖区| 莱阳市| 洛南县| 涡阳县| 河源市| 旺苍县| 定结县| 县级市| 岑溪市| 贵溪市| 赤城县| 色达县| 乐清市| 友谊县| 太保市| 宜都市| 扎赉特旗| 呼伦贝尔市| 河间市| 景谷| 湾仔区| 甘肃省| 兖州市| 泰来县|