python数据分析工具安装集合

用python做数据分析离不开几个好的轮子(或称为科学棧/第三方包等),比如matplotlib,numpy, scipy, pandas, scikit-learn, gensim等,这些包的功能强大,丰富,包括含了绘图,机器学习,爬虫,数据分析等等。而开发工具推荐使用pycharm或者Jupyter notebook(ipython notebook)。开发起来的样子是这样的。
此方法,同时适用于windows和linux(也许mac也行,没实践过)。我的环境是ubuntu16.04,64位,python2.7.12,python3.5.1+。不过,这次的记录安装方式跟系统关系不大,linux和windows实践方式相同,只不过,windows用户打开CMD后,输入的命令不带sudo,也不需要另行安装pip(windows自带)

1.安装Jupyter notebook(或者安装pycharm直接下载安装皆可,linux和windows同样适用)

#如果是ubuntu16.04 默认已经安装了python2和python3
#需要另行安装pip,python2的pip安装
sudo apt-get python-pip

#如果安装python3的pip
sudo apt-get python3-pip
#安装开发工具Jupyter notebook
sudo pip3 install jupyter

注意,只能安装一个jupyter notebook,默认只能包含一个内核,如python3或者python2,请根据自己开发需求。
特殊需求:
需要python3和python2共存的,请看我另几篇文章。Windows下Python多版本共存

2.在线安装(windows/linux)主要的数据分析工具(轮子)

注意:Ubuntn中,默认的pip 是指python2的,pip3才是python3的,如果安装python3的轮子,请将pip替换成pip3,反之亦然。
数据分析(为了避免依赖冲突,请按顺序安装)

sudo pip3 install numpy
sudo pip3 install pandas
#安装matplotlib需要先安装libpng和freetype
sudo apt-get install libpng-dev
#如果不知到需要下载工具的全称,可以用来查找需要工具的关键词sudo apt search freetype
sudo apt-get install libfreetype6-dev
sudo pip3 install matplotlib
sudo pip3 install scipy
#文本处理工具
sudo pip3 install gensim
#机器学习
sudo pip3 install scikit-learn

安装完成某个轮子之后,应该是这样的

以此方法安装,随着知识领域的扩展和经验的增加,我们会发现更多更有趣的轮子。

查看已经安装的轮子

pip3 list

3.离线安装(windows/linux)数据分析工具(轮子)

直接在上述网址下载对应的.whl(虽然本网址http://www.lfd.uci.edu/~gohlke/pythonlibs/只有win的= =,但是方法适合任何平台,离线包可以去官网下载,如https://pypi.python.org/pypi/scipy/)
pip3 install 下载的本地路径/numpy-1.11.1+mkl-cp35-cp35m-win_amd64.whl
pip3 install 下载的本地路径/numpy-1.11.1-cp27-cp27mu-manylinux1_x86_64.whl

4.主要的大数据分析轮子介绍

博主比较懒,已经存在的介绍就不赘述了,直接上送包下载地址,且该地址对包有了大意的介绍。
送上python包地址http://www.lfd.uci.edu/~gohlke/pythonlibs/

时间: 2024-10-02 03:23:16

python数据分析工具安装集合的相关文章

《Python数据分析与挖掘实战》一2.3 Python数据分析工具

2.3 Python数据分析工具 Python本身的数据分析功能不强,需要安装一些第三方扩展库来增强它的能力.本书用到的库有Numpy.Scipy.Matplotlib.Pandas.Scikit-Learn.Keras和Gensim等,下面将对这些库的安装和使用进行简单的介绍. 如果读者安装的是Anaconda发行版,那么它已经自带了以下库:Numpy.Scipy.Mat-plotlib.Pandas和Scikit-Learn. 本章主要是对这些库进行简单的介绍,在后面的章节中,会通过各种案例

《Python数据分析与挖掘实战》一导读

前 言 为什么要写这本书LinkedIn对全球超过3.3亿用户的工作经历和技能进行分析后得出,目前最炙手可热的25项技能中,数据挖掘排名第一.那么数据挖掘是什么?数据挖掘是从大量数据(包括文本)中挖掘出隐含的.先前未知的.对决策有潜在价值的关系.模式和趋势,并用这些知识和规则建立用于决策支持的模型,提供预测性决策支持的方法.工具和过程.数据挖掘有助于企业发现业务的趋势,揭示已知的事实,预测未知的结果,因此"数据挖掘"已成为企业保持竞争力的必要方法. 但跟国外相比,由于我国信息化程度不太

《树莓派Python编程入门与实战》——3.3 安装Python和工具

3.3 安装Python和工具 树莓派Python编程入门与实战 如果你发现Python环境中缺了什么,别担心,这不是大问题.在这节,你可以通过下面的步骤快速安装所有的东西. 1.如果你的树莓派是使用有线连接到互联网的,确保它能连接到网络然后启动你的树莓派. 2.启动LXDE图形界面,如果它没有自动启动的话.如果使用的无线网络的话,确保它是工作的. 3.打开LXTerminal.在命令行提示符,输入sudo apt-get install python3 idle3 nano然后回车. 提示:

《树莓派Python编程入门与实战(第2版)》——3.3 安装Python和工具

3.3 安装Python和工具 如果你发现Python环境中缺了什么,别担心,这不是大问题.在这节中,你可以通过如下的步骤快速安装所有的东西. 1.如果你的树莓派是使用有线连接到互联网的,确保它能连接到网络然后启动你的树莓派. 2.启动图形界面,如果它没有自动启动的话.如果使用的无线网络的话,确保它是工作的. 3.单击Terminal图标打开一个终端.在命令行提示符下,输入sudo apt-get install python3 idle3 nano然后按回车键. TIP 提示:但是我并不需要所

《Python数据分析与挖掘实战》一2.2 Python使用入门

2.2 Python使用入门 限于篇幅,本书不可能详细地讲解Python的使用,而只能是针对本书涉及的数据挖掘案例所用到的代码进行基本讲解.如果读者是初步接触Python,并且用Python的目的就是数据挖掘,那么相信本节的介绍对你来说是比较充足的.如果读者需要进一步了解Python,或者需要运行更加复杂的任务,那么本书是不够的(例如,本书没有谈及到面向对象编程),请读者自行阅读相应的Python教程. 2.2.1 运行方式 本节示例代码使用的是Python 2.7.运行Python代码有两种方

最好用的实时威胁分析+大数据分析工具

文章讲的是最好用的实时威胁分析+大数据分析工具,随着网络技术的发展,扫描和筛选恶意软件的过程越来越复杂,大多数传统的反恶意软件工具只能解决非常表面的问题,使用简单的方法防护网络端点的安全已经过时了. 为了发现并阻止恶意软件的攻击,我们将为您介绍几款先进的端点响应和检测工具,这些工具能够高效的找到恶意软件并进行解决.在此之前,我们曾经介绍了一款尖端工具:科摩多端点保护v5.1,有的读者对这件软件并不满意,今天我们将介绍另外一款端点保护工具,Counter Tack Sentinel v5.5,喜欢

创建Python数据分析的Docker镜像+Docker自定义镜像commit,Dockerfile方式解析+pull,push,rmi操作

实例解析Docker如何通过commit,Dockerfile两种方式自定义Dcoker镜像,对自定义镜像的pull,push,rmi等常用操作,通过实例创建一个Python数据分析开发环境的Docker镜像.1.通过commit操作在一个已有的镜像上做更改而保存为新的镜像.2.实例解析Dockerfile自定义镜像原理过程和命令规则.3.实例解析对自定义镜像做pull,push,rmi等常用操作. 0.0.查看本地已有的镜像 wxl@wxl-pc:~$ docker images 其实,本地已

11款主流的可视化数据分析工具评测报告

BI(BusinessIntelligence)即商业智能,越来越多的智能软件供应商推出可视化数据分析工具,应对企业业务人员的大数据分析需求.然而如果你觉得不是数据分析专业.没有挖掘算法基础就无法使用BI工具?NO,自助式分析工具已经让数据产品链条变得大众化,为了更好地帮助读者选择分析工具,本文将为介绍数说立方.数据观.魔镜等11款BI-商业智能产品,排名不分先后! 一.功能列表 图1 数据可视化分析工具 二.详细介绍 数说立方 图2 数据可视化分析工具 数说立方是数说故事新推出的一款面向数据分

手把手教你从零搭建Python数据分析环境

由于最近再做推荐系统的特征处理,需要借助一些工具来筛选特征.最初使用了R,R的安装很简单,而且API也很容易使用,直接就能出图.后来,发现很多人在python和R之间做选择,所以我也在两个工具间摇摆不定.后来,发现Tensorflow里面有很多python的代码,而且python可以做爬虫写web,几乎是万金油的角色.本着想找一门以后日常使用的工具的心态,最终还是选择了python. 那么本篇就从下面几个方面介绍下,如何在日常使用python做数据分析: python安装以及numpy.matp