1.在以下地址下载最新的PIP安装文件:http://pypi.python.org/pypi/pip#downloads
2.解压安装
3.下载Windows的easy installer,然后安装:http://pypi.python.org/pypi/setuptools
4.安装setuptools工具
5.命令行工具cd切换到pip的目录,找到setup.py文件,然后输入python setup.py install,运行即可(之所以能运行这步,是因为之前安装的setuptools工具,以后就可以随意安装python的库了,只要找对setup.py文件的路径,运行上述命令,就可以方便的安装了)
6.把python的安装路径添加到环境变量path中,例如G:\python2.6\Scripts
7.完成!
另:安装完pip和easy_installer工具后,以后再安装python其他库就方便了
例如:
easy_install redis or pip install redis (推荐)
相关文章
- 如何检查python是否安装了pip_““如何查看python是否安装pip
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- 如何在windows下的Python开发工具IDLE里安装其他模块
- python安装包工具pip的安装
- [Python] Window机器上同时安装Python 2 和 Python 3,如何兼容切换使用?
- linux下安装python3和对应的pip环境
- Python知识点:基于Python工具和技术,如何使用Truffle进行智能合约开发与部署
- 通过pip命令导出和导入Python环境安装包
- 本地同时安装python2和python3时pip报错
- Python的包管理工具--PIP安装使用