1.直接pip install pydensecrf 出错处提示Microsoft Visual C++ 14.0 is required.需要下载visual studio。
2. 下载完之后重新安装,又提示cl.exe’ failed with exit status 2。一直搜相关的文章也没有解决。。
3. 当我怀疑是不是python版本不对应的问题时,重新组织了问题,终于找到了解决办法。 原文.
4. 提示:cp37表示python为3.7,64位电脑选择win_adm64
5.不同的是,我是直接在cmd中pip install 安装包下载路径。
6.输入 pip list可以发现下载成功
7.在python安装路径下的Lib–>site-packages也可找到
相关文章
- python中使用提示的python -m pip install --upgrade pip升级失败解决方案
- python 工程生成requirements pipreqs ./ --encoding=utf-8 --force pip install -r
- 解决pip install 速度慢
- conda配置环境:pip install安装的包,conda list中无法找到
- pip install 参数完全解析
- Ubuntu14 sudo apt-get install apt-show-versions出错
- pip install win32api报错解决方法
- yum install vsftpd 出错
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- pip install 总是报错的原因