1.安装virtualenv和virtualenvwrapper
pip3 install virtualenv
pip3 install virtualenvwrapper
2.创建目录用来存放虚拟环境
mkdir $HOME/.virtualenvs
3.打开~/.bashrc文件,并添加内容:
export WORKON_HOME=$HOME/.virtualenvs
export VIRTUALENVWRAPPER_PYTHON=/usr/bin/python3
export VIRTUALENVWRAPPER_VIRTUALENV=~/.local/bin/virtualenv
source ~/.local/bin/virtualenvwrapper.sh
4.重新加载配置
source ~/.bashrc
5.创建虚拟环境
mkvirtualenv py3_django
mkvirtualenv py3_flask
相关命令
1.创建运行环境 py3_django
mkvirtualenv py3_django
2.工作在py3_django环境或从其它环境切换到py3_django环境
workon py3_django
3.退出终端环境
deactivate
3.删除运行环境py3_django
rmvirtualenv py3_django
4.列出可用的运行环境
workon 或者 lsvirtualenv
workon [两次tab键]
5.列出当前环境安装了的包
lssitepackages
pip list pip freeze
相关文章
- 在Anaconda虚拟环境中安装cuda和cudnn
- 在Ubuntu系统中安装和升级RabbitVCS
- Linux系统中vim编辑器的安装和使用方法
- Ubuntu中安装和卸载Gnome、KDE、XFACE桌面环境
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- kali中的APT软件包处理工具(apt-get)、Debian软件包管理器(dpkg)、源代码压缩和Nessus安装实用指南
- ubuntu系统中安装gcc和g++
- 在Debian或Ubuntu中安装和使用'搜狗输入法for linux'
- 在 Windows 中安装 OpenSSH 客户端和/或服务器
- Ubuntu22.04中安装Golang1.20和Goland,并创建一个新项目