- 问题描述:
- 开始安装了 jdk8 后来装了jdk9,可以为项目配置不同的jdk,相安无事;
- 今天发现软件需要jdk8的环境,结果我的java -version始终是jdk9.0.1;
- 解决办法:使java -version是1.8....。
- 具体实现:
- 打开环境变量配置:将path配置成所需要的jdk版本即可;
- 比如:D:\JDK8\jdk1.8.0_144\bin;
- 对于JAVA_HOME:在本次测试中,无论配置成1.8或1.9或者2个以分号间隔,都可以。索性直接删掉,也可正常使用。
- 本以为到上面就ok,实际上还是不能随着path中的配置改变,需要做如下修改:将本机位于C盘的 java.exe、javaw.exe、javaws.exe三个文件 删除即可(具体位置我在删除之后也找不见了,可参考:http://blog.****.net/tooky_poom/article/details/60768458)。
- 注意:更改path配置后,应重新cmd命令,查看最新jdk版本。
- 注:以上结果基于win7,jdk1.8与1.9测试得出。
相关文章
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- win10系统安装了多个版本的JDK如何切换
- Windows下的Java环境JDK的安装
- Ubuntu 14.04 LTS 版本(仅对32位操作系统,i686)下,安装 Java SE Development Kit 8u152(JDK 1.8.0_152)
- win7 64位操作系统下git的安装 显示文件版本和正在运行的windows版本不一致
- Linux系统下安装jdk,运行java -version出现的bash: java: command not found问题
- windows10系统下JDK和Tomcat安装和配置的详细图文教程
- Windows下多个JDK版本的切换方法
- JAVA学习提高之----安装多个JDK版本的问题
- Python虚拟环境的安装和配置-virtualenv与windows下多个python版本共存