由于要在同一个Ubuntu环境下编译2.1和2.3两份代码,而他们所使用的java版本一个是1.5,一个是1.6,所以在编之前需要进行切换;
切换的方法很简单,使用下面的两个命令即可:
update-alternatives --config java
update-alternatives --config javac
例如:
由于要在同一个Ubuntu环境下编译2.1和2.3两份代码,而他们所使用的java版本一个是1.5,一个是1.6,所以在编之前需要进行切换;
切换的方法很简单,使用下面的两个命令即可:
update-alternatives --config java
update-alternatives --config javac
例如:
root@www.linuxidc.com:~# update-alternatives --config java
There are 2 choices for the alternative java (providing /usr/bin/java).
选择 路径 优先级 状态
------------------------------------------------------------
* 0 /usr/lib/jvm/java-6-sun/jre/bin/java 63 自动模式
1 /usr/lib/jvm/java-1.5.0-sun/jre/bin/java 53 手动模式
2 /usr/lib/jvm/java-6-sun/jre/bin/java 63 手动模式
要维持当前值[*]请按回车键,或者键入选择的编号:1
update-alternatives: 使用 /usr/lib/jvm/java-1.5.0-sun/jre/bin/java 来提供 /usr/bin/java (java),于 手动模式 中。
只要输入想要切换的编号回车即可,不改的话直接回车,别忘记javac也改一下~
改完之后,
java -version
javac -version
确认一下~
root@www.linuxidc.com:~# update-alternatives --config java
There are 2 choices for the alternative java (providing /usr/bin/java).
选择 路径 优先级 状态
------------------------------------------------------------
* 0 /usr/lib/jvm/java-6-sun/jre/bin/java 63 自动模式
1 /usr/lib/jvm/java-1.5.0-sun/jre/bin/java 53 手动模式
2 /usr/lib/jvm/java-6-sun/jre/bin/java 63 手动模式
要维持当前值[*]请按回车键,或者键入选择的编号:1
update-alternatives: 使用 /usr/lib/jvm/java-1.5.0-sun/jre/bin/java 来提供 /usr/bin/java (java),于 手动模式 中。
只要输入想要切换的编号回车即可,不改的话直接回车,别忘记javac也改一下~
改完之后,
java -version
javac -version
确认一下~
相关文章
- Ubuntu server版本系统下安装显卡驱动过程详解
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- Linux下切换gcc版本
- Ubuntu GCC安装、版本切换
- Ubuntu下搭建Hbase单机版并实现Java API访问
- Ubuntu切换指定版本的内核
- 【Java】Linux下安装配置Oracle JDK 1.7版本
- mac 下如何切换jdk的版本
- 如何在cmd下切换python版本使用
- 【开发工具】- Windows下多个jdk版本切换