想要多个JDK 和 多个eclipse在一台电脑上同时运行
无需配置环境变量,只需修改eclipse.ini文件即可启动eclipse。 -vm
D:\javaSE1.\jdk1.\bin\javaw.exe (只需添加配置JDK的路径,两行加在前面即可)
-startup
plugins/org.eclipse.equinox.launcher_1.5.100.v20180827-.jar
--launcher.library
plugins/org.eclipse.equinox.launcher.win32.win32.x86_64_1.1.800.v20180827-
-product
org.eclipse.epp.package.committers.product
-showsplash
org.eclipse.epp.package.common
--launcher.defaultAction
openFile
--launcher.defaultAction
openFile
--launcher.appendVmargs
-vmargs
-Dosgi.requiredJavaVersion=1.8
-Dosgi.instance.area.default=@user.home/eclipse-workspace
-XX:+UseG1GC
-XX:+UseStringDeduplication
--add-modules=ALL-SYSTEM
-Dosgi.requiredJavaVersion=1.8
-Dosgi.dataAreaRequiresExplicitInit=true
-Xms256m
-Xmx1024m
--add-modules=ALL-SYSTEM
相关文章
- 2020 8 20 隐藏Nginx版本号 在nginx 配置文件 的 http 内添加 server_tokens off;
- 使用maven-compiler-plugin插件,在pom文件设置默认的jdk编译版本(以JDK1.8为例)
- Maven配置JDK版本
- 【Elasticsearch】常见问题——Elasticsearch用户问题/JDK版本问题/系统资源配置问题/不支持落后组件问题
- jdk与eclipse版本问题解决applet的启动
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- Nginx配置静态资源文件404 Not Found问题解决方法
- Mac中下载JDK手动更新出现“只支持10.7.3以上的系统版本”问题解决方案
- OpenHarmonyOS 3.2 编译生成的hap和app文件的名称如何配置追加版本号?
- 【Java】Linux下安装配置Oracle JDK 1.7版本