正所谓:读书要知其然,也要知其所以然!java初学者(我也是老菜鸟)常常设置环境变量的时候不成功,其实是他们没有真正理解里面的实质东西!所以是今天从书上“抄”好了且配好了,可是下次重装的时候却出现问题!
在讲之前,先请大家选择开始菜单,点运行,输入cmd,然后在控制台里输入regedit,回车后看到注册表出来了!这是怎么的过程?其实当我们输入regedit时候,系统会去系统环境变量里找这个程序的可执行文件路径。那我们可以打开系统环境变量的设置地方,大家会看到系统变量windir的值为%SystemRoot%(其实也就是c:/WINDOWS若系统装在c盘的话),我们再打开c:/WINDOWS,怎么样,是不是找到一个叫regedit.exe的程序!
懂了这一点,我想大家也就应该清楚了,设置系统变量的目的:为了使系统可以找到程序的运行路径!
大家在设置环境变量path时候,之所以要选择C:/Program Files/Java/jdk1.6.0/bin(我是装在c盘)的原因呢?大家打开该目录,发现里面全是一些可执行文件,其中有我们最熟悉的javac.exe,java.exe等等。是啊,之所以要选择bin是因为当我们在编译程序的时候,在控制台输入javac Hello.java是,系统要去系统环境变量下面找javac.exe的执行程序路径!
那大家看到这里,我想也就应该知道其他的变量设置的原因了吧!那同时也相信大家搞懂了之后,可以顺利的在以后的设置中节省时间了!
那想tomcat服务器的变量也是一个道理!
相关文章
- Java设置classpth,path,java_home环境变量的目的
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- 为什么我们的自动化测试“要”这么难
- java中为什么String(string)中的S要大写
- 为什么一定要调用 setlocale 呢? 因为在 C/C++ 语言标准中定义了其运行时的字符集环境为 "C" ,也就是 ASCII 字符集的一个子集。使用setlocal改变整个应用程序的字符集编码方式(wcstombs使用前要设置 setlocale (LC_ALL, "chs"); )
- tomcat启动报错后设置环境变量配置的为jdk1.7 但是用java -version查看版本却是1.8的解决方法
- 什么是环境变量?为什么java要配置环境变量?
- 基于java的设计模式入门(1)——为什么要学习设计模式
- windows上自动设置java环境变量的脚本
- 为什么要设置Java环境变量(详解)[转]