zh@winth:~$ which java
/usr/bin/java
zh@winth:~$ cd /usr/bin/
zh@winth:/usr/bin$ ll java
lrwxrwxrwx 1 root root 22 4月 11 18:31 java -> /etc/alternatives/java*
zh@winth:/usr/bin$ cd /etc/alternatives
zh@winth:/etc/alternatives$ ll java
lrwxrwxrwx 1 root root 46 4月 11 18:31 java -> /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java*
zh@winth:/etc/alternatives$ cd /usr/lib/jvm/java-7-openjdk-amd64/jre/bin
zh@winth:/usr/lib/jvm/java-7-openjdk-amd64/jre/bin$ ll java
-rwxr-xr-x 1 root root 6368 8月 12 18:51 java*
zh@winth:/usr/lib/jvm/java-7-openjdk-amd64/jre/bin$
通过上面命令,我们知道了 当前使用的java在 /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java目录下面
一般bin下面的命令都使用了链接的方式,所以要一步一步跟进查看,才能知道具体使用的包在哪里
相关文章
- Redis - linux中怎么查看redis的安装位置
- 查看当前活动的虚拟环境的位置
- java获取字符串某个标点第二次出现的位置,并截取这个标点后面的字符串
- Ubuntu下查看硬盘分区UUID的方法&所有Linux目录樹
- Java 利用正则表达式替换第二个位置的固定字符串
- 在字符串中获取指定位置的一段字符(java)
- java查看本机hostName可代表的ip列表【转】
- 在Ubuntu 20.04上使用Apt安装Java的方法
- Ubuntu系统,查看NVIDIA驱动情况可以通过几种不同的方法来实现
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount: