Oracle官网上下载jdk,需要点击accept licence的才能下载,使用下面的命令,直接可以下载。
wget --no-check-certificate --no-cookies --header "Cookie: oraclelicense=accept-securebackup-cookie" http://download.oracle.com/otn-pub/java/jdk/8u111-b14/jdk-8u111-linux-x64.tar.gz
相关文章
- Linux系统Anaconda目录迁移后使用conda命令出现“坏的解释器”的解决方法
- (转)linux下vi命令修改文件及保存的使用方法
- linux下vi命令修改文件及保存的使用方法
- linux gedit怎么运行,linux下的gedit命令使用方法与技巧
- `wget`是什么——命令行工具——快速下载文件(基本介绍和使用前的准备)
- linux中怎么使用wget下载一个目录下的所有文件
- 在Ubuntu等linux系统中用wget下载的方法
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- linux系统怎么ping命令,ping命令的基本使用方法(详解linux系统ping命令的6个使用方法)...
- linux下tar命令的压缩和解压详细使用方法