Linux中安装.rpm、.tar和.tar.gz或.tgz包
我以以下包为例:(三个包都在/etc/download下)
A.example-1.2.3-1.rpm
B.example-1.2.3-1.tar
C.example-1.2.3-1.tar.gz
对于rpm包很简单,直接执行rpm -ivh example-1.2.3-1.rpm就可以了。查看安装的到哪里了用命令 rpm -ql example-1.2.3-1(卸载用rpm -e example-1.2.3-1)
先解压tar包
执行 tar example-1.2.3-1.tar命令解压。在进入到example-1.2.3-1目录下面
cd /etc/download/example-1.2.3-1
依次执行
[root@bokai example-1.2.3-1]# ./configure
[root@bokai example-1.2.3-1]# make
[root@bokai example-1.2.3-1]# make install
[root@bokai example-1.2.3-1]# make clear
[root@bokai example-1.2.3-1]# make distclear
这样就完成了tar包的安装
至于example-1.2.3-1.tar.gz就简单了,先解压
tar -zxvf example-1.2.3-1.tar.gz
让后方法和example-1.2.3-1.tar.包一样
相关文章
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- Linux系列:Linux中如何安装.rpm、.tar、.tar.gz和tar.bz2文件
- linux下的rpm软件包,rpm源码包和tar安装包
- LINUX 安装JDK (rpm格式和tar.gz格式)
- 在Linux系统中安装rpm,deb,tar.gz,tar.bz2,apt,bin 格式的文件
- Linux中安装.rpm、.tar和.tar.gz或.tgz包
- 在Linux中安装程序用二进制 tar.gz 格式与 rpm 安装程序哪个方式好呢?
- Linux下RPM软件包的安装、卸载和tar.gz 安装方法
- Linux下RPM软件包的安装、卸载和tar.gz 安装方法
- linux下的rpm软件包,rpm源码包和tar安装包