当前多数Ubuntu用户已经开始选择安装64位的系统,然而一些软件还未及时更新到64位,仍然只能在32位下运行。使用apt-get安装由于标准源里已经将ia32-libs删除,所以无法安装,换了许多源依旧不行,只得自行下载安装。
总共6个文件(有下载链接),先安装ia32-libs(sudo dpkg -i ia32-libs.deb),缺少的依赖先用命令(sudo apt-get install -f)修复,不能修复的再自行安装,我只遇到这些,欢迎留言补充。
http://pan.baidu.com/s/1hq7sNT6
相关文章
- Ubuntu 16.04 安装Qt 5.14.2以及开发环境搭建,数据库使用
- ubuntu20.04下安装anaconda+配置环境变量+运行+创建快捷方式
- Ubuntu中安装和卸载Gnome、KDE、XFACE桌面环境
- 在 Ubuntu 环境中安装 Go 语言及运行脚本
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- ubuntu环境下安装 eclipse
- Ubuntu 16.04 安装 arm-linux-gcc 嵌入式交叉编译环境 问题汇总
- ubuntu java jdk安装及环境变量设置
- Ubuntu18.10&Ubuntu18.04安装Python虚拟环境
- [环境配置]Ubuntu16.04下编译安装gcc6.3.0