、Linux安装(略)
2、基础命令
cd 切换目录
/home 切换到home目录
. 代表当前目录
.. 代表切换到当前目录的上级目录
~ 代表切换到用户家目录
空 代表切换到用户家目录
- 代表切换到上一次的命令所在的目录
pwd 打印当前所在路径
ls 显示文件及目录,不包括隐藏文件
-a 显示文件及目录,包括隐藏文件
-lrth 显示文件及目录,按时间排序及显示文件目录大小
clear 清除当前屏幕信息
vi
i 进入编辑模式
Esc 进入命令行模式
: 进入尾行模式
wq 保存并退出编辑
相关文章
- GIT的安装及命令使用
- Python基础-week01 Python安装/变量/输入/及循环语句使用
- Linux基础命令之文件过滤及内容编辑处理(一)
- 【快速安装Docker服务及Docker配置、Docker常用命令。】
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- Linux基础入门及系统管理01-Linux运维必备知识-用户及权限详解10
- Centos6.4下Yum命令安装Mysql数据库及配置
- centos安装yum命令及常用yum命令
- Linux-rpm命令-查看已安装软件包信息及未安装rpm包信息
- Flask框架-Python系列(一)—— 基础入门(flask库安装及简单使用)