::========压缩文件=======================
::将源路径“C:\Users\xcc\Desktop\多大的经济 ”路径下的文件压缩到目标路径下“D:\迅雷下载\压缩.rar”,生成的为自解压文件
::参数说明:
::a: 添加指定的文件(源目录,这里是"%USERPROFILE%\Favorites")和文件夹到压缩文件(目标文件,这里是"d:\my documents\Favorites.exe")中。
::-as: 这是一个开关,指添加方式是“同步压缩文件内容”
::-r: 表示“包含子文件夹”
::-sfx: 表示建立的是一个自解压文件
::-ep1: 表示不把路径%USERPROFILE%保存在压缩文件中
::详情参考http://www.cnblogs.com/huangye-dream/p/3584965.html
"C:\Program Files\WinRAR\WinRAR.exe" a -as -r -sfx -ep1 D:\迅雷下载\压缩.rar C:\Users\xcc\Desktop\多大的经济
::压缩成普通的文件,而非自解压文件
"C:\Program Files\WinRAR\WinRAR.exe" a -as -r -ep1 D:\迅雷下载\压缩.rar C:\Users\xcc\Desktop\多大的经济
::==========解压文件======================
::将源文件“D:\迅雷下载\压缩.rar”解压到目标路径"D:\新建文件夹"下
"C:\Program Files\WinRAR\WinRAR.exe" x "D:\迅雷下载\压缩.rar" "D:\新建文件夹"
相关文章
- bat命令删除指定文件夹下的空文件夹
- 使用node成功安装完某插件typescript后,在使用时提示:tsc(或xxx)不是内部或外部命令,也不是可运行的程序或批处理文件
- 【BAT】Bat文件的创建及其命令大全
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- DOS命令的文件及文件夹创建,复制,移动和删除(详解)
- protoc-gen-go-grpc‘不是内部或外部命令,也不是可运行的程序 或批处理文件
- ‘pytest 不是内部或外部命令,也不是可运行的程序 或批处理文件。WARNING: The scripts , pip3. and are install
- ‘vue-cli-service‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件。
- maven "mvn不是内部或外部命令,也不是可运行的程序或批处理文件"
- 解决 'mvn' 不是内部或外部命令,也不是可运行的程序 或批处理文件。