// Range:to:默认步进为1
val to1 = 1 to 10
println(to1)
// 定义一个不进为2的Range
val to2 = 1 to 10 by 2
println(to2)
println(to2.toList) // Range:until
val until1 = 1 until 10
println(until1)
val until2 = 1 until 10 by 2
println(until2)
相关文章
- Scala中的类和对象
- vue2中,操作流程实例版之使用vite-Web开发构建工具 & baseURL基准地址-直接赋值和间接赋值
- Java 中 关于实现字符串反转的几种操作(CharAt6、append1、reverse3、法)(用户从键盘输入一个1~999判断回文)(StringBuffer和String区别简略介绍)
- ruby中的三目操作符和include?操作
- java手机进库程序:txt文件当做小型数据库实现增删改查,存储json数据到txt实体类的序列化和反序列化,修改txt中内容,Jackson操作,io流写入和输出
- TS 中的 keyof 和 typeof 操作符
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- C++中对栈的操作函数pop和top的区别
- 在Shell脚本中,`${}` 是一种用于变量扩展和字符串操作的语法
- Scala中的"null" 和“_”来初始化对象