1、基本定义
PO(Persistence Object 持久化对象)是直接跟持久层数据库打交道的java Bean (model,entity,bean等叫法都是可以的),里面除了私有的成员变量之外,就只有其对应的set/get方法,
而且其变量一般跟数据库表中的列几乎(除了名字)一样。
VO(Value Object 值对象)除了可以跟PO完全一样的变量,set/get方法之外,还可以有其他的变量,但是不用其跟数据库打交道,可以把该对象当做无状态的对象。
2、为什么要使用VO,而不直接都用PO代替?
首先PO是持久化类,其属性的改变很有可能直接导致数据库中的数据变化,而不知道原因(为什么我的数据库中的数据变化了?)。引入了VO之后可以很好
的解决类似的问题,甚至会很好的帮你解决页面(JSP,freemarker,asp,aspx)和控制层的直接便利的交互,而不用担心其各种属性的变化会不会导致数据库中
数据的变化,这对于使用hibernate之后控制其操作数据时出现的持久化、瞬态、脱管都是有很大好处的。
3、使用VO之后应该注意的问题
使用VO之后要注意其活动范围要控制在service层、controller层、展现层中,而不要进入dao层甚至是数据库(一般也不可能影响到数据库),同样的PO也
只能出现在dao层和数据库(数据库直接和PO交互),而不能够出现在service层、controller层、展现层中。
所以,PO和VO都会出现在service层,而且也会在service中进行适当转换。
相关文章
- C语言中的 pow 函数 使用方法及注意事项,和常见报错原因,且分享实战中的使用
- Java 理论和实践: 了解泛型 识别和避免学习使用泛型过程中的陷阱
- java中的几种实体类对象(PO,VO,DAO,BO,POJO)
- java中的几种对象(PO,VO,DAO,BO,POJO)
- java8中的LocalDate,LocalTime,LocalDateTime与Date的转换和使用
- java怎么使用取余符号,Java中的相除(/)和取余(%)的实现方法
- 关于java中位运算符的使用和理解
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- Oracle数据库中,BLOB、CLOB 和 NCLOB的区别和使用场景及注意事项
- Java 中 ArrayList 和 LinkedList 的区别及使用场景