浅论仪表精度

时间:2024-03-13 18:08:45

问题1. ±(0.25%F.S.+1digit)的温度表能否保证30±0.2℃的准确度?

F.S. = full scale(全量程)

%F.S. = 引用误差 =(绝对误差的最大值/仪表量程)×100%

digit翻译为"字",是指仪表显示值最后一位,是最小分辨率

所以,如果该表量程是0-200℃,分辨率是0.1℃,那么温度的真值 = 测量值 ± (0.5℃ + 0.1℃) = 显示值 ± 0.6℃,在指标上是不能保证30±0.2℃的准确度的。所以0.25精度等级的仪表并没有你想象中精确。

*0.25%F.S.是引用误差的表示方式(详见文末资料说明)

 

问题2. ±[0.05% + 0.3°C] Fluke 50II电子温度计(2000+ RMB),能不能做到30±0.2℃呢?

浅论仪表精度

此处±[0.05% + 0.3°C]实际上是: ±(0.05% rdg + 0.3 °C)

rdg :reading,表示读数, 0.05%是相对误差的表示

测量30℃,显示值实在30±(30*0.0005+0.3)= 30±0.315℃,自然也达不到30±0.2℃要求。

追究其原因,关键应该还是在于热电偶的冷端补偿无法做到十分精确,再举一个例子:

是德34465A(6位半 RMB13000)指标中热电偶测量一样只能做到0.3℃之内,但是其PT100测量的精度可以做到±0.05℃,你要知道这些*的厂商是很严谨的,所以说再好的基准,再好的年稳神马的,也不过如此,如下图:

浅论仪表精度

 

问题3. 相比于高精度测量仪表,普通温度表精度如何?

如 泰仕TES1310(200+ RMB):

浅论仪表精度

 

浅论仪表精度

一看到±1℃你还怎么指望什么30±0.2呢?

 

题外: 吉时利DMM6500万用表指标如何理解?

浅论仪表精度

与问题2中计算方式相同,

10v基准测出的结果,可能均值在10.00000-10.00010间,这是正偏差用+表示,波动范围是最后正负4个最小单位。以上是一天的精度。一天是10ppm。

同理1.000000kΩ+0.000020,也是正偏差,波动是六个最小单位。所以结果是在真实值加0-20mΩ之间。已经相当准确。相当于20ppm。

所以测1KΩ的标准电阻,24小时内出现最后两位数字变动是很正常的。所谓6位半不是说测什么都等只跳动最后一位。

另外需要注意,仪器具备稳定的环境温度也是先决条件!

相比于是德,吉时利DMM6500的指标数据并不全面,其他指标可以参考:

<1KW-61264-2_DMM_Comparison_Table_102618.pdf>

 

 

参考资料学习:

[引用自:https://zhuanlan.zhihu.com/p/38282177]

误差的表示方法分有三种,分别为:引用误差、相对误差和绝对误差。

  一、引用误差

  引用误差=(绝对误差的最大值/仪表量程)×100%,例如:2%F.S。

  二、相对误差

  相对误差=(绝对误差的最大值/仪表测量值)×100%,例如:≤2%。

  三、绝对误差

  绝对误差指的是误差偏离真实值的大小程度,例如:≤±0.01m3/s。

  精度等级,实际上就是最大引用误差值去掉正、负号及百分号。我国规定的允许误差大小分成几个等级。其中工业仪表精度等级有:0.005、0.02、0.05、0.1、0.2、0.35、0.4、0.5、1.0、1.5、2.5、4.0等等,其中,等级级数越小,所代表的精度等级也就越高。一般情况下,工业仪表的精度等级为0.5~4级,仪表出厂时其精度通常会被标记在仪表刻度标尺或其铭牌上。

  工业过程测量和控制用检测仪表和显示仪表精确度等级有16个级别:0.01,0.02,(0.03),0.05,0.1,0.2,(0.25),(0.3),(0.4),0.5,1.0,1.5,(2.0),2.5,4.0,5.0,其中括号里的五个级别一般不被推荐使用,具体依据标准以《GBT 13283-2008 工业过程测量和控制用检测仪表和显示仪表精确度等级》为准。

  那么仪表的精度该怎么计算呢?其实,只需按照公式计算即可:仪表精度=(绝对误差的最大值/仪表量程)×100% 。以上公式取绝对值后再去掉“%”就是精度等级的值数。

  仪表精度是由传感器的基本误差极限和影响量(如温度变化、湿度变化、电源波动、频率改变等)引起的改变量极限来确定的。 公式为?:δ=(△max)/(Аmax)×100%。其中,δ为精度等级;△max为最大测量误差;Аmax为仪表量程。