การอ่านค่าความต้องต้องของเครื่องมือวัด (Accuracy) ความแตกต่าง % full scale , % reading , % span
การวัด (Measurement) คือ กระบวนการที่เปรียบเทียบปริมาณที่ไม่ทราบค่าของตัวเเปร กับมาตรฐานที่ถูกกำหนดไว้ ซึ่งผลการวัดมักจะมีความคลาดเคลื่อน (Error) ความไม่เเน่นอน (Uncertainty) และความถูกต้องของการวัดเเฝงอยู่ โดย Specification ของเครื่องมือวัดต่าง ๆ จะระบุค่าความถูกต้อง หรือ เปอร์เซ็นต์ความคลาดเคลื่อนไว้ เพื่อให้ผู้ใช้งานสามารถทราบถึงผลการวัดที่ถูกต้องเเละเเม่นยำที่สุด
ค่าความถูกต้อง (Accuracy) คือ ค่าที่บ่งบอกถึงความสามารถของเครื่องมือวัดในการอ่านค่า หรือเเสดงค่าที่อ่านได้ไกล้เคียงค่าจริง หรือที่เรียกกันง่าย ๆ ว่า "ค่าความถูกต้องของเครื่องมือวัด"
การคำนวณค่าความถูกต้องของเครื่องมือวัด สามารถแบ่งออกได้ดังงนี้
คำนวณได้ = ± ( 0.5 X 20.0 ºC /100)
= ± ( 0.10 ºC )
วิธีคำนวณ:
= ± (5% reading + 5 Digit)
= ± ((5% x 800) + 5 Digit)
= ± ((5% x 800) + 5) Lux
= ± (40 + 5) Lux
= ± 45 Lux
คำนวณได้ = ± ( 2 X (20 – 4) / 100)
= ± ( 32) / 100
= ± 0.32 mA
04 ก.ค. 2567
ผู้ชม 2554 ครั้ง