کالیبراسیون

کالیبراسیون چیست؟

کالیبراسیون انجام عملیات مقایسه مقداری نامعلوم از دستگاه تحت آزمایش با مقدار مشخص از دستگاه مرجع می باشد. در واقع کالیبراسیون عملیات تعیین میزان خطا و یا تایید درستی مقدار قرائت شده از دستگاه تحت کالیبراسیون می باشد.

به عنوان مثالی ساده، برای انجام کالیبراسیون دما می توان ترمومتر تحت کالیبراسیون را در داخل آب در حال جوشیدن قرار بدهیم تا با توجه به مشخص بودن دمای مذکور (نقطه جوش آب 100 درجه سلسیوس می باشد)، میزان خطای ترمومتر در دمای مورد نظر را اندازه گیری کنیم.از آنجا که تعیین دقیق نقطه جوش آب از طریق مشاهده از دقت بالایی برخوردار نمی باشد به همین دلیل می توان در کنار ترمومتر تحت کالیبره،از ترمومتر مرجع دارای مقدار خطای مشخص استفاده نمود. گام بعدی که می تواند در فرآیند کالیبراسیون اتفاق بیفتد تصحیح خطا یا اعمال مقادیر جبرانی است تا میزان خطای دستگاه کاهش یابد. البته ذکر این نکته الزامی است که از لحاظ فنی اعمال مقادیر جبرانی و تصحیح خطا گامی مجزا از فرآیند کالیبراسیون می باشد.

برای ارائه تعریفی رسمی و جامع تر از کالیبراسیون باید به تعریف دفتر بین المللی اوزان و مقیاس ها (BIPM)، واقع در کشور فرانسه مراجعه کرد، نهادی که وظیفه آن یکسان سازی سیستم اندازه گیری بین المللی می باشد. این دفتر لیستی تهیه کرده است که در آن تعاریف واژه های مشترک مستعمل در کالیبراسیون و اندازه گیری ذکر گردیده است. این لیست که به عنوان واژه نامه بین المللی اندازه شناسی (VIM) مطرح می باشد کالیبراسیون را به این شکل تعریف می کند که عبارت است از عملیاتی که تحت شرایط مشخص، در قدم اولیه، بین مقادیر کمیت با عدم قطعیت های اندازه گیری که بوسیله استاندارهای اندازه گیری فراهم می شود، و همچنین مقادیر متناظر نشاندهنده با عدم قطعیت مربوط به آن، رابطه برقرار می کند و سپس در قدم بعدی از این اطلاعات برای ایجاد ارتباط بین مقادیر نمایشگر و نتایج اندازه گیری استفاده می نماید. در واقع این تعریف این نکته را نمایان می کند که استانداردهای اندازه گیری که در فرآیند کالیبراسیون استفاده می شوند الزاما باید دارای عدم قطعیت مشخص (مقدار خطای بالقوه) باشند. به بیان دیگر عدم قطعیت مقدار مرجع باید مقداری مشخص و تعیین شده باشد تا اپراتور و یا صاحب دستگاه متوجه شود که آیا عدم قطعیت عملیات کالیبراسیون مربوطه برای دستگاه مد نظر وی مناسب می باشد یا خیر. 

سیستم بین المللی واحدها (SI) -استانداردهای اندازه گیری شناخته شده در سطح اول

واژه SI که مخفف واژه فرانسوی “Le Système International d’Unités” یا همان سیستم بین المللی واحدها می باشد شامل 7 واحد پایه می باشد که عبارتند از ثانیه (s)، متر (m)، آمپر (A)، کلوین (K)، کاندلا (cd)، مول (mol) و کیلوگرم (kg).

این هفت واحد پایه SI از کمیت هایی در طبیعت استخراج شده اند که تغییر ناپذیر می باشند، از قبیل سرعت نور.

سیستم بین المللی یکاها

تا سال 2019، کیلوگرم یک استثنا بود، زیرا با استفاده از یک آلیاژ فلزی استوانه ای شکل(نمونه بین المللی کیلوگرم-IPK) که ساخته بشر بود، تعریف شده بود. برای جلوگیری از هر گونه تاثیر شرایط محیطی که ممکن بود تغییراتی هر چند اندک در نمونه ساخته شده ایجاد کند، نمونه مذکور در محیطی حفاظت شده در داخل محفظه ای از جنس شیشه دوجداره در شهر پاریس نگهداری می شد که برای دست یابی نیاز به استفاده از سه کلید مجزا برای باز شدن محفظه بود. با وجود تمام تلاش ها برای محافظت از نمونه ساخته شده، دانشمندان متوجه این نکته شدند که با گذشت زمان،نمونه مذکور مقداری از جرم خود را از دست داده است- مقداری برابر با یک دانه شن. بنابراین با هیاهوی بسیار در روز اندازه شناسی جهانی در سال 2019 اعلام شد که تعریف کیلوگرم باید از مبنای استوانه فلزی موجود در پاریس تغییر داده شده و بر مبنای ثابت پلانک بنیان گذاشته و تعریف شود ثابتی طبیعی که نا متغیر بوده و در هر کجای عالم قابل دسترسی می باشد. در اینجا ذکر این نکته جالب توجه است که تعاریف برخی از واحدهای SI در طول زمان تغییر و بهبود یافته اند. برای مثال تغییرات تاریخی برای بهبود تعریف یک ثانیه به شرح زیر می باشد:

·1874 – 1956: 1/(86,400) of a day

·1956 – 1967: The fraction 1/(31,556,925.9747) of the tropical (epoch) year of 1900 based on astronomical observations between 1750 and 1892

·1967 – 1997: the duration of 9,192,631,770 periods of the radiation corresponding to the two hyperfine levels of Cesium (Cs) 133

·1997 – 1999: added at rest approaching 0 K

·1999 – Present: included corrections for ambient radiation

با استفاده از آخرین تعریف، یک ثانیه بوسیله میانگین وزنی ساعت های اتمی در سرتاسر جهان قابل فهم و درک می باشد.

در اینجا ذکر این نکته لازم است که واحدهای پایه و اولیه SI می توانند با استفاده از روابط جبری با یکدیگر ترکیب شده و واحدهای منشعب جدیدی بوجود بیاورند از قبیل واحد فشار PSI (Pounds per Square Inch). در این مورد بخصوص واحد فشار از ترکیب متر و کیلوگرم که واحد های پایه SI می باشند، استخراج شده است.

SI بوسیله مصوبه کنفرانس عمومی اوزان و مقیاس ها (CGPM) – سازمانی با حضور دولت ها که در کنوانسیون متر که در سال 1875 در شهر پاریس برگزار شد پایه گذاری شد- خلق شده و بوجود آمد. معاهده متر همچنین سازمانی با نام کمیته بین المللی اوزان و مقیاس ها(CIPM) را برای کمک به CGPM خلق نمود که در آن بحث ها، آزمایشات و در نهایت گردآوری و تالیف گزارشات در مورد سیستم SI  صورت گرفته و برای بازنگری در اختیار CIPM و BIPM قرار داده می شود. مصوبات CGPM در وبسایت BIPM قابل مشاهده و مطالعه می باشد. امروزه اعضای دائمی CGPM شامل تمامی کشورهای صنعتی مهم می باشند.

فراگیری و جامعیت کالیبراسیون

نکته اساسی مدیریت BIPM بر روی سیستم SI در مقیاس جهانی، ایجاد فراگیری برای کالیبراسیون می باشد. بدین معنی که ما در سرتاسر جهان در حال استفاده از سیستم اندازه گیری و تعاریف یکسان می باشیم. این مطلب به فردی در ایالت متحده آمریکا این امکان را می دهد تا مقاومتی 1 اهمی از استرالیا خریداری نماید و اطمینان حاصل کند که مقدار این مقاومت بر اساس استاندارهای رایج در امریکا نیز همان 1 اهم می باشد و بالعکس. ما برای بهره مندی از این فراگیری نیاز مند استفاده از اندازه گیری هایی هستیم که قابل ردیابی به تعاریف یکسان می باشند. 

هرم قابلیت ردیابی کالیبراسیون- تاثیر SI در صنعت

حال که ما استانداردهای مرجع SI را در اختیار داریم، چگونه می توانیم آن ها را به شکلی موثر و اقتصادی با جهان به اشتراک بگذاریم؟

شکل زیر سیستم SI را در قله هرم کالیبراسیون نشان می دهد، جاییکه BIPM در واقع کمک می کند تا SI به تمامی سطوح استفاده زیرین سرایت کند تا کشف و ابداع علمی همانند تولید صنعتی و تجارت جهانی توسعه و پرورش پیدا کند.

درست در زیر سطح SI ،BIPM در ارتباط مستقیم با موسسات اندازه شناسی ملی  (NMIs) اعضا یا کشورهای عضو قرار دارد تا ارتقای سیستم SI در این کشورها تسهیل گردد. موسسه اندازه شناسی ملی ایالت متحده آمریکا، موسسه ملی استانداردها و تکنولوژی (NIST) می باشد.

از آنجا که مشارکت و همکاری مستقیم با نهادهای اندازه شناسی ملی کشورها برای تمام شرکت ها و افراد مقدور نمی باشد استاندارهای کالیبراسیون در سطح این نهادها برای کالیبراسیون دستگاه ها و یا استاندارهای کالیبراسیون اولیه در دسترس قرار گرفته است. سپس استانداردهای اولیه برای کالیبراسیون استانداردهای ثانویه مورد استفاده قرار می گیرند. استاندارد های ثانویه برای کالیبره استانداردهای کاری و بالاخره استانداردهای کاری برای دستگاه های بکار رفته در پروسه ها و فرآیندها مورد استفاده قرار می گیرند. به این روش همانطور که در شکل زیر هم نشان داده شده است، مراجع متصل به استانداردهای SI از طریق هرم کالیبراسیون و با کمک نهادهای اندازه شناسی ملی وارد صنعت که نیاز روز هم می باشد، می شوند.

در برخی از موارد نادر، واحد SI می تواند بوسیله یک دستگاه خاص که با استفاده از اصول و قواعد فیزیک موفق به اندازه گیری می شود، بطور مستقیم درک شود. اندازه گیری مقاومت با استفاده از اثر هال در کوانتوم نمونه ای از این موارد و دستگاه ها می باشد.

قابلیت ردیابی کالیبراسیون

اگر بخواهیم از پایین ترین سطح در هرم کالیبراسیون به سمت بالا و تا استانداردهای SI پیش برویم، این عمل را می توان قابلیت ردیابی نام گذاشت که مفهومی پر اهمیت در کالیبراسیون می باشد. به بیان دیگر قابلیت ردیابی یا کالیبراسیون قابل ردیابی به این معنی است که عملیات کالیبراسیون با استفاده از استانداردهای مرجع کالیبره شده ای انجام شده است که بوسیله زنجیره ای ناگسستنی و از طریق نهاد اندازه شناسی ملی به یکای SI مرتبط با آن متصل شده است. همچنین قابلیت ردیابی ممکن است به عنوان ریشه کالیبراسیون در نظر گرفته شود. همچنین قابلیت ردیابی در آزمون و اندازه گیری نیز از اهمیت بسزایی برخوردار است زیرا در بسیاری از استانداردهای صنعتی فنی و کیفی نیاز به دستگاه های اندازه گیری با قابلیت ردیابی کاملا محسوس می باشد. بطور مثال اندازه گیری های با قابلیت ردیابی در ابزار پزشکی، داروسازی، فضانوردی، نظامی و صنایع دفاع همانند بسیاری از صنایع تولیدی دیگر مورد نیاز می باشد.

کالیبراسیون با قابلیت ردیابی همواره بوسیله خلق اطمینان از اینکه اندازه گیری ها و نتایج داده ها صحیح می باشند، به  بهبود کنترل و تحقیق فرآیندها کمک رسانی کرده است.

همانند سایر موضوعات مرتبط با بحث کالیبراسیون، بسیاری از احتیاجات فنی برای اطمینان از قابلیت ردیابی در کالیبراسیون و مدیریت آن ، گسترش پیدا کرده اند.اگر بخواهیم تعدادی از این نیازها را ذکر کنیم باید توجه خودمان را به عدم قطعیت در اندازه گیری، بازه کالیبراسیون (موعد انقضای کالیبراسیون دستگاه چه موقعی است؟) و روش های بکار رفته برای بی نقص ماندن قابلیت ردیابی در برنامه کالیبراسیون، معطوف کنیم.

تایید صلاحیت فرآیند کالیبراسیون

هنگامیکه عملیات کالیبراسیون انجام شد، اطمینان از روشی که کالیبراسیون از آن طریق انجام شده است نیز مهم می باشد. تایید صلاحیت فرآیند کالیبراسیون این اطمینان را ایجاد می کند. در واقع تایید صلاحیت این اطمینان را در مالک دستگاه ایجاد می کند که کالیبراسیون به روش درستی انجام شده است. تایید صلاحیت کالیبراسیون به این معنی است که این فرآیند مورد ارزیابی قرار گرفته است و با نیازهای فنی و کیفی اندازه شناسی که بصورت بین المللی مورد قبول می باشند، مطابقت دارد. استاندارد بین المللی ISO/IEC 17025یک استانداردکیفی اندازه شناسی می باشد که آزمایشگاه های کالیبراسیون بر طبق این استاندارد تایید صلاحیت و اعتباردهی می شوند.   

خدمات تایید صلاحیت توسط نهادهای مستقلی که برای انجام این کار دارای مجوز می باشند، ارائه می گردد. هر کشور بزرگی حداقل دارای یکی از این نهادهای معتبر سازی می باشد. برای مثال در ایالات متحده امریکا برنامه تایید صلاحیت آزمایشگاه داوطلب ملی یا NVLAP، A2LA و LAB دارای این مجوز می باشند. در کشور انگلستان هم خدمات تایید صلاحیت پادشاهی متحد (UKAS) فراهم آورنده این خدمات است.

توافقات بین الملل این اطمینان را می دهد که هنگامیکه فرآیند کالیبراسیون در یک کشور تایید صلاحیت گردید، هر کالیبراسیونی که بر طبق این فرآیند در کشور مزبور انجام شد، بدون احتیاج به اضافه کردن هر گونه الزام فنی دیگر،قابل قبول و مورد پذیرش می باشد.

گواهینامه های کالیبراسیون

اغلب آزمایشگاه کالیبراسیون به همراه دستگاه کالیبره شده، گواهینامه کالیبراسیون نیز ارائه می دهد. گواهی کالیبراسیون اطلاعات مهمی ارائه می کند و بدین وسیله این اطمینان را به مالک دستگاه می دهد که دستگاه به درستی کالیبره شده و داده های قرائت شده به چه صورت می باشد.

گواهینامه کالیبراسیون ممکن است شامل عبارتی مشتمل بر قابلیت ردیابی و یا لیست استانداردهای کالیبراسیون بکار رفته در فرآیند، هر گونه داده منتج از عملیات کالیبراسیون، تاریخ کالیبراسیون و عبارات محتمل قبول یا رد برای هر یک از داده های اندازه گیری باشد.

گواهینامه های کالیبراسیون ممکن است بدلیل تفاوت استانداردهای صنعتی که هر یک از آزمایشگاه ها بکار می برند و یا جایگاهی که فرآیند کالیبراسیون در هرم کالیبراسیون به خود اختصاص می دهد، متنوع و متفاوت باشند. بطور مثال گواهی کالیبراسیونی که در مقیاس یک مغازه خواروبار فروشی صادر می شود ممکن است بسیار ساده و مختصر باشد در حالیکه گواهینامه کالیبراسیون صادر شده برای یک دستگاه ترازوی دقیق که در آزمایشگاه کالیبراسیون مورد استفاده قرار می گیرد دارای محتوای فنی بسیار زیاد باشد. گواهینامه های کالیبراسیونی که از یک فرآیند تایید صلاحیت شده منتج می شوند دارای برخی از الزامات بسیار ویژه می باشند که این الزامات را می توان در استاندارد بین المللی ISO/IEC 17025 پیدا کرد.

عدم قطعیت اندازه گیری 

با توجه به تعریف کالیبراسیون که پیش از این ذکر شد، احتمالا به این مطلب پی برده اید که عدم قطعیت (مقدار خطای بالقوه) در مقایسه با درستی“، به منظور تشریح توانایی و قابلیت فرآیندهای کالیبراسیون و نتایج حاصل از آن بکار برده می شود. در صنعت آزمون و اندازه گیری، درستی اغلب به عنوان قابلیت اندازه گیری دستگاه توصیف می شود. تولید کننده دستگاه اغلب تمایل دارد تا درستی دستگاهش که معرف گستره پیش بینی شده خطایی است که ممکن است در هنگام استفاده از دستگاه مربوطه وجود داشته باشد، در مشخصات دستگاه ذکر گردد. اگرچه در خطوط راهنمای VIM واژه “عدم قطعیت” به عنوان واژه ارجح برای بیان مشخصه اندازه گیری دستگاه مطرح شده است.

از آنجا که از عدم قطعیت به عنوان واژه ای آشنا برای بحث در خصوص میزان خطا استفاده می شود و نقش بسزایی را در حوزه کالیبراسیون ایفا می کند، ذکر پاره ای از توضیحات بیشتر در این مورد خالی از لطف نیست.

بیایید با تعریف بنیادی شروع کنیم. در واقع عدم قطعیت به تشریح گستره ای از مقادیر می پردازد که مقدار صحیح هم می تواند در آن میان قرار بگیرد. برای مثال اگر عدم قطعیت یک دستگاه ولت متر برابر با  ±0.1 V  باشد، در هنگام اندازه گیری ولتاژ اگر نمایشگر دستگاه عدد 10.0 V را نمایش بدهد، مقدار صحیح ولتاژ می تواند عددی در گستره 9.9V الی 10.1V  باشد. اگر بنا باشد عدم قطعیت 0.1V دارای پوششی برابر با 95% باشد، آنگاه می توانیم 95% اطمینان داشته باشیم که مقدار واقعی ولتاژ عددی در گستره 10.0 ± 0.1 V می باشد. خوشبختانه می توان گفت که اکثر نتایج تمایل دارند که در محدوده میانی گستره ممکن قرار بگیرند زیرا مقادیر عدم قطعیت تصادفی تمایل به پیروی از توضیع گاوسی و یا منحنی زنگوله ای نرمال دارند.

با این فهم از عدم قطعیت در ذهنمان، لازم است که استاندارد کالیبراسیون از عدم قطعیت مناسب و به نسبت اندکی برخوردار باشد تا ضریب اطمینان از نتایج کالیبراسیون افزایش پیدا کند. استاندارد کالیبراسیون باید از عدم قطعیت پایین تری ( درستی بهتری) نسبت به دستگاه تحت کالیبره برخوردار باشد. برای مثال کالیبره یک میکروکتر دقیق بوسیله متر نواری، عملی غیر منطقی و نادرست است.

راهنمای بیان عدم قطعیت اندازه گیری یا همان (GUM) که استانداردی بین المللی در زمینه اندازه شناسی است قدم را فراتر گذاشته و جمله زیر را در خصوص اهمیت عدم قطعیت بیان می کند:

هنگامیکه نتیجه اندازه گیری یک کمیت فیزیکی را بیان می کنیم، ارائه نمایشی کمی از کیفیت نتیجه بدست آمده امری ضروری است تا بدین وسیله شخصی که می خواهد از دستگاه مد نظر استفاده کند، ارزیابی درستی از قابلیت اطمینان به نتایج آن داشته باشد.

در حقیقت GUM به این نکته اشاره می کند که اندازه گیری بدون ارائه مقدار مشخص عدم قطعیت آن، سطح نا مشخصی از کیفیت و قابلیت اطمینان را ایجاد می کند.

منابع گوناگونی وجود دارند که می توان از آن ها برای ورود عدم قطعیت ها به داخل معادله کالیبراسیون استفاده کرد. برای مثال بیایید نگاهی به کالیبره یک پراب دما بیندازیم. عدم قطعیت ها می توانند ناشی از ترمومتر مرجع و سیستم کالیبراسیون باشند. تجمیع مولفه های عدم قطعیت در اندازه گیری با یکدیگر، به عنوان ارزیابی عدم قطعیت شناخته می شود. در برخی از این ارزیابی ها مقدار تخمینی برای عدم قطعیت بیان می شود که این امکان را فراهم می کند که مدل های بسیار متفاوت دیگری از پراب های دما مورد استفاده قرار بگیرند، البته تا جایی که از مقدار بودجه بندی شده تجاوز نکنند و از اینجا به بعد به عنوان بودجه های عدم قطعیت معرفی می گردند.

در این مرحله با ارائه مثالی به توضیح این مطلب می پردازیم که چرا عدم قطعیت کالیبراسیون و عدم قطعیت اندازه گیری نقش بسیار مهمی از زندگی روزمره ما را تشکیل می دهند. یک نازل بنزین عادی در ایالات متحده امریکا می تواند بنزین را با عدم قطعیتی در حدود ±2  قاشق چای خوری (0.003 گالن) در هر گالن پمپ کند. مسلما هیچ کس با از دست دادن چند قاشق چایی خوری از بنزین در هنگام سوخت گیری ناراحت نمی شود و جایگاه عرضه بنزین هم با نفروختن این دو قاشق چای خوری از بنزین پول زیادی از دست نخواهد داد. در حالیکه اگر عدم قطعیت نازل بنزین برابر با ±0.1 در هر گالن باشد، کاملا می توان تصور کرد که این میزان از عدم قطعیت در این سطح از اندازه گیری تا چه حد می تواند بزرگ و نامناسب باشد. به این معنا که شما در هر 10 گالن بنزینی که پمپ می شود یک گالن را ازدست خواهید داد. بنابراین دلیل لینکه چرا عدم قطعیت در کالیبراسیون و اندازه گیری تا این حد از اهمیت برخوردار است این نکته است که در واقع عدم قطعیت به صاحب دستگاه و یا متقاضی اندازه گیری کمک می کند تا بتواند میزان قابلیت اطمینان به دستگاه و یا اندازه گیری صورت گرفته را ارزیابی کند. پرسش از یک جایگاه دار عرضه بنزین، در خصوص برای تخمین عدم قطعیت یکی از نازل های بنزین جایگاه، می تواند تجربه ای جالب باشد.

برای چندین سال، این نسبت ساده 4 به 1 از TUR (نسبت عدم قطعیت آزمایش) در بسیاری از فرآیندهای کالیبراسیون مورد استفاده بوده است. بطور کلی این کسر بیان گر نسبت مناسب برای برقراری ارتباط بین عدم قطعیت استاندارد کالیبراسیون و دستگاه تحت کالیبره می باشد به این معنی که عدم قطعیت اندازه گیری مرجع باید 4 برابر کوچک تر از عدم قطعیت دستگاه تحت کالیبره باشد.

در حقیقت TUR نسبت مشخصه دستگاه تحت کالیبره به عدم قطعیت گسترده اندازه گیری است. این همان چیزی است که آزمایشگاه های مدرن کالیبراسیون برای جلوگیری از ایجاد خطای پذیرفته شده( جاییکه نتایج حاصل از اندازه گیری مقادیر دستگاه تحت کالیبره را در محدوده مجاز گزارش می کند اما یدلیل عدم قطعیت موجود در اندازه گیری، در حقیقت نتایج خارج از محدوده مجاز می باشد) و یا خطا در مردود کردن(جاییکه نتایج کالیبراسیون بیان می کند که نتایج خارج از محدوده مجاز می باشد اما بدلیل عدم قطعیت در اندازه گیری، نتایج در محدوه مورد پذیرش می باشند)، از آن استفاده می کنند. در ابتدای امر و پیش از آنکه آزمایشگاه های کالیبراسیون نیاز به محاسبه عدم قطعیت اندازه گیری داشته باشند، اغلب نیاز به محاسبه نسبت درستی آزمایش (TAR) از سوی آن ها احساس می شود، کسری که نسبت درستی دستگاه تحت کالیبره را نسبت به استاندارد مرجع نشان داده و در حقیقت صلاحیت استاندارد مرجع را برای فرآیند کالیبراسیون مشخص می کند. محاسبه TAR همچنان روش مناسبی است تا بوسیله آن میزان صحت استاندارد مرجع برای فرآیند کالیبراسیون مورد ارزیابی اولیه قرار گرفته و پس از اتمام فرآیند، می توان نسبت TUR را نیز محاسبه کرده و عدم قطعیت اندازه گیری بصورت تفصیلی گزارش دهی شود. 

کالیبراتورها

به دستگاهی که وسایل و دستگاه های دیگر را کالیبره می کند، کالیبراتور گفته می شود. کالیبراتور متفاوت از سایر استانداردهای کالیبره می باشد، زیرا کالیبراتورها دارای استاندارد کالیبراسیون داخلی می باشند که به عنوان ویژگی موثرو مفید آن ها شناخته شده و کار کالیبره کردن دستگاه ها را برای آن ها آسان تر می سازد. برای مثال کالیبراتور الکترکی که در شکل مقابل مشاهده می کنید دارای اتصالاتی می باشد که این امکان را به کاربر می دهد

تا دستگاه تحت کالیبره را به شکلی ایمن به کالیبراتور متصل کرده و همچنین دکمه ها و گزینه هایی در منوی آن وجود دارند که امکان کالیبره با کیفیت را فراهم می سازد.

نرم افزار کالیبراسیون

استفاده از نرم افزار کالیبراسیون به همراه کالیبراتور، امکان اوتوماسیون سازی کامل فرآیند کالیبراسیون و همچنین محاسبه راحت تر عدم قطعیت را فراهم می سازد. نرم افزار کالیبراسیون کیفیت عملیات کالیبره را بوسیله کاهش خطاهای روند کالیبره و پایین آوردن منابع عدم قطعیت، افزایش می دهد.همچنین نرم افزاری برای مدیریت اموال کالیبراسیون وجود دارد که موجودی دستگاه های کالیبراسیون را مدیریت می کند.

تفکیک کالیبراسیون ها

در حقیقت کالیبراسیون ها بر اساس کمیت های مربوطه جداسازی و تفکیک می شوند که هر کدام دارای انواع متفاوت کالیبراتورها و مراجع کالیبراسیون می باشند. برخی از این فیلد های جداسازی شده شامل موارد زیر می باشند:

  • الکتریک
  • فرکانس رادیویی
  • دما
  • رطوبت
  • فشار
  • فشاره
  • ابعادی

عملیات کالیبراسیون چگونه انجام می شود

چنانچه بخواهیم دستگاهی را کالیبره کنیم، با توجه به نوع دستگاه و طرح کلی انتخاب شده  برای انجام کالیبراسیون، چندین راه وجود دارد. دو طرح کلی برای عملیات کالیبراسیون وجود دارد:

  • کالیبراسیون از طریق مقایسه با یک منبع دارای مقدار شناخته شده.مثالی از این نوع کالیبره عبارت است از کالیبره یک دستگاه اهم متر با استفاده از مقاومت استاندارد مرجع کالیبره شده.در واقع مقاومت استاندارد،مقدار مشخصی از اهم، که کمیت مورد نظر جهت کالیبره می باشد، تولید (تامین) می کند. منبع کالیبراسیون پیچیده تر از مقاومت، دستگاه کالیبراتور چند منظوره می باشد که مقادیر معینی از مقاومت، ولتاژ، جریان و احتمالا سایر کمیت های الکترکی را تولید می کند. عملیات کالیبراسیون مقاومت همچنین می تواند بوسیله اندازه گیری یک مقاومت با مقدار نامشخص(کالیبره نشده)، هم بوسیله دستگاه تحت کالیبره و هم با استفاده از یک دستگاه اهم متر مرجع ، انجام بپذیرد. نتایج بدست آمده از این دو اندازه گیری و مقایسه آن ها ، منتج به تعیین خطای دستگاه تحت کالیبره می شود.
  • کالیبراسیون از طریق مقایسه نتایج حاصل از اندازه گیری بوسیله دستگاه تحت کالیبره و اندازه گیری بوسیله استاندارد مرجع کالیبره شده. یکی از انواع کالیبراسیون بر مبنای منبع کالیبره، استفاده از منابع طبیعی از قبیل دمای ذوب و یا انجماد موادی نظیر آب خالص می باشد که دارای مقادیر شناخته شده ای می باشند.

لازم به ذکر است که برای هر کدام از برنامه های کلی ذکر شده در بالا، انتخاب های متفاوتی بر طبق طیف و کمیت اندازه گیری، بسط یافته و گسترش پیدا می کند.

مراحل کالیبراسیون

گفتیم که فرآیند کالیبراسیون از طریق مقایسه مقداری مشخص با مقداری نامشخص، برای تعیین مقدار حقیقی کمیت نا معلوم، شروع می شود. هر چند در عمل کالیبراسیون می تواند شامل تصدیق و تنظیم “آنچه یافته شده” و تصدیق  ” آنچه باقیمانده ” باشد.

بسیاری از دستگاه های اندازه گیری بصورت فیزیکی (مانند چرخاندن پیچ تنظیم فشار سنج)، الکتریکی (چرخاندن پتانسیومتر در دستگاه ولتمتر) و یا از طریق تنظیمات داخلی برای یک دستگاه دیجیتال، تنظیم می شوند.

برای مثال ، در برخی از دستگاه ها ، داده هایی که از طریق فرآیند کالیبراسیون حاصل می شوند به عنوان فاکتور اعمال تصحیح توسط کاربر، به عنوان جبران ساز خطا، بکار برده می شوند.  به عنوان مثال می توان از تقلیل دهنده های فرکانس رادیویی نام برد، جاییکه مقادیر تقلیل یافته در سرتاسر گستره فرکانس اندازه گیری می شوند. این داده ها به شکل فاکتورهای اعمال تصحیح  برای بالا بردن کیفیت نتایج اندازه گیری، مورد استفاده قرار می گیرند. بطور کلی فرض می کنیم که دستگاه مورد نظر دارای رانش قابل توجهی نمی باشد ، بنابراین مقادیر جبران سازی در طول دوره کالیبراسیون، در محدوده عدم قطعیت اندازه گیری باقی خواهد ماند. این موضوع که کلیه داده های ناشی از کالیبراسیون می توانند به عنوان فاکتور اعمال تصحیح بکار گرفته شوند اشتباه مصطلحی است که در میان بسیاری از افراد رایج می باشد، زیرا ممکن است تغییراتی که در کوتاه یا بلند مدت (تا اتمام مدت اعتبار کالیبراسیون) در دستگاه کالیبره شده ایجاد می شوند ، از مقدار عدم قطعیت اندازه گیری بیشتر باشد.  

دستگاه های غیر قابل تنظیم، که گاهی اوقات به آن ها محصول ساخته بشر نیز گفته می شود، از قبیل RTD های دما، مقاومت ها و یا دیود های زنر، اغلب بوسیله ویژگی های انحصاریشان کالیبره می شوند. کالیبراسیون از طریق مشخصات اغلب شامل برخی از  معادلات ریاضی می باشد که به کاربر این امکان را می دهد تا از دستگاه برای نیل به مقادیر کالیبره شده استفاده کند. معادلات ریاضی بکار گرفته شده از مقادیر اصلاحی ساده برای خطاها، که در سطوحی متناسب با نیازهای اندازه گیری محاسبه می شوند ( مانند نقاط دمایی گونان برای دمای یک ترموکوپل)، تا محاسبه شیب و الگوریتم تصحیح تداخلی در یک ولتمتر دیجیتال، و یا چند جمله ای های بسیار پیچیده از قبیل محاسباتی که برای ترمومتر های تابشی استاندارد مرجع بکار برده می شوند، متنوع و دارای کاربرد می باشند. مرحله “تصدیق باقیمانده” ممکن است در هر زمانی، برای اطمینان از عملکرد مناسب دستگاه تنظیم شده، مورد استفاده قرار بگیرد. از دستگاه های صنعتی ساخت بشر به ” آنچه هست” یاد می شود زیرا غیر قابل تنظیم می باشند و در نتیجه مراحل  ” آنچه یافته شده” و “آنچه باقیمانده” در مورد این دستگاه ها صدق نمی کند.

کارشناس کالیبراسیون، با استفاده از استاندارد مرجع کالیبراسیون با عدم قطعیتی مشخص (با در نظر گرفتن هرم قابلیت ردیابی کالیبراسیون) برای مقایسه با دستگاه تحت کالیبره ،عملیات کالیبراسیون را انجام داده و به نتیجه می رساند. وی مقادیر دستگاه تحت کالیبره را قرائت کرده و با مقادیر حاصل از منبع مرجع مورد مقایسه قرار می دهد. پس از این مرحله ممکن است دستگاه تحت کالیبره، نیاز به تنظیمات و  اعمال مقادیر جبرانی داشته باشد.

مثالی از فرآیند کالیبراسیون

بیایید فرض کنیم که شما در یک شرکت داروسازی برای کنترل دوره ای دمای محیط و اطمینان از اینکه محصول مد نظرتان در گستره دمایی تعیین شده تولید می شود، از یک ترمومتر دقیق استفاده می کنید. شما می توانید ترمومتر ذکر شده را، برای حصول اطمینان از عملکردش، به  یک شرکت کالیبراسیون بفرستید و یا با خرید یک دستگاه کالیبراتور دما، از قبیل کالیبراتور حمام مایع یا کالیبراتور محیط دمایی خشک، خودتان عمل کالیبراسیون را به انجام برسانید.

کالیبراتور حمام مایع دارای یک تانک حاوی سیال کالیبراسیون بوده که دمای این محفظه تحت کنترل می باشد و به نمایشگر دمای کالیبره شده ای متصل می باشد.کالیبراتور محیط دمایی خشک مشابه آنچه گفته شد می باشد با این تفاوت که دارای بلوک فلزی با دمای تحت کنترل می باشند که درون این بلوک قلاف هایی برای کالیبره ترمومتر دارد که قطر درونی آن ها با قطر ترمومتر تحت کالیبره متناسب می باشد. کالیبراتور بر اساس درستی از پیش تعیین شده ای کالیبره شده است. ترمومتر مد نظر را داخل تانک و یا قلاف اندازه گیری قرار داده و تفاوت بین اعداد قرائت شده توسط نمایشگر کالیبراتور و نشاندهنده ترمومتر تحت کالیبره را در طول گستره دمایی مورد استفاده ترمومتر، ضبط و یادداشت کنید.با این روش متوجه می شوید که آیا ترمومتر شما در گستره مشخصات فنی مد نظرتان قرار می گیرد یا خیر. اگر ترمومتر احتیاج به تنظیم داشته باشد، ممکن است بتوانید نشاندهنده آن را تنظیم کنید،البته اگر پیچ مخصوص تنظیم داشته باشد ، و یا حداقل می توانید با توجه به نتایج بدست آمده، مقادیر تصحیح شده جدیدی برای ترمومتر مورد استفاده تعریف و اعمال کنید. اگر تنظیمات را اعمال کردید، فرآیند کالیبراسیون باید تکرار شود تا مطمئن شوید مقادیر به درستی اعمال شده و تصدیق کنید که ترمومتر دما را در محدوده مشخصات فنی تعریف شده خود اندازه گیری می کند. همچنین می توانید هر از گاهی از کالیبراتور استفاده کنید تا مطمئن شوید ترمومترتان همچنان در محدوده مجاز قرار دارد.آنچه گفته شد می تواند در مورد بسیاری از دستگاه ها و وسایل اندازه گیری مانند گیج فشار، ولت متر و غیره، مورد استفاده قرار بگیرد. 

چرا کالیبراسیون مهم است؟

کالیبراسیون کمک می کند تا جهانمان به روز ، رو به جلو و امن بماند. اگرچه، بسیاری از مردم نمی دانند که روزانه هزاران عملیات کالیبراسیون در سرتاسر جهان و برای منفعت خودشان، صورت می گیرد. زمانی در پرواز بعدیتان یا انجام امور درمانی و یا عبور از یک تاسیسات هسته ای، می توانید توقع داشته باشید که سیستم ها و فرآیندهایی که برای خلق و حفاظت از آن ها بوجود آمده اند، به منظور جلوگیری از بروز خطا در تولید یا استفاده روزمره، باید بطور منظم کالیبره شوند. همچنین همانطور که قبلا نیز ذکر شد کالیبراسیون کشفیات علمی، تولید صنعتی و تجارت بین المللی را پرورش داده و یا بهبود می بخشد.

وسایل اندازه گیری و آزمون نیاز به کالیبراسیون دارند

وسایل اندازه گیری و آزمون، نیاز به کالیبراسیون منظم دارند تا به ما این اطمینان را بدهند که همچنان کارشان را درست انجام می دهند.

ایمن بودن و مطابقت با استانداردهای صنعتی، از قبیل الزامات استاندارد FDA ایالت متحده آمریکا، دلایل مبرهنی هستند که نیاز به کالیبره ابزار تست و اندازه گیری را به ما یادآوری می کنند. اگرچه، همانطور که نیازهای فن آوری و در نتیجه هزینه های تولید، افزایش پیدا می کنند، آزمون ها و اندازه گیری های دقیق تر از انحصار آزمایشگاه ها خارج گردیده و به سطح کارخانه ها وارد شده است. دستگاه های اندازه گیری و آزمونی که بر طبق مشخصات فنی خاصی تولید می شوند،می توانند با گذشت زمان و در اثر سالیان کارکرد،گرما، شرایط محیطی ، پوسیدگی یا زنگ زدگی، قرار گرفتن در معرض نوسانات الکتریکی، ضربات ناگهانی و یا غیره، دچار زوال و خرابی شوند. حتی بهترین ابزارآلات آزمون و اندازه گیری می توانند نمایانگر ایرادات تولید، نویزهای تصادفی و یا رانش مقادیر در دراز مدت باشند که منجر به خطای اندازه گیری می شود. این خطاها، مانند اختلاف ناچیز میلی ولتی یا زاویه ای،می تواند از طریق امکان بالقوه رد کردن اشتباه کالا یا واحد مورد قبول و یا قبول اشتباه کالا یا واحد مردود، در سطح فرآیند ها و تولیدات، گسترش پیدا کنند.

حصول اطمینان از اینکه دستگاه اندازه گیری و آزمون از درستی مطلوبی برای تصدیق مشخصه های تولید یا فرآیند برخوردار است امری ضروری است زیرا این موضوع کمک می کند تا اطمینان حاصل کنیم نتایج حاصل از آزمایشات علمی قابل اتکا بوده، محصولات و کالاهای تولید شده به طرز درستی تولید شده اند و تجار بصورت درست و منصفانه ای در سرتاسر کشور در حال داد و ستد می باشند.

کالیبراتورها هم نیاز به کالیبراسیون دارند

کالیبراتورها به دلیل اینکه با گذشت زمان، می توانند از محدوده مجاز کالیبراسیون جابجا شده و رانش پیدا کنند، احتیاج به کالیبراسیون منظم و دوره ای دارند. معمولا با پیروی از قانون حداقل نسبت 4:1، کالیبراتور ها بوسیله استانداردهای مرجع با درستی بیشتر،بطور منظم کالیبره می شوند. این فرآیند بصورت بالارونده در هرم قابلیت ردیابی و تا درست ترین استانداردهایی که در موسسه ملی اندازه شناسی نگهداری می شوند،پیش می رود.

برگشت هزینه در فرآیند کالیبراسیون

کالیبراسیون دوره ای به عنوان سرمایه گذاری بنگاهی هوشمند با برگشت پذیری بالای هزینه(ROI)،در نظر گرفته می شود. کالیبراسیون اتلاف در تولید را با یادآوری و معدوم کردن مواردی که در آن تولیدات، خارج از محدوده مجاز طراحی ایجاد شده اند،از بین می برد. همچنین کالیبراسیون کمک می کند تا اجزای سیستم تولید که نیاز به تعمیر و یا جایگزینی دارند،پیش از تحمیل هزینه هنگفت به کارخانه،مورد شناسایی قرار بگیرند. همچنین کالیبراسیون از هزینه های نرم و سخت توضیع محصول معیوب به مشتریان، پیشگیری می کند. در واقع با کالیبراسیون هزینه ها، برعکس کیفیت و ایمنی که افزایش می یابد، کاهش پیدا می کند.

در اینجا ذکر این نکته خالی از لطف نیست که هزینه و درستی کالیبراسیون با حرکت به سمت پایین هرم کالیبراسیون، کاهش پیدا می کنند. احتمالا سطح پایین تری از درستی در کارخانه های تولیدی نسبت به آزمایشگاه های کالیبراسیون مورد نیاز است. ROI هنگامیکه درستی کالیبراسیون متناسب با نیاز مصرف کننده انتخاب می شود،در بیشترین حالت خود قرار می گیرد.

عملیات کالیبراسیون کجا انجام می شود؟

کالیبراسیون ها اغلب در موسسات اندازه شناسی ملی، آزمایشگاه های کالیبراسیون اولیه، آزمایشگاه های کالیبراسیون ثانویه و یا مثلا در خط تولید یک شرکت تولید کننده. ذکر این نکته لازم است که آزمایشگاه های کالیبراسیون اولیه و ثانویه می توانند در تملک و تحت سرپرستی فراهم کنندگان خدمات کالیبراسیون مستقل، شرکت کالیبراسیونی که خودش دستگاه های کالیبراسیون تولید می کند، مانند شرکت فلوک در امریکا، و یا تولید کننده ای که کالیبراسیون داخلی انجام می دهد، قرار داشته باشد.

کالیبراسیون ها چه زمانی انجام می شوند؟

در واقع برنامه زمان بندی کالیبراسیونی که برای همه موارد کاربرد داشته باشد، وجود ندارد. بسته به تعداد دفعات استفاده و یا درستی مورد نیاز، ممکن است نیاز به کالیبره ماهانه، سالانه و یا حتی دوره های طولانی تر، وجود داشته باشد. بطور کلی هر چقدر حساسیت اندازه گیری بالاتر باشد، تعداد دفعات کالیبره بالاتر بوده و زمان کالیبره بعدی زودتر فرا میرسد. اگر بطور تصادفی دستگاه از ارتفاعی بروی زمین پرت شد و یا خسارتی به آن وارد آوردید،باید در اولین فرصت ممکن نسبت به کالیبره مجدد آن اقدام کنید.

در مورد دستگاه های اندازه گیری و آزمون، تمامی اجزای الکترونیکی و وسایل مکانیکی، با گذشت زمان دچار رانش می شوند. برا ی اطمینان از اینکه دستگاه مد نظرتان همواره در محدوده مشخصات منتشر شده عمل می کند، باید آن را بطور منظم مورد کالیبره مجدد قرار بدهید. سازندگان دستگاه های اندازه گیری و آزمون، همانند شرکت فلوک، بازه مناسب را برای کالیبراسیون مجدد دستگاه های تولیدی خود، معرفی می کنند. برای مثال تولیدات شرکت فلوک دارای مشخصات فنی طراحی شده ای هستند که بیشتر از 95% از تولیدات در هر مدل ارائه شده تا پایان مدت اعتبار تاریخ کالیبراسیون منتشر شده، در محدوده مجاز مشخصات فنی خود می مانند. بازه زمانی کالیبراسیون متداول، معمولا یکساله می باشد.

اما اگر دستگاهی مابین فواصل کالیبراسیون دچار رانش بشود باید چکار کرد؟ اگر چنین شود، هر اندازه گیری که در این فاصله زمانی صورت گرفته است، مشکوک است. برای حل این مشکل، اقدام رایج کنترل میانی ابزار بر طبق استاندارد  ISO 17025 می باشد که به تصدیق ابزار نیز معروف است.

عملیات کالیبراسیون توسط چه کسانی اجرا می شود؟

اشخاصی که در آزمایشگاه ها عملیات کالیبراسیون را انجام می دهند عبارتند از:

  • اندازه شناس ها
  • مدیران آزمایشگاه ها
  • مهندسین کالیبراسیون
  • تکنسین های کالیبراسیون

همچنین اشخاصی که در محل تولید ابزار کالیبراسیون انجام می دهند عبارتند از :

  • مهندسین تولید
  • تکنسین های ابزار دقیق

What is Calibration?

Calibration is the act of comparing a device under test (DUT) of an unknown value with a reference standard of a known value.

A person typically performs a calibration to determine the error or verify the accuracy of the DUT’s unknown value.

As a basic example, you could perform a calibration by measuring the temperature of a DUT thermometer in water at the known boiling point (212 degrees Fahrenheit) to learn the error of the thermometer.  Because visually determining the exact moment that boiling point is achieved can be imprecise, you could achieve a more accurate result by placing a calibrated reference thermometer, of a precise known value, into the water to verify the DUT thermometer.

A logical next step that can occur in a calibration process may be to make a corrective adjustment or to true-up the instrument to reduce measurement error. Technically, corrective adjustment is a separate step from calibration. (Correction and compensation are covered in more detail in the Calibration Steps section below.)

For a more formal definition of calibration, we turn to the BIPM (Bureau International des Poids et Mesures or International Bureau of Weights and Measures, www.bipm.org), based in France, which is the coordinator of the worldwide measurement system and is tasked with ensuring worldwide unification of measurements.

BIPM produces a list of definitions for important technical terms commonly used in measurement and calibration. This list, referred to as the VIM (International Vocabulary of Metrology), defines the meaning of calibration as an “operation that, under specified conditions, in a first step, establishes a relation between the quantity values with measurement uncertainties provided by measurement standards and corresponding indications with associated measurement uncertainties and, in a second step, uses this information to establish a relation for obtaining a measurement result from an indication.” This definition builds upon the basic definition of calibration by clarifying that the measurement standards used in calibration must be of known uncertainty (amount of possible error). In other words, the known value must have a clearly understood uncertainty to help the instrument owner or user determine if the measurement uncertainty is appropriate for the calibration.

International System of Units (SI) – The Top Level of Known Measurement Standards

How do we arrive at measurement standards of known values against which we calibrate our devices under test?  For the answer, we turn to the International System of Units, abbreviated “SI”, which is derived from “Le Système International d’Unités” in French.  The SI consists of seven base units which are the second, meter, kilogram, ampere, kelvin, mole and candela. 

The seven base SI units are derived from quantities in nature that do not change, such as the speed of light.

Until 2019, the kilogram was the exception where it was defined by a cylindrical, metallic alloy artifact known as the International Prototype of the Kilogram (IPK) or “Le Grand K”. Keeping that artifact from influences that might even slightly change it was so important that it was carefully and securely stored under double glass enclosure in a vault in Paris that required 3 keys to open. Despite best efforts to maintain the artifact, it was found that, over time, it lost some mass – equivalent to about a grain of sand. And, so with great fanfare, it was announced on World Metrology Day in 2019 that the definition of the kilogram would shift from being based on the metal artifact in Paris to being based on the Planck Constant, a constant of nature which does not change and can be accessed anywhere in the universe. Learn more about the new definition of the kilogram.

It is interesting to note that the definition of some SI units has improved over time. For example, consider the historical changes to the definition of one second:

  • 1874 – 1956: 1/(86,400) of a day
  • 1956 – 1967: The fraction 1/(31,556,925.9747) of the tropical (epoch) year of 1900 based on astronomical observations between 1750 and 1892
  • 1967 – 1997: the duration of 9,192,631,770 periods of the radiation corresponding to the two hyperfine levels of Cesium (Cs) 133
  • 1997 – 1999: added at rest approaching 0 K
  • 1999 – Present: included corrections for ambient radiation

Using the latest definition, the second is realized by the weighted average of atomic clocks all around the world.

At this point, it should be pointed out that the base SI units can be combined per algebraic relations to form derivative units of measure important in calibration such as pressure (Pounds per Square Inch or PSI). In this case, pressure is derived from the meter and kilogram base SI units.

The SI was created by resolution of the General Conference on Weights and Measures (CGPM), an intergovernmental organization created via the Treaty of the Meter, or Convention of the Metre, signed in 1875 in Paris.  The Treaty of the Meter also created organizations to help the CGPM, namely the International Committee for Weights and Measures (CIPM), which discusses, examines and compiles reports on the SI for review by the CGPM and the BIPM whose mission we mentioned above.  You can find and review CGPM resolutions at the BIPM website.  Today member states of the CGPM include all major industrialized countries.

Calibration Interoperability

A key benefit of having the BIPM manage the SI on a worldwide basis is calibration interoperability. This means that all around the world, we are using the same measurement system and definitions. This allows someone in the U.S. to purchase a 1-ohm resistor in Australia and be confident that it will be 1 ohm as measured by U.S. Standards, and vice versa. In order to have interoperability, we need to have all of our measurements traceable to the same definition.

The Calibration Traceability Pyramid – Getting the SI into Industry

Now that we have the SI reference standards, how do we efficiently and economically share them with the world?

Think of the SI at the top of a calibration pyramid where the BIPM helps pass the SI down to all levels of use within countries for the fostering of scientific discovery and innovation as well as industrial manufacturing and international trade.

Just below the SI level, the BIPM works directly with the National Metrology Institutes (NMIs) of member states or countries to facilitate the promotion of the SI within those countries.

The NMI of the United States is the National Institute of Standards and Technology (NIST), a non-regulated federal agency of the United States Department of Commerce.  Fluke Calibration works with NMIs around the world where it does business.  You can see a list of NMIs and other metrology organizations by country at the BIPM’s NMI page.

Because it’s not affordable, efficient or even possible for everybody within a country to work directly with their NMI, NMI-level calibration standards are used to calibrate primary calibration standards or instruments; primary standards are then used to calibrate secondary standards; secondary standards are used to calibrate working standards; and working standards are used to calibrate process instruments.  In this way, as illustrated in the image below, references to the SI standards can be efficiently and affordably passed down the calibration pyramid through the NMI, into industry as needed.

In some rare instances, an SI unit can be realized directly by a laboratory using a special instrument that implements physics to achieve the measurement.  The Quantum Hall Ohm is an example of this type of device.  While it is directly used in several calibration laboratories in the United States, the NMI is still involved by helping ensure the device is measuring correctly.

Learn more about calibration standards.

Calibration Traceability

The lineage from the lowest level of the calibration pyramid all the way up to the SI standards can be referred to as “traceability”, an important calibration concept.  Stated another way, traceability, or traceable calibration, means that the calibration was performed with calibrated reference standards that are traceable through an unbroken chain back to the pertinent SI unit, through an NMI. Calibration traceability may also be thought of as the pedigree of the calibration.

Traceability is also important in test and measurement because many technical and quality industry standards require measurement devices to be traceable. For example, traceable measurements are required in the medical device, pharmaceutical, aerospace, military, and defense industries as well as in many other manufacturing industries.  And, traceable calibration always helps to improve process control and research by ensuring measurements and resulting data are correct.

As with other topics associated with calibration, many technical requirements have been developed for managing and ensuring calibration traceability. To mention a few requirements, consideration must be given to calibration uncertainty, calibration interval (when does the calibration expire?), and methods used to ensure that traceability stays intact in the calibration program.

For more information regarding traceability and other important metrology concepts, visit Fluke Calibration’s General Calibration & Metrology Topics technical library and metrology training pages.

Calibration Accreditation

When calibrations are performed, it’s important to be able to trust the process by which they are performed.  Calibration accreditation provides that trust.  Accreditation gives an instrument owner confidence that the calibration has been done correctly.

Calibration accreditation means that a calibration process has been reviewed and found to be compliant with internationally accepted technical and quality metrology requirements. ISO/IEC 17025 is the international metrology quality standard to which calibration laboratories are accredited.

Accreditation services are provided by independent organizations that have been certified to do this type of work. Every large country typically has at least one accreditation provider. For example, in the United States, the National Voluntary Laboratory Accreditation Program (NVLAP)A2LA, and LAB are accreditation providers. In England, the United Kingdom Accreditation Service (UKAS) is the accreditation provider.

International agreements ensure that once a calibration process is accredited in one country, any calibrations coming from that process can be accepted worldwide without any additional technical acceptance requirements.

Companies like Fluke Calibration maintain several certifications and accreditations.

Calibration Certificates

A calibration laboratory often provides a certificate with the calibration of an instrument. The calibration certificate provides important information to give the instrument’s owner confidence that the device was calibrated correctly and to help show proof of the calibration.

A calibration certificate might include a statement of traceability or a list of the calibration standards used for the calibration, any data resulting from the calibration, the calibration date, and possibly pass or fail statements for each measurement result.

Calibration certificates vary because not all calibration laboratories follow the same industry standards, and they also can vary depending on where the calibration fits within the calibration pyramid or hierarchy. For example, the calibration certificate required for a grocery store scale may be very simple, while the calibration certificate for a precision balance in a calibration laboratory may have a lot more technical content.  Calibration certificates coming from an accredited calibration process have some very particular requirements which can be found in the international standard ISO/IEC 17025.

Calibration Uncertainty

From the definition of calibration previously discussed, you’ve probably noticed that “uncertainty” (amount of possible error) rather than “accuracy” is used to describe the capability of the calibration processes and outcomes.  In the test and measurement industry, accuracy is often used to describe the measurement capability of an instrument.  Often the instrument manufacturer intends for an accuracy specification to represent the expected range of error that may occur when using the instrument.  However, the VIM provides guidelines that “uncertainty” is the preferred term to use for describing the measurement specification of an instrument.  Since uncertainty is the chosen vernacular to discuss the amount of error and is such an important concept in the calibration discussion, it deserves a bit more attention.

Let’s start with a basic definition. Uncertainty describes a range of values in which the true value can be found. For example, if a voltmeter has a measurement uncertainty of ± 0.1 V, when measuring a voltage value that appears on the display as 10.0 V, the true voltage value could be as low as 9.9 V or as high as 10.1 V. If the 0.1 V uncertainty is stated to have 95 % coverage, we can have 95 % confidence that 10V ± 0.1 V contains the true value. Fortunately, most results tend to be toward the middle of the possible range, because random uncertainties tend to follow the Gaussian distribution or normal bell curve.

With this understanding of uncertainty in mind, the calibration standard needs to be of sufficiently low uncertainty that the user has confidence in the calibration result. The calibration standard should have lower uncertainty (better accuracy) than the device being calibrated.  For example, it does not make sense to calibrate a precise micrometer using a measuring tape. Similarly, it does not make sense to calibrate a high-precision precious metal scale by comparing it with a bathroom scale.

An important international metrology standard, the GUM (Guide to the expression of Uncertainty Measurement), goes one step further with the importance of uncertainty with the following statement.

“When reporting the result of a measurement of a physical quantity, it is obligatory that some quantitative indication of the quality of the result be given so that those who use it can assess its reliability.”

Essentially, the GUM states that a measurement without a known uncertainty value will have an unknown level of quality and reliability.

Uncertainties can enter the calibration equation from various sources.  For example, let’s look at calibrating a temperature probe.  Uncertainties can be introduced by the reference thermometer and the calibration system.  Adding uncertainties of components together is referred to as an uncertainty evaluation.  Some evaluations use an estimate of uncertainty that can allow many different models of temperature probes to be used, so long as they don’t exceed a budgeted value, and are therefore called “uncertainty budgets”.

Here is an example of why calibration uncertainty and measurement uncertainty are an important part of our daily lives. A typical gasoline pump in the United States can pump gas with an uncertainty of about ± 2 teaspoons (0.003 gallons) per gallon. Nobody is going to be upset if they are short a couple of teaspoons of gasoline, and the gas station may not lose much money by giving away two teaspoons of gasoline per gallon sold. However, if the uncertainty of the gasoline pump is ± 0.1 gallons, you can imagine how inappropriate this level of uncertainty would be for this measurement. You could be shorted a gallon of gas for every 10 gallons that you pump. So, the reason why uncertainty is so important in calibration and measurement is that it is needed to allow the owner of the instrument or the customer of the measurement to evaluate confidence in the instrument or the measurement. It could be an interesting experiment to ask a gasoline station manager for an estimate of uncertainty for one of their gasoline pumps!

For several years, the simple “4 to 1 TUR (Test Uncertainty Ratio)” has been implemented in many calibration processes.  It basically says that an appropriate uncertainty relationship between the calibration standard and the DUT should be at 4 to 1, meaning the uncertainty of the reference measurement is four times smaller than the uncertainty of the DUT.

A TUR is the ratio of the specification of the device under test (DUT) to the expanded uncertainty of measurement. This is what modern calibration laboratories use to ensure risk of producing a false accept (where the calibration results indicate that the DUT is in tolerance, but due to the measurement uncertainty, it is actually out of tolerance) or a false reject (where the calibration results indicate that the DUT is out of tolerance, but due to the measurement uncertainty, it is actually in tolerance). In the era before calibration laboratories were required to compute measurement uncertainty, the laboratory would often calculate a Test Accuracy Ratio (TAR), which is the ratio of the DUT to the specification of the reference standard used in the calibration, as a means of evaluating the adequacy of a reference standard for a calibration process. Calculating a TAR is still a good way to have a rough estimate for determining the adequacy of a reference standard for a calibration process, and then a TUR can formally be calculated after the calibration process has been completed and the formal uncertainty of measurement has been evaluated.

Calibrators

A device that calibrates other equipment is sometimes referred to as a calibrator.  A calibrator is different from other types of calibration standards because it has a built-in calibration standard as well as useful features that make it easier to calibrate instruments. For example, the electrical calibrator shown here has connectors to allow a user to connect a device under test easily and safely, and buttons and menu options to help the user efficiently perform a calibration.

Calibration Software

Using calibration software with the calibrator allows a user to completely automate the calibration and calculate calibration uncertainty. Calibration software increases the efficiency of performing calibrations while reducing procedural errors and reducing sources of uncertainty.  There is also calibration asset management software available that manages calibration equipment inventory.

Calibration Disciplines

There are many calibration disciplines, each having different types of calibrators and calibration references. To get an idea of the types of calibrators and instruments that are available, see the wide array of Fluke Calibration calibrators and other calibration equipment.  Common calibration disciplines include but are not limited to:

  • Electrical

  • Radio frequency (RF)

  • Temperature

  • Humidity

  • Pressure

  • Flow

  • Dimensional

How is a Calibration Performed?

There are several ways to calibrate an instrument depending on the type of instrument and the chosen calibration scheme. There are two general calibration schemes:

  1. Calibration by comparison with a source of known value.  An example of a source calibration scheme is measuring an ohmmeter using a calibrated reference standard resistor. The reference resistor provides (sources) a known value of the ohm, the desired calibration parameter. A more sophisticated calibration source like the resistor is a multifunction calibrator that can source known values of resistance, voltage, current, and possibly other electrical parameters. A resistance calibration can also be performed by measuring a resistor of unknown value (not calibrated) with both the DUT instrument and a reference ohm meter. The two measurements are compared to determine the error of the DUT.

  2. Calibration by comparison of the DUT measurement with the measurement from a calibrated reference standard.  A variant of the source-based calibration is calibrating the DUT against a source of known natural value such as a chemical melt or freeze temperature of a material like pure water.

From this basic set of calibration schemes, the calibration options expand with each measurement discipline.

Calibration Steps

A calibration process starts with the basic step of comparing a known with an unknown to determine the error or value of the unknown quantity. However, in practice, a calibration process may consist of “as found” verification, adjustment, and “as left” verification.

Many measurement devices are adjusted physically (turning an adjustment screw on a pressure gauge), electrically (turning a potentiometer in a voltmeter), or through internal firmware settings in a digital instrument.

For example, for some devices, the data attained in calibration is maintained on the device as correction factors, where the user may choose to compensate for the known correction for the device.  An example of this is RF attenuators, where their attenuation values are measured across a frequency range.  The data is kept with the instrument in the form of correction factors, which the end-user applies to improve the quality of their measurements.  It is generally assumed that the device in question will not drift significantly, so the corrections will remain within the measurement uncertainty provided during the calibration for the calibration interval.  It is a common mistake for people to assume that all calibration data can be used as correction factors, because the short and long term variation of the device may be greater than the measurement uncertainty during the calibration interval.

Non-adjustable instruments, sometimes referred to as “artifacts”, such as temperature RTDs, resistors, and Zener diodes, are often calibrated by characterization. Calibration by characterization usually involves some type of mathematical relationship that allows the user to use the instrument to get calibrated values. The mathematical relationships vary from simple error offsets calculated at different levels of the required measurement, like different temperature points for a thermocouple thermometer, to a slope and intercept correction algorithm in a digital voltmeter, to very complicated polynomials such as those used for characterizing reference standard radiation thermometers.

The “as left” verification step is required any time an instrument is adjusted to ensure the adjustment works correctly. Artifact instruments are measured “as-is” since they can’t be adjusted, so “as found” and “as left” steps don’t apply.

A calibration professional performs calibration by using a calibrated reference standard of known uncertainty (by virtue of the calibration traceability pyramid) to compare with a device under test.  He or she records the readings from the device under test and compares them to the readings from the reference source. He or she may then make adjustments to correct the device under test.

Calibration Example

Let’s say that you use a precise thermometer to control the temperature in your pharmaceutical plant processes and you need to calibrate it regularly to ensure that your products are created within specified temperature ranges.  You could send your thermometer to a calibration lab or perform the calibration yourself by purchasing a temperature calibrator, such as a liquid bath calibrator or dry-well calibrator.  A liquid-bath calibrator (like the Fluke Calibration models 6109A or 7109A portable calibration baths) will have a temperature-controlled tank filled with a calibration fluid connected to a calibrated temperature display.  The dry-well calibrator is similar but a metal temperature-controlled block will have measurement wells that are sized to fit the diameter of the DUT thermometer.  The calibrator has been calibrated to a known accuracy.  You place your thermometer, the device under test (DUT), in the calibrator tank or measurement well then you note the difference between the calibrator display and the DUT over a distributed set of temperatures within the range for which your thermometer is used. In this way, you verify if your thermometer is within specification or not.  If the thermometer needs to be adjusted, you may be able to adjust the display of the thermometer, if it has one, or you can use the calibration results to determine new offsets or characterization values for the probe.  If you make adjustments, then the calibration process is repeated to ensure the adjustments worked correctly and verify that the thermometer is within specification.  You can also use the calibrator to occasionally check the thermometer to make sure it’s still in tolerance.  This same general process can be used for many different measurement devices like pressure gauges, voltmeters, etc.

Why is Calibration Important?

Calibration helps keep your world up, running and safe. Though most never realize it, thousands of calibrations are quietly conducted every day around the world for your benefit.  When on your next flight or taking medication or passing a nuclear facility, you can expect that the systems and processes used to create and maintain them are calibrated regularly to prevent failure both in production and in on-going use.

Also, as discussed above, calibration fosters or improves scientific discovery, industrial manufacturing, and international trade.

To further appreciate the role precise measurements and calibration play in your life, watch this 2 1/2-minute video by Fluke Chief Metrologist, Jeff Gust. The video helps demonstrate how precise measurements assured by calibration impact your daily life in transportation.

Test and Measurement Devices Need to Be Calibrated

Test and measurement devices must be calibrated regularly to ensure they continue to perform their jobs properly.

Safety and compliance with industry standards, such as those enforced by the FDA in the United States, are obvious reasons for keeping test and measurement tools calibrated.  However, as technology demands increase, and manufacturing costs go up, higher precision tests and measurements are moving from the calibration laboratory and onto the factory floor.

Test and measurement devices that were manufactured within specifications can deteriorate over time due to age, heat, weathering, corrosion, exposure to electronic surges, accidental damage, and more.  Even the best test and measurement instruments can possess manufacturing imperfections, random noise, and long-term drift that can cause measurement errors.  These errors, such as being off a few millivolts or degrees, can be propagated to products or processes being tested, with the potential to falsely reject a good unit or result or to falsely accept a bad unit or result.

Ensuring that test and measurement equipment is of sufficient accuracy to verify product or process specifications is necessary to trust and build on the results of scientific experiments, ensure the correct manufacture of goods or products, and conduct fair trade across country borders.

Calibrators Need to Be Calibrated Too

calibrator can drift or wear from calibration tolerances over time and needs to be calibrated on a regular basis.  Usually following the minimum 4:1 ratio rule, calibrators are calibrated regularly by more accurate reference standards. This process continues all the way up the calibration traceability pyramid to the most accurate calibration standards maintained by a National Metrology Institute.

Calibration ROI

Periodic calibration is usually viewed as a smart business investment with a high return on investment (ROI).  Calibration eliminates waste in production, such as recalls required by producing things outside of design tolerances.  Calibration also helps identify and repair or replace manufacturing system components before they fail, avoiding costly downtime in a factory. Calibration prevents both the hard and soft costs of distributing faulty products to consumers. With calibration, costs go down while safety and quality go up.

It’s important to point out that both the accuracy and cost of calibration normally declines as you move down the calibration pyramid. Lower level accuracies may be needed on a manufacturing floor as opposed to those in a primary lab. ROI is maximized by choosing calibration that matches the accuracy needed.

Where Are Calibrations Performed?

Calibrations are commonly performed at National Metrology Institutes, primary calibration labssecondary calibration labs, and in the field at places like a manufacturer’s plant floor.  Note that primary and secondary calibration labs can be owned and operated by an independent calibration service provider; a calibration company that manufactures calibration instruments, like Fluke Calibration; or a manufacturer who performs calibrations in house.

When Are Calibrations Performed?

There is no one-size-fits-all calibration schedule. Depending on how frequently you use your equipment and the accuracy required, you may need to calibrate as frequently as every month to as infrequently as every year or longer.  Generally, the more critical measurements being performed, the more frequently you will calibrate.  If you accidentally dropped or otherwise damaged an instrument, you will likely want to calibrate it as soon as possible.

In terms of test and measurement equipment, all electronic components and mechanical devices exhibit drift over time. To ensure your equipment always operates to a published specification, you must have it recalibrated regularly. Manufacturers of test and measurement equipment, like Fluke, provide calibration time intervals for their products. For example, Fluke product specifications are designed so that more than 95 percent of the population for a given model will meet all specification at the end of its published calibration interval. The most common time interval is one year.

But what if equipment drifts between calibrations? If so, everything measured between the calibration periods is now suspect. To solve this problem, a common practice is to perform intermediate checks per ISO 17025, also known as equipment verification. Learn more at our blog post about intermediate checks and the difference between calibration vs verification.

Who Performs Calibrations?

People who perform calibration in laboratories include:

  • Metrologists
  • Lab managers
  • Calibration engineers
  • Calibration technicians

People who perform calibration work in the field include:

  • Manufacturing engineers
  • Instrument technicians