Miernictwo Komentarz do wykładów cz1


ADAM G. POLAK
Miernictwo
elektroniczne
Komentarz do wykładów przeznaczony dla studentów
Wydziału Elektroniki Politechniki Wrocławskiej
Katedra Metrologii Elektronicznej i Fotonicznej
Wydział Elektroniki Politechniki Wrocławskiej
Wrocław 2013
Materiały na prawach maszynopisu.
Adam G. Polak 2013
Część I
Podstawy pomiarów
1. Wprowadzenie do metrologii
1.1. Pojęcia podstawowe
Metrologia (1): nauka o mierzeniu (źż  miara, łż  słowo)
Nauka to obszar działalności (niektórzy mówią: kultury) człowieka mającej na celu
obiektywne poznanie, opis i zrozumienie  tego, co istnieje (tzw. rzeczywistości).
Rzeczywistość materialną spostrzegamy jako przestrzeń, czas, materię, energię i
oddziaływania.
cząstki masa i pęd
rzeczywistość
materialna
fale energia
Tworzywem obiektywnie istniejącej rzeczywistości (niezależnej od poznania) jest materia (przez filozofów
starożytnych zwana substancją).
Nauki przyrodnicze zajmują się poznaniem świata materialnego (przyrody martwej i ożywionej w skali mikro,
makro i kosmicznej), posługując się metodami eksperymentalnymi.
Wyjaśnianie w naukach przyrodniczych polega na podawaniu powiązań jakościowych i ilościowych. Nauka
zasadniczo nie daje odpowiedzi na pytanie  dlaczego? ; z pewnością nie mówi  po co? .
Nauka posługuje się metodami naukowymi, zwanymi też paradygmatami nauki.
Metoda naukowa to powszechnie uznany sposób działania prowadzącego do pozyskania
obiektywnej wiedzy i jej formalnego opisu.
Wiedza naukowa to (generalnie) spójny zbiór powszechnie uznanych twierdzeń o
rzeczywistości, co do których nie wykazano nieprawdziwości, (w zasadzie) zgodnych z
przeprowadzonymi doświadczeniami.
Twierdzeń naukowych nie można udowodnić poprzez żadne doświadczenie empirycznie  pozytywne wyniki
doświadczeń zwiększają jedynie nasze zaufanie do takiego twierdzenia. Doświadczalnie można za to je obalić.
Za naukowe uważa się twierdzenia, co do których można zaproponować doświadczenia je falsyfikujące.
Hipoteza naukowa jest próbą wyjaśnienia zaobserwowanych prawidłowości poprzez podanie
związku przyczynowego-skutkowego. Aby to wyjaśnienie zostało włączone w zakres wiedzy
naukowej, hipoteza musi zostać zweryfikowana.
W naukach przyrodniczych związek ten najczęściej przybiera formę równań matematycznych, tj. modelu
matematycznego.
Formułowane hipotezy są zazwyczaj spójne z poosiadaną wiedzą. Bywa jednak, że nie są one z nią zgodne 
wtedy po ich akceptacji mówimy o rewolucji naukowej.
6 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Eksperyment polega na zaplanowanym wywołaniu pożądanego stanu obiektu fizycznego w
kontrolowanych warunkach, a stan ten analizowany jest na drodze pomiarów. Celem
eksperymentu jest weryfikacja wcześniej sformułowanej hipotezy. Zgodność wyników
eksperymentów z postawioną hipotezą powoduje, że staje się ona twierdzeniem.
Kolejnymi etapami eksperymentu są: sformułowanie hipotezy, określenie warunków jej falsyfikacji,
zaplanowanie doświadczenia z uwzględnieniem metody naukowej i środków technicznych, przygotowanie
stanowiska, przeprowadzenie doświadczenia w kontrolowanych warunkach  wykonanie pomiarów,
opracowanie wyników, wykazanie zgodności wyników z hipotezą lub ich sprzeczności.
Koncepcja naukowa to taka hipoteza wyjaśniająca wyniki obserwacji lub doświadczeń,
której (na obecnym etapie rozwoju nauki) nie można zweryfikować doświadczalnie 
możliwe jest zatem funkcjonowanie kilku równoważnych koncepcji.
Pomiar to empiryczny proces poznawczy polegający na obiektywnym przyporządkowaniu
wartości liczbowych rozróżnialnym jakościowo cechom (właściwościom) badanych obiektów
fizycznych (jest to zatem odwzorowanie właściwości obiektu w dziedzinę liczb).
To, że pomiar jest procesem empirycznym oznacza, iż jego przeprowadzenie wymaga zastosowania środków
materialnych wobec badanej części świata realnego.
Nazwanie pomiaru procesem poznawczym wskazuje na fakt, iż jego przeprowadzenie pozwala uzyskac
dodatkową informację o badanym obiekcie.
Obiektywizm pomiaru przejawia się w tym, że jego wynik jest niezależny od obserwatora.
Efektem pomiaru są co najmniej dwa elementy liczbowe: pierwszy określa wartość mierzonej wielkości, a drugi
oszacowaną dokładność pomiaru. Określeniem wartości może być dowolna liczba (naturalna, całkowita,
wymierna, niewymierna) lub inny obiekt matematyczny (np. szereg, wektor, macierz, tensor, funkcja, rozkład
itd).
Warunkiem przeprowadzenia pomiaru jest wyodrębnienie obiektu fizycznego z otaczającej rzeczywistości oraz
wyróżnienie jego mierzalnej cechy.
Obiektem fizycznym nazywamy badaną część rzeczywistości, którą jest substancja, część składowa, całość lub
zbiór ciał (przedmiotów martwych i istot żywych) lub związane z nimi zjawisko.
Wyróżnialną właściwość obiektu fizycznego, którą można oceniać jakościowo (porównywać) i ilościowo
(mierzyć), nazywamy wielkością fizyczną lub mierzalną; jest ona modelem właściwości obiektu.
Wielkość mierzoną, a w zasadzie jej model, nazywa się mezurandem, a rzeczywistą jej wartość wartością
prawdziwą.
Wielkości fizyczne można klasyfikować biorąc pod uwagę wiele kryteriów. Najczęściej
dzieli się je na:
- ciągłe i dyskretne,
- czynne i bierne,
- addytywne i nieaddytywne,
- elektryczne i nieelektryczne.
Wielkości ciągłe (zwane też analogowymi) mogą przyjmować dowolna wartość liczbową z charakterystycznego
zakresu, a ich przyrost również może mieć dowolna wartość (w zakresie zmienności).
Wielkości dyskretne (inaczej  ziarniste) przyjmują z góry określone poziomy wartości rozłożone równomiernie
lub nierównomiernie w charakterystycznym zakresie i w związku z tym mogą zmieniać się tylko  skokowo ,
czyli o skończone przyrosty zwane kwantami.
1. Wprowadzenie do metrologii 7
Wielkości czynne (nazywane też aktywnymi) są nośnikami energii, która może być wykorzystywana m.in. przez
przyrządy pomiarowe.
Wielkości bierne manifestują swe istnienie po dostarczeniu energii do badanego obiektu fizycznego.
Wielkości addytywne spełniają zasadę, że wartość sumy ich elementów składowych (w badanym układzie) jest
sumą wartości tych elementów (np. masa, ładunek elektryczny).
Wielkości nieaddytywne nie spełniają podanej uprzednio zasady (np. temperatura, stężenie).
Metrologia (2) jest nauką o zasadach prowadzenia pomiarów i analizy ich wyników,
ukierunkowaną na poznanie ilościowe, a w ostateczności na uzyskanie w świadomości
człowieka jak najwierniejszego obrazu rzeczywistości.
Technika to całokształt środków i czynności związanych z wytwarzaniem przez człowieka
dóbr materialnych oraz reguły posługiwania się tymi środkami.
Grecki termin  oznacza: sztuka, rzemiosło, kunszt, umiejętność.
Technika pomiaru to sposób jego wykonania z wykorzystaniem praw fizyki (zasady
pomiaru) i metody pomiaru oraz dostępnych środków technicznych.
Zasada pomiaru to zjawisko fizyczne wykorzystywane podczas pomiaru (np. ruch wahadła
przy pomiarze czasu zegarem mechanicznym).
Miernictwo jest techniką prowadzenia pomiarów.
1.2. Cztery koncepcje praw przyrody
Koncepcje praw przyrody wg A. N. Whiteheada:
(1) Prawo przyrody jest  nałożone na Wszechświat, jest od niego wcześniejsze i niezależne 
gdyby istniało kilka światów np. z różnym rozkładem materii i energii  w każdym z nich
funkcjonować będą takie same prawa przyrody.
(2) Prawa przyrody są związane ze strukturą świata, tzn. struktura Wszechświata wyznacza
prawa przyrody  we Wszechświecie z innym rozkładem materii i energii prawa przyrody
byłyby inne.
(3) Pozytywistyczna koncepcja prawa przyrody jako zaobserwowanego porządku następstw;
porządek taki nie jest niczym istotnym we Wszechświecie  jest tylko opisem tego, co
obserwujemy.
(4) Koncepcja konwencjonalistyczna prawa przyrody jako umowy.
8 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
1.3. Proces poznawczy w metrologii
Schemat procesu poznawczego w metrologii
Model Model Model
Badany
Obserwator
fizyczny matematyczny metrologiczny
obiekt
Świat rzeczywisty Dziedzina abstrakcji
Model fizyczny (jakościowy): wyróżnienie podstawowych właściwości i zjawisk fizycznych i
często ich uproszczone ujęcie.
Model matematyczny (jakościowo-ilościowy): układ równań matematycznych opisujących
wyróżnione właściwości i zjawiska fizyczne.
Model metrologiczny (ilościowy): przypisane wartości (poprzez pomiar) wyróżnionym
wielkościom fizycznym (zmiennym i współczynnikom równań).
Sprzężenia zwrotne.
1.4. Pomiary w naukach przyrodniczych
Krótka historia pomiarów
- okres prehistoryczny: określanie liczebności zbiorów
- Starożytność: świadectwa materialne (sprzed 3-6 tys. lat w.p.Ch.) prowadzenia pomiarów
wymiarów geometrycznych, masy, objętości i czasu przez najstarsze cywilizacje Doliny
Indusu, Sumerów, Egipcjan
- fizyka Arystotelesa
- nauka nowożytna (od XVII w.)
" pierwsze przyrządy i eksperymenty Galileusza (1564-1642 ):  Licz, co można policzyć,
mierz, co można zmierzyć, a to, co nie jest mierzalne, uczyń mierzalnym
" mechanika Newtona (1643-1727)
- rewolucja naukowo-techniczna (XX w.)
" teoria względności (1905, 1915) Einsteina (1879-1955)
" mechanika kwantowa (początek XX w.; Heisenberg, Shrdinger, Planck, Born, Bohr,
Dirac i in.)
" możliwość przewidywań teoretycznych rozwój techniki
" komercjalizacja techniki gloryfikacja nauki
- stan obecny: dominacja techniki nad nauką
- przykład (pomiar czasu): zegar słoneczny (5,5 tys. lat p.Ch.), klepsydra wodna (starożytny Egipt i
Mezopotamia), klepsydra piaskowa (średniowieczna Europa), zegar kołowy z ciężarkami (XIV w.), zegar
kołowy ze sprężyną (XVI w.), zegar wahadłowy (1656 ), zegar kwarcowy (lata 30. XX w.), zegar atomowy
(2. połowa XX w.)
1. Wprowadzenie do metrologii 9
Rozwój teorii pomiarów
Rozwój aparatury
- porównywanie bezpośrednie
- urządzenia mechaniczne
- urządzenia elektryczne, elektroniczne i optoelektroniczne
1.5. Determinizm w pomiarach
Determinizm klasyczny opisuje związki przyczynowo-skutkowe i konsekwencje ich
istnienia wynikające z osiągnięć fizyki do czasu pojawienia się mechaniki kwantowej.
Konsekwencją fizyki Newtonowskiej jest umiejętność przewidzenia (tj. obliczenia) w jakim
punkcie przestrzeni znajdzie się obiekt materialny w przyszłości, jeżeli wcześniej znane jest
jego położenie i pęd.
Za obiekty materialne uznać można np. atomy lub cząsteczki chemiczne  zatem znając ich położenie i pęd w
chwili t0 można dokładnie określić, gdzie będą się znajdować w chwili t0 + "t. Innymi słowy: ponieważ masa i
pęd tych elementów są w danej chwili ściśle określone (choć w całości, tj. dla wszystkich elementów
jednocześnie, niemożliwe do poznania dla człowieka), to przesądzone jest (zdeterminowane), gdzie będą się
znajdować w dowolnej chwili w przyszłości. Wniosek ten dotyczy oczywiście wszystkich zbudowanych z nich
obiektów, w tym człowieka.
Można powiedzieć, że  na szczęście (biorąc pod uwagę postulat wolnej woli człowieka, z
którego nie chcielibyśmy rezygnować) w klasycznym ujęciu fizyki zauważono istnienie
problemu trzech kulek. W zasadzie należy rozważyć dwie sytuacje:
1) zderzenie sprężyste trzech kulek (jak na rys. 1.A)  w oparciu o prawa mechaniki
klasycznej (zasada zachowania pędu i ciągłość materii) nie można przewidzieć kierunku
ruchu kulek po zderzeniu, gdyż istnieje nieskończenie wiele rozwiązań równoważnych;
Rys. 1.A Rys. 1.B
2) próba przewidzenia kierunku ruchu kulek po zderzeniu na podstawie pomiarów przed
zderzeniem może dać całkowicie błędny wynik (jak na rys. 1.B), nawet przy najmniejszym
błędzie pomiaru położenia czy pędu (a żadnego pomiaru nie da się wykonać bezbłędnie).
Ograniczenie  zasięgu determinizmu w czasoprzestrzeni jest konsekwencją szczególnej i
ogólnej teorii względności.
10 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
(In)determinizm w pomiarach kwantowych został dostrzeżony wraz ze sformułowaniem
mechaniki kwantowej. Takie rozumienie możliwości przewidywania ewolucji materii wynika
z odkrytej przez Heisenberga zasady nieoznaczoności oraz probabilistycznego opisu
zachowania się układów kwantowych za pomocą funkcji falowych zaproponowanych przez
Schrdingera.
Zasada nieoznaczoności Heisenberga związana jest z oddziaływaniem aparatury
pomiarowej z badanym obiektem i dotyczy par wielkości fizycznych kanonicznie
sprzężonych, takich jak: położenie i pęd, czas i energia itd.
DxDp ł h = h 2Ą ,
Dt DE ł h ,
gdzie: x  położenie w przestrzeni, p  pęd, t  czas, E  energia, h H" 6,625610-34  stała Plancka.
Na przykład, chcąc  zaobserwować cząstkę elementarną, należy użyć fali elektromagnetycznej o odpowiednio
małej długości (), a tym samym o dużej energii, co powoduje, że fala ta wchodząc w interakcję z badaną
cząstką zmienia jej pęd: zatem im mniejsza , tym dokładniej znamy położenie cząstki, ale mniej dokładnie jej
pęd.
Przykład: Rejestracja toru elektronu na kliszy fotograficznej. Rozróżnialność przestrzenna związana jest z
rozmiarami ziarna emulsji fotograficznej "x H" 10-6 m. Stąd niedokładność określenia prędkości wynosi "v H" 102
m/s, co stanowi 0.01% prędkości elektronu.
Doświadczenie z interferometrem (rys.) pozwoliło zaobserwować dualizm korpuskularno-
falowy cząstek elementarnych (elektronów).
W zależności od zastosowanej metody pomiarowej elektrony zachowują się jak fala elektromagnetyczna
(interferometr) lub korpuskuły (detektory cząstek).
1. Wprowadzenie do metrologii 11
Podczas pomiaru kwantowego badany obiekt przyjmuje jeden z potencjalnie możliwych
stanów (określonych wcześniej prawdopodobieństwem jego zaistnienia) w wyniku interakcji
z aparaturą pomiarową.
1.6. Zagadnienia kontrolne
Czym jest: metrologia, pomiar, miernictwo
Koncepcje praw przyrody (dwie pierwsze)
Schemat procesu poznawczego w pomiarach
Na czym polega indeterminizm pomiarów kwantowych
2. Informacja i miary jej ilości
2.1. Informacja
Informacja jest pewnego rodzaju relacją pomiędzy obiektami, związaną ze zmianą stanu
jednego z nich i tym samym ze zmianą jego nieokreśloności.
Informacje o dowolnym obiekcie można uzyskać jedynie na drodze materialnego
współoddziaływania z tym obiektem.
Transport informacji przebiega w układzie: zródło, nośnik, układ przesyłania, odbiornik, przy
obecności zakłóceń.
2.2. Miary informacji
Treści tego podrozdziału opisują informację w ujęciu probabilistycznym.
yródło informacji można scharakteryzować prawdopodobieństwem pojawienia się jednego z
możliwych stanów (np. rzut kostką lub jedna z wartości wielkości mierzonej).
Liniową miarą informacji jest liczba skwantowanych stanów, jakie może przyjmować
zródło (definicja wygodna w operacjach dodawania i odejmowania).
Logarytmiczna miara informacji I jest proporcjonalna do prawdopodobieństwa zdarzenia
(stanu) p (definicja wygodna w operacjach mnożenia i dzielenia).
I = -log2 p
Bit to jednostka ilości informacji odpowiadająca informacji uzyskanej po zajściu zdarzeniu,
którego prawdopodobieństwo wynosi (przyjęcie jednego ze stanów najprostszego zródła
informacji):
- log2(1 2)= log2 2 =1
2. Informacja i miary jej ilości 13
Entropia informacji jest miarą nieoznaczoności zródła, równą średniemu przyrostowi
informacji przypadającej na jedno z k zdarzeń
H = - p1 log2(p1)- p2 log2(p2)-K- pk log2(pk )
Gdy kolejne zdarzenia są niezależne i jednakowo prawdopodobne, tj. p = 1/k:
1 1 1
Hk = k ć- log2 = -log2 = -log2 p = I

k k k
Ł ł
2.3. Pozyskiwanie informacji
W wyniku obserwacji uzyskuje się zwykle informację jakościową, subiektywną,
niepowtarzalną.
Eksperyment to zespół czynności mających na celu doświadczalną weryfikację hipotezy
poprzez wywołanie badanego zjawiska lub jego zmian, przeprowadzonych w warunkach
kontroli czynników wpływających.
W naukach przyrodniczych podstawowym elementem eksperymentów są pomiary.
Eksperymenty dzieli się na czynne i bierne.
2.4. Pomiar i jego związek z informacją
Poniższy rysunek w kolejnym ujęciu pokazuje elementy procesu pomiarowego.
Pomiar prowadzi do zmniejszenia entropii informacji, czyli innymi słowy do pozyskania
informacji (entropia jest tym mniejsza im większa ilość informacji).
14 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Przykład: pomiar jednej z jednakowo prawdopodobnych wartości z przedziału xd , xg daje xa Ł x0 Ł xb
Ponieważ xb - xa << xg - xd , zatem (przypadek gdy H=I):
ć
ć
1 1


Hx = -log2 = log2(xg - xd )>> log2(xb - xa)= -log2 =H

xg - xd xb - xa p
Ł ł
Ł ł
Stąd wniosek: jakość przyrządu decyduje o ilości uzyskiwanej informacji .
Na pomiar można spojrzeć jako na proces przetwarzania nośnika informacji
2.5. Zagadnienia kontrolne
Co to jest informacja i jakie są jej miary
Na czym polega związek pomiaru z informacją
3. Jednostki i układy miar
3.1. Interpretacja wyniku pomiaru
Pomiar polega na przyporządkowaniu wartości liczbowych na obiektywnym
przyporządkowaniu wartości liczbowych rozróżnialnym właściwościom badanych obiektów
fizycznych.
Liczba przyporządkowana mierzonej wielkości fizycznej może być interpretowana jako
stosunek wartości tej wielkości do wartości jednostkowej. Zatem, aby wykonać pomiar,
należy zdefiniować wartość jednostkową, wykonać i użyć jej fizyczną realizację (wzorzec),
dokonując porównania wybranym sposobem (metoda pomiaru).
3.2. Krótka historia jednostek miar
Jako pierwsze stosowane były jednostki naturalne, których wzorce wykorzystywały
występujące w przyrodzie obiekty lub zjawiska. Mierzono:
- czas (np. doba, miesiąc księżycowy, rok),
- długość (cal  długość kciuka i małego palca, stopa, łokieć),
- objętość (garść, garniec),
- powierzchnia (morga  obszar zaorany parą wołów w ciągu dnia).
Pierwsze próby obiektywizacji jednostek datują się na XVI w., np. określano średni łokieć i
stopa (np. średnia dla pierwszych 6 osób wychodzących z kościoła; 1575).
Kolejnym etapem było opieranie definicji jednostek o bardziej niezmienne elementy
przyrody; i tak np., korzystając z ówczesnych osiągnięć naukowych, ustalono jednostkę
długości jako dziesiętną część wyznaczonych właśnie wymiarów Ziemi (1670).
Historia systemu SI
Utworzenie dziesiętnego Systemu Metrycznego we Francji w roku 1795 podczas Rewolucji,
wykonanie dwóch wzorców platynowych (1799): metra i kilograma.
Promocja Systemu Metrycznego przez Gaussa (1832), który pokazał, że wraz z sekundą
definiowaną w astronomii stanowią one spójny system trzech jednostek mechanicznych w
naukach fizycznych (milimetr, gram, sekunda), w tym przy pomiarach wielkości
magnetycznych i elektrycznych.
Przykładem wykorzystywanych zależności może być następująca:
q1q2
1 2
F = k q = , k 1q = r F
q=e =

er2
16 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
J.C. Maxwell i W. Thomson (lata 60-te XIX w.) zauważyli potrzebę istnienia systemu
składającego się z dwóch grup jednostek: podstawowych i pochodnych.
Brytyjczycy zaproponowali spójny system jednostek mechanicznych CGS (centymetr, gram,
sekunda) wraz z dziesiętnymi prefiksami w zakresie od mikro do mega.
Ponieważ system CGS okazał się niewygodny i niewystarczający w pomiarach
magnetycznych i elektrycznych, BAAS i International Electrical Congress (IEC) (lata 80-te
XIX w.) uzgodniły spójny zbiór jednostek praktycznych, obejmujący m.in.: om, wolt, amper.
Ustanowienie Konwencji Metrycznej w 1875 r., podpisanej przez przedstawicieli wielu
państw (Polska przystąpiła do niej w roku 1925).
Ustanowienie jako jednostek podstawowych metra i kilograma (1889), które razem z
astronomiczną sekundą dały system MKS.
Giorgi w 1901 r. pokazuje, że układ jednostek mechanicznych MKS można połączyć z
elektrycznymi jednostkami praktycznymi tworząc spójny system czterech jednostek
(dodatkowa jednostka natury elektrycznej, jak om lub wolt).
W latach 1939-1946 zaproponowano i przyjęto system czterech jednostek podstawowych:
metr, kilogram, sekunda, amper (MKSA).
W roku 1954 potwierdzono zastosowanie ampera i dodano jednostki kelwin i kandela do
określenia temperatury termodynamicznej i światłości; systemowi temu nadano w 1960 r.
nazwę SystŁme International d Units (SI).
System SI uzupełniono o mol jako jednostkę liczebności materii w 1971 r.
Na podstawie ustaleń z lat 1983 zdefiniowano dokładnie wartości niektórych (wybranych jako
niezależne od innych) stałych fizycznych (określanych wcześniej na drodze pomiarów), m.in.
prędkość światła w próżni c = 2.99792458108 ms-1 i przenikalność magnetyczną próżni
ź0 = 4Ą10-7 Hm-1, oraz zmieniono definicje jednostek podstawowych.
3.3. Podział jednostek miar, wzory definicyjne, układ
jednostek
Układ jednostek miar to uporządkowany zbiór jednostek utworzony na podstawie umownie
przyjętych jednostek podstawowych oraz ustalonych równań definicyjnych służących do
zdefiniowania jednostek pochodnych.
Jednostki podstawowe wybrane zostały arbitralnie, z uwzględnieniem zaszłości
historycznych. Są one od siebie wymiarowo niezależne (tzn. że żadnej z nich nie da się
przedstawić jako algebraicznej kombinacji pozostałych).
Jednostki pochodne tworzone są jako iloczyny potęg jednostek podstawowych, zgodnie z
zależnościami algebraicznymi łączącymi rozważane wielkości fizyczne. Nazwy i symbole
niektórych jednostek pochodnych utworzonych w ten sposób mogą być zastępowane innymi
3. Jednostki i układy miar 17
specyficznymi nazwami i symbolami (np. wolt V, om ), które dalej mogą być
wykorzystywane do określania innych jednostek pochodnych.
Wzory definicyjne wyrażają powiązanie między jednostkami pochodnymi i podstawowymi, i
maja ogólna postać:
Q = k Aa Bb Cg K,
gdzie Q jest jednostką pochodną; A, B, C, & to jednostki podstawowe, k jest liczbą rzeczywistą, a ą, , ł, & są
liczbami wymiernymi.
Każda wielkość fizyczna ma tylko jedną jednostkę w układzie SI (jeden wymiar fizyczny), choć można ją różnie
wyrażać (np. V = JC-1 = WA-1 = kgm2A-1s-3), jednakże niektóre mogą wyrażać miarę kilku wielkości.
Prefiksy w układzie SI określają dziesiętne wielokrotności lub podwielokrotności jednostek
miar i posiadają swoje nazwy. Wyjątek stanowią prefiksy stosowane w określaniu masy
(jednostka podstawowa  kg), które dołączane są do tradycyjnej jednostki gram [g].
3.4. Definicje jednostek podstawowych
Formalne definicje jednostek z układu SI zostały przyjęte po raz pierwszy w 1889 r., a
ostatnio zmodyfikowane w roku 1983.
Wraz z ewolucją techniki definicje te są od czasu do czasu modyfikowane w celu umożliwienia coraz
dokładniejszej praktycznej ich realizacji (w postaci wzorców).
Jeden metr [m] to długość drogi pokonywanej przez światło w próżni w przedziale czasu
1/(299 792 458) sekundy.
Jeden kilogram [kg] równy jest masie międzynarodowego prototypu kilograma (wykonanego
ze stopu platyny i irydu w roku 1889, przechowywanego w BIPM).
Jedna sekunda [s] to czas trwania 9 192 631 770 okresów promieniowania odpowiadającego
przejściu atomu cezu 133Cs pomiędzy dwoma poziomami nadsubtelnymi stanu podstawowego
w stanie spoczynku przy temperaturze 0 kelwinów.
Jeden amper [A] to takie natężenie prądu stałego, przepływającego przez dwa prostoliniowe,
równoległe i nieskończenie długie przewody o pomijalnie małym przekroju poprzecznym,
umieszczone w odległości 1 metra w próżni, które wytwarza między nimi siłę równą 1 Nm-1.
Jeden kelwin [K] to 1/273,16 część termodynamicznej temperatury potrójnego punktu wody.
Posługując się kelwinami nie używa się pojęcia stopień, tak więc np. 0 stopni Celsjusza to 273,15 kelwina.
Jeden mol [mol] to ilość substancji w układzie, który zawiera tyle samo jednostek
12
elementarnych ile jest atomów w 0,012 kilograma (12 gramach) węgla C (atomy
niezwiązane w spoczynku, w stanie podstawowym).
Używając mola należy sprecyzować jednostki elementarne, którymi mogą być atomy, cząsteczki chemiczne,
jony, elektrony, inne cząsteczki lub określone grupy takich cząsteczek.
18 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Jedna kandela [cd] to światłość zródła emitującego w danym kierunku promieniowanie
monochromatyczne o częstotliwości 5401012 herców i mającego natężenie promieniowania
w tym kierunku równe 1/682 wata na steradian.
Poza siedmioma jednostkami podstawowymi w układzie SI znalazły się (1995) dwie
niemianowane jednostki uzupełniające:
Jeden radian [rad] to kąt płaski równy kątowi między dwoma promieniami koła,
wycinającymi z okręgu tego koła łuk o długości równej promieniowi.
Jeden steradian [sr] to kąt bryłowy o wierzchołku w środku kuli, wycinający z powierzchni
tej kuli pole równe kwadratowi jej promienia.
3.5. Stałe fizyczne
Jednostki podstawowe i pochodne definiowane są obecnie na podstawi zjawisk naturalnych i
uwzględniają pewne stałe współczynniki zwane stałymi fizycznymi (zgodnie z koncepcjami
praw przyrody uznawanymi za najbardziej niezmienne).
Jak najdokładniejsze określenie wartości stałych fizycznych jest jednym z zadań metrologii.
Ograniczona dokładność wyznaczenia tych stałych wpływa na dokładność jednostek i
pomiarów w ogóle.
Wyjątek stanowią tu arbitralnie zdefiniowane wartości niektórych stałych fizycznych. Dokonanie tego w 1983 r.
w konsekwencji wymusiło zmianę definicji niektórych jednostek (wśród nich jednostek podstawowych, jak
definicja metra).
3.6. Zagadnienia kontrolne
Co to jest układ jednostek miar, jednostki podstawowe SI
Jaka jest rola stałych fizycznych w definiowaniu jednostek miar
4. Wzorce jednostek miar
4.1. Wzorce  pojęcia podstawowe
Wzorce jednostek miar są narzędziami lub układami pomiarowymi przeznaczonymi do
realizacji, zachowania lub przekazywania (odtwarzania) jednostki miary lub jej
wielokrotności.
Wzorzec jednego kilograma pełni też rolę definicyjną w układzie SI.
Wzorce budowane są jako jednostkowe lub zespołowe.
Wzorce zespołowe (grupowe) jednostek miary budowane są jako zespoły wzorców
stosowanych wspólnie.
Wzorce mogą mieć rangę międzynarodową lub krajową.
Wzorzec międzynarodowy to wzorzec jednostki miary uznany na mocy umowy
międzynarodowej za podstawę do przypisania wartości innym wzorcom tej jednostki.
Wzorzec państwowy to wzorzec urzędowo uznany w danym kraju za podstawę do
przypisania wartości innym wzorcom tej jednostki.
Wzorce dzieli się ze względu na przenoszenie wartości ze wzorców dokładniejszych na
wzorce mniej dokładne. Główny podział obejmuje wzorce pierwotne (etalony) i wzorce
wtórne.
Wzorzec pierwotny lub etalon to wzorzec, który jest powszechnie uznany za cechujący się
najwyższą jakością metrologiczną i którego wartość przyjmowana jest bez odnoszenia do
innych wzorców tej jednostki.
Wzorzec wtórny to taki, któremu wartość została przekazana w procesie porównania ze
wzorcem pierwotnym tej jednostki.
Do wzorców wtórnych należą wzorce odniesienia i wzorce robocze.
Wzorzec odniesienia to wzorzec jednostki miary o najwyższej jakości metrologicznej w
danym miejscu lub danej organizacji, stanowiący odniesienie do wykonywanych tam
pomiarów.
Wzorzec roboczy to wzorzec jednostki miary używany do wzorcowania lub sprawdzania
przyrządów pomiarowych.
4.2. Rodzaje wzorców
Biorąc pod uwagę różne kryteria związane z budową i działaniem wzorców, można je
podzielić na:
20 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
- stałe i regulowane,
- aktywne (zródła energii) i pasywne (zasilane),
- naturalne (np. czasu, temperatury) i sztuczne (np. masy, natężenia prądu, światłości).
4.3. Właściwości wzorców
Podstawowe parametry charakteryzujące wzorzec to:
- wartość nominalna miary WN,
- niedokładność miary wzorca "W,
- okres zachowywania określonej niedokładności,
- warunki, w których miara wzorca i jej niedokładność są zachowane.
Ostatecznie wartość prawdziwą wzorca W0 można opisać jako: W0 =WN ą DW
Do podstawowych wymagań stawianych wzorcom zalicza się:
- dużą dokładność,
- niezmienność w czasie,
- łatwą odtwarzalność,
- łatwą porównywalność,
- łatwość stosowania,
- mała zależność od zewnętrznych wielkości wpływających.
4.4. Hierarchia wzorców
Utrzymywanie wartości jednostki miary i przekazywanie jej wzorcom wtórnym wymaga
stosowania odpowiednich narzędzi pomiarowych oraz prawnie ustalonych procedur 
systemów sprawdzania wzorców (sprawdzania narzędzi pomiarowych).
Powyższe zasady powodują, że wzorce można uporządkować w pewnej hierarchii, zwanej
też piramidą wzorców.
4. Wzorce jednostek miar 21
Wzorzec podstawowy najczęściej realizowany jest jako wzorzec zespołowy (wtedy
wykorzystywana jest wartość uśredniona), a jego wartość ustala się w wyniku porównania ze
wzorcem międzynarodowym. Służy do ustalania wartości wzorców porównania i odniesienia.
Wzorzec świadek służy do kontroli wzorca podstawowego lub do zastąpienia go w
przypadku awarii (normalnie nie jest używany). Jego właściwości metrologiczne są
analogiczne do właściwości wzorca podstawowego.
Wzorce porównania służy do komparacji międzynarodowych oraz porównań z innymi
wzorcami, które nie mogą być porównywane bezpośrednio.
Wzorzec odniesienia wykorzystywany jest do przekazywania swojej wartości na wzorce
niższego rzędu.
Wymienione powyżej cztery wzorce tworzą państwowy wzorzec jednostki miary, stanowiący
pierwszy poziom hierarchiczny. Większość z nich znajduje się w GUM w Warszawie
Depozytariuszem państwowego wzorca jednostki miary temperatury dla zakresu od 13,8033 K do 273,16 K jest
Instytut Niskich Temperatur i Badań Strukturalnych PAN we Wrocławiu.
Drugi poziom hierarchiczny tworzą wzorce I-rzędu, które znajdują się w GUM i Okręgowych
Urzędach Miar (OUM).
Trzeci poziom hierarchiczny tworzą wzorce II-rzędu, które znajdują się w Okręgowych i
Obwodowych Urzędach Miar oraz laboratoriach upoważniających. Biorą one bezpośredni
udział w procesach pomiarowych. Z nimi porównywane są wzorce i narzędzia pomiarowe
znajdujące się u użytkowników.
22 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
4.5. Wzorce wielkości elektrycznych, częstotliwości i czasu
4.5.1. Wzorzec natężenia prądu
Zgodnie z definicją jednego ampera, wzorzec tej jednostki powinien być skonstruowany w
poniższy sposób.
Wtedy siła F indukująca się między przewodami wynosi:
ź0 2 l
F = I ,
2Ą d
gdzie I to wzorcowe natężenie prądu, a d to odległość między przewodami.
Ponieważ konstrukcja wzorca w pełni zgodna z definicja jest niemożliwa, wzorzec pierwotny
natężenia prądu buduje się z wykorzystaniem analogicznego prawa fizycznego oddziaływania
mechaniczno-elektrycznego w postaci wagi prądowej osiągającej niedokładność względną
rzędu 10 6.
W wadze prądowej siła F1 powstająca w dwóch współosiowych solenoidach przez które
płynie prąd I równoważona jest przez siłę grawitacji F2 oddziałującą na masę m:
4. Wzorce jednostek miar 23
mg
2
F1 = ak I = F2 = mg I = .
ak
Do popularnych wzorców użytkowych natężenia prądu należą:
- kalibratory elektroniczne,
- wzorce pośrednio odtwarzające wartość prądu z wykorzystaniem prawa Ohma oraz
wzorców napięcia i rezystancji (IN =UN RN ).
4.5.2. Wzorzec napięcia
Niepowodzeniem zakończyły się próby zbudowania wystarczająco dokładnego wzorca
napięcia w oparciu o prawo Ohma. Przez długi okres czasu jako wzorzec wykorzystywana
ogniwo elektrochemiczne Westona.
Przełomowym momentem okazało się odkrycie naturalnego zjawiska napięciowego o
charakterze kwantowym, prawie nie podlegającego wpływom otoczenia  zjawiska
Josephsona (odkrytego przez B. Josephsona  Nagroda Nobla 1973). Zachodzi ono w
strukturze Josephsona w temperaturze ciekłego helu.
W charakterystyce napięcie-prąd złącza Josephsona umieszczonego w polu
elektromagnetycznym (e-m) wielkiej częstotliwości pojawiają się skokowe zmiany prądu
(numerowane liczbami naturalnymi n = 1, 2, ...) występujące przy ściśle określonych
napięciach UJ danych wzorem:
nf nf
UJ (n)= = ,
2e h K
f
gdzie f oznacza częstotliwość pola e-m, e to ładunek elektryczny elektronu, a h jest stałą
Plancka.
Napięcie pojedynczego złącza wynosi ok. 1 mV, dlatego też używa się zestawy złącz w
liczbie ok. 20000. Tak zbudowany wzorzec regulowany charakteryzuje się niedokładnością
względną na poziomie 10 10.
24 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Do popularnych wzorców użytkowych napięcia należą:
- kalibratory elektroniczne,
- elektroniczne wzorce napięcia z diodami Zenera (osiągające niedokładność rzędu 10 5)
4.5.3. Wzorzec rezystancji
Do budowy wzorca rezystancji również wykorzystuje się zjawisko kwantowe  efekt Halla,
pojawiający się w nadprzewodniku (półprzewodnik w temperaturze ciekłego helu)
umieszczonym w stałym polu magnetycznym 12.6 T. Jego niedokładność jest rzędu 10 8.
Przepływający przez nadprzewodnik prąd stały IDC wywołuje powstanie napięcia
poprzecznego UH o wartości:
h e2
UH = IDC .
n
Daje to (pasywny) wzorzec rezystancji o wartości:
UH h e2 RK
RH = = = ,
IDC n n
gdzie RK = 25,812807 k.
4. Wzorce jednostek miar 25
Wzorce użytkowe rezystancji buduje się jako rezystory normalne (stałe) i dekadowe bardzo
starannie wykonane z drutu oporowego, lub niskoomowe rezystory czterozaciskowe.
4.5.4. Wzorzec pojemności
Wzorzec ten buduje się jako cewkę liczalną (czyli o takiej konstrukcji, której pojemność
można obliczyć wychodząc z praw fizycznych).
Wtedy wartość pojemności C wynosi:
ln 2 ln 2 l
C = 0l = 107 = 1.95 pF/m
Ą 4Ą2 c2
Wzorce użytkowe pojemności konstruowane są w postaci kondensatorów powietrznych stałe i
dekadowych.
4.5.5. Wzorzec indukcyjności
Wzorzec indukcyjności, podobnie jak w przypadku wzorca pojemności, budowany jest jako
cewka liczalna, która osiąga niedokładność 10 6.
Zgodnie z zasadami fizyki, indukcyjność takiej cewki wynosi
2
4Ą210-7 N r2
L = .
S
Wzorce użytkowe indukcyjności budowane są jako nawijane cewki indukcyjne, a w
niektórych zastosowaniach wykorzystane są wzorcowe kondensatory.
26 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
4.5.6. Wzorce częstotliwości i czasu
Przejście elektronu pomiędzy dwoma poziomami energetycznymi w atomie jest zjawiskiem
kwantowym i towarzyszy mu emisja fali elektromagnetycznej o ściśle określonej
częstotliwości (związanej z wyemitowaną porcją energii E2  E1):
E2 - E1 = hf ,
gdzie f to częstotliwość wyemitowanej fali.
Zjawisko to wykorzystywane jest do konstrukcji wzorca częstotliwości. Nazywany jest on
wzorcem atomowym. We wzorcach pierwotnych stosowne są atomy cezu (cezowy wzorzec
częstotliwości) emitujące fale o częstotliwości 9.19263177 GHz. Budowane wzorce cechuje
niedokładność rzędu 10 13, zatem są one najdokładniejszymi z budowanych obecnie
wzorców.
Bardzo popularnymi, zwłaszcza w elektronicznych urządzeniach cyfrowych, użytkowymi
wzorcami częstotliwości są układy generatorów kwarcowych. Ich niedokładność względna
jest rzędu 10 6  10 8.
Częstotliwość wzorcowa rozpowszechniana może być drogą radiową.
W oparciu o wzorzec częstotliwości buduje się wzorce odcinka czasu o podobnej dokładności.
Okresy sygnału częstotliwościowego zliczane są w nich za pomocą liczników cyfrowych.
4.6. Zagadnienia kontrolne
Podstawowe rodzaje wzorców
Jak funkcjonuje hierarchia wzorców
Jak realizowane są wzorce pierwotne wielkości elektrycznych, częstotliwości i czasu
5. Aspekty prawne metrologii
5.1. Główne obszary działań metrologicznych
Istnieje wiele przyczyn zawiązanej i rozwijanej współpracy międzynarodowej w dziedzinie
metrologii. Należą do nich przede wszystkim przesłanki naukowe i gospodarcze. Z tego też
powodu kraje rozwinięte gospodarczo przyjęły odpowiednie rozwiązania prawne i powołały
instytucje krajowe, a następnie międzynarodowe.
Powstałe organizacje zajmują się metrologią naukową i metrologią prawną. Można też
wyróżnić jeszcze jeden obszar ich działalności  metrologię przemysłową.
Metrologia naukowa rozwijana jest poprzez prace badawcze i rozwojowe. Głównymi
obszarami jej zainteresowania są:
- modyfikacja definicji jednostek miar,
- konstrukcja wzorców jednostek miar,
- metody utrzymywania i kontroli wartości wzorców,
- metody przekazywania wartości wzorców,
- metody pomiarów,
- metody analizy wyników pomiarów.
Metrologia prawna zajmuje się przede wszystkim:
- zatwierdzaniem legalnych jednostek miar i państwowych wzorców jednostek miar,
- kontrolą przyrządów pomiarowych, których wskazania mają skutki prawne (i finansowe),
stosowanych m.in. w ochronie zdrowia, ochronie środowiska, wymianie handlowej,
nadzorowaniu przestrzegania prawa itd.,
- określaniem kompetencji i zadań organów administracji rządowej właściwych w sprawach
miar (wraz z organizacją ich infrastruktury),
- sprawowania nadzoru nad wykonywaniem przepisów prawnych.
Podstawowe w Polsce akty prawne i zalecenia to:
- ustawa Prawo o miarach z 2001 r. z pózniejszymi zmianami,
- Międzynarodowy słownik terminów metrologii prawnej (wyd. polskie: GUM, Warszawa 2002),
- Wyrażanie niepewności pomiaru. Przewodnik (wyd. polskie: GUM, Warszawa 1999).
Metrologia przemysłowa zajmuje się usługami metrologicznymi w obszarze działalności
przemysłowej, w tym:
- wzorcowaniem fabrycznych przyrządów pomiarowych,
- zatwierdzaniem typów przyrządów pomiarowych stosowanych przez producenta.
5.2. Wybrane regulacje prawne ustawy Prawo o miarach
Celem ustawy jest zapewnienie jednolitości miar i wymaganej dokładności pomiarów
wielkości fizycznych w Rzeczypospolitej Polskiej.
28 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Ustawa reguluje następujące zagadnienia (Art. 2):
- legalnych jednostek miar i państwowych wzorców jednostek miar,
- prawnej kontroli metrologicznej przyrządów pomiarowych,
- kompetencji i zadań organów administracji rządowej właściwych w sprawach miar,
- sprawowania nadzoru nad wykonywaniem przepisów ustawy.
Ustawa precyzuje podstawowe terminy z zakresu metrologii prawnej (Art. 2).
Prawna kontrola metrologiczna  działanie zmierzające do wykazania, że przyrząd
pomiarowy spełnia wymagania określone we właściwych przepisach.
Badanie typu  zespół czynności mających na celu wykazanie, czy przyrząd pomiarowy danego typu spełnia
wymagania, i stanowiących podstawę zatwierdzenia typu.
Zatwierdzenie typu  potwierdzenie, w drodze decyzji, że typ przyrządu pomiarowego spełnia wymagania.
Legalizacja  zespół czynności obejmujących sprawdzenie, stwierdzenie i poświadczenie
dowodem legalizacji, że przyrząd pomiarowy spełnia wymagania.
Wzorcowanie  czynności ustalające relację między wartościami wielkości mierzonej
wskazanymi przez przyrząd pomiarowy a odpowiednimi wartościami wielkości fizycznych,
realizowanymi przez wzorzec jednostki miary.
Prawnej kontroli metrologicznej podlegają przyrządy pomiarowe, stosowane:
- w ochronie zdrowia, życia i środowiska;
- w ochronie bezpieczeństwa i porządku publicznego;
- w ochronie praw konsumenta;
- przy pobieraniu opłat, podatków i niepodatkowych należności budżetowych oraz ustalaniu
opustów, kar umownych, wynagrodzeń i odszkodowań, a także przy pobieraniu i ustalaniu
podobnych należności i świadczeń;
- przy dokonywaniu kontroli celnej;
- w obrocie.
5.3. Zachowanie spójności pomiarowej
Na spójność pomiarową składa się sześć podstawowych elementów:
- nieprzerwany łańcuch porównań,
- niepewność pomiaru,
- dokumentacja,
- kompetencje,
- odniesienie do jednostek układu SI,
- odstępy czasu miedzy wzorcowniami.
Zapewnienie spójności pomiarowej wymaga zachowania następujących zasad:
- wyposażenie pomiarowe stosowane do wzorcowań, badan i inspekcji, mające istotny wpływ na niepewność
pomiaru związana z wynikami tych działań, powinno być wzorcowane przez krajowa instytucje
metrologiczna (GUM) albo przez akredytowane laboratoria wzorcujące;
- wzorce odniesienia akredytowanych laboratoriów wzorcujących powinny być wzorcowane w GUM lub
akredytowanych laboratoriach wzorcujących o odpowiedniej najlepszej możliwości pomiarowej;
5. Aspekty prawne metrologii 29
- jeżeli GUM oraz krajowe akredytowane laboratoria wzorcujące nie mogą zapewnić spójności pomiarowej w
danej dziedzinie (brak stosownych odniesień), zródłem spójności pomiarowej może być instytucja
metrologiczna kraju, który jest sygnatariuszem odpowiednich umów, lub laboratoria wzorcujące
akredytowane w tych krajach;
- jeżeli powiązanie z wzorcami państwowymi jednostek miar jest niemożliwe do uzyskania lub nieracjonalne
w konkretnym przypadku, to można zastosować uzgodnione wzorce (lub metody), jednoznacznie opisane i
zaakceptowane przez wszystkie uczestniczące strony;
- certyfikowane materiały odniesienia należy traktować tak, jak inne wzorce jednostek miar i stosować podane
wyżej zasady.
5.4. Międzynarodowe organizacje metrologiczne
Międzynarodowe organizacje metrologiczne określają sposoby postępowania i koordynują
starania państw członkowskich w celu określenia wspólnych procedur pomiarowych oraz
regulacji prawnych. Efektem ich działania jest m.in. wzajemne uznanie posiadanych wzorców
jednostek miar oraz potwierdzenia kompetencji laboratoriów.
Przynależność do międzynarodowych organizacji metrologicznych umożliwia uczestniczenie w ustanowieniu
przepisów, udział we wzorcowniach i porównaniach międzynarodowych, uczestnictwo we wspólnych
programach oraz doskonalenie państwowych wzorców jednostek.
Konwencja Metryczna (Convention du MŁtre) podpisana w 1975 r. skupia obecnie 54
państwa członkowskich (w tym Polskę od 1925 r.) oraz 32 państwa stowarzyszone
zobowiązuje m.in. do stosowania układu SI.
W ramach Konwencji krajowe opracowania metrologiczne są weryfikowane, dyskutowane i następnie
przyjmowane jako wspólne ustalenia. Obecnie jej celem jest doskonalenie systemu metrycznego oraz osiągnięcie
spójności pomiarowej (m.in. przez porównania wzorców oraz zawieranie porozumień przez kraje członkowskie
w sprawie wzajemnego uznawania wzorców jednostek miar oraz świadectw wzorcowania i pomiarów
wydawanych przez krajowe instytucje metrologiczne).
Generalna Konferencja Miar (CGPM  Confrence gnrale des poids et mesures) jest
najwyższym organem Konwencji Metrycznej, który zbiera się co cztery lata.
Międzynarodowe Biuro Miar i Wag (BIPM  Bureau international des poids et mesures)
jest instytucją naukową utworzoną i finansowana przez sygnatariuszy Konwencji, zajmującą
się ujednolicaniem jednostek miar poprzez organizację porównań krajowych standardów
pomiaru i przeprowadzanie kalibracji w państwach członkowskich oraz prowadzi badania
naukowe nad doskonaleniem wzorców i metod ich odtwarzania i porównywania.
BIPM przechowuje międzynarodowe wzorce jednostek miar. Znajdujące się w nim laboratoria metrologiczne są
na najwyższym światowym poziomie.
Międzynarodowa Organizacja Metrologii Prawnej (OIML  Organisation internationale
de metrologie legale) powstała w 1955 r. i skupia 59 państw, a członkami korespondentami są
54 państwa. Zalecenia OIML dotyczą m.in.: terminologii, wymagań metrologicznych,
wymagań technicznych, metod i sprzętu do wykonywana badań i sprawdzania zgodności z
wymaganiami.
Państwa członkowskie OIML wydają  certyfikaty OIML potwierdzające, że dany typ przyrządu pomiarowego
spełnia wymagania zaleceń OIML.
30 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Europejskie Stowarzyszenie Narodowych Instytutów Metrologicznych (EURAMET 
European Association of National Metrology Institutes) jest europejską organizacja
metrologiczną koordynującą współpracę pomiędzy narodowymi instytutami metrologicznymi.
Istnieje jeszcze szereg innych międzynarodowych organizacji metrologicznych.
5.5. Krajowe instytucje metrologiczne
Główny Urząd Miar (GUM) jest instytucją administracji państwowej powołaną po raz
pierwszy w 1919 r., a obecnie działającą na mocy ustawy Prawo o miarach z roku 2001.
Sprawuje nadzór nad administracją miar i administracją probierczą w Polsce. Podstawowym
jego zadaniem jest:
- zapewnienie spójności pomiarowej,
- utrzymanie państwowych wzorców miar,
- zapewnienie wzajemnej zgodności i określonej dokładności wyników pomiarów
przeprowadzanych w Polsce,
- kontrola nad zgodnością pomiarów krajowych z układem SI.
Polskie Centrum Akredytacji (PCA) zajmuje się zapewnieniem spójności pomiarowej w
kraju.
Komitet Metrologii i Aparatury Naukowej PAN jest organem zajmującym się konsolidacją
krajowego środowiska naukowców zajmujących się metrologią, pełniącym rolę opiniotwórczą
oraz propagującym osiągnięcia metrologii.
Poza tym w Polsce funkcjonuje kilka krajowych stowarzyszeń o charakterze metrologicznym.
5.6. Zagadnienia kontrolne
Obszary zainteresowań metrologii prawnej
Grupy przyrządów pomiarowych podlegającej prawnej kontroli metrologicznej
6. Metody pomiarowe
6.1. Pojęcia podstawowe
Metoda pomiaru to sposób porównania wielkości mierzonej z wielkością wzorcową.
Wynik pomiaru (wskazanie przyrządu) xzm zależy nie tylko od prawdziwej wartości
wielkości mierzonej x0, ale też od zastosowanej metody pomiarowej i właściwości
metrologicznych przyrządu.
Pomimo wielkiej liczby przyrządów pomiarowych istnieje tylko kilka podstawowych metod
pomiaru. Można je podzielić na dwie grupy: metody bezpośrednie i metody pośrednie.
6.2. Bezpośrednie metody pomiaru
Metoda bezpośrednia to taka, w której wielkość porównywana i wzorcowa są tego samego
rodzaju, a wynik pomiaru podawany jest w jednostkach wielkości mierzonej.
Metody bezpośrednie również można podzielić na dwie grupy: metody wychyłowe oraz
metody zerowe.
6.2.1. Metody wychyłowe
Metody wychyłowe cechują się zmianą położenia elementu wychyłowego pod wpływem
przyłożenia wielkości mierzonej o wartość powiązaną z wartością mierzoną. Zaliczamy do
nich metodę klasyczną oraz różnicową.
Metoda wychyłowa klasyczna pozwala oczytać wartość xzm wielkości mierzonej na
podstawie pewnego wskazanego miejsca x* na skali (tj. w uporządkowanym zbiorze wartości
tej wielkości). Miejsce te wyróżnione jest przez element wskazujący.
Element wychyłowy wykorzystuje wybrane zjawisko fizyczne (zasadę pomiaru), które
pozwala przetworzyć badaną wielkość na przemieszczenie mechaniczne (np. rozciągnięcie
sprężyny w wadze sprężynowej pod wpływem masy i pola grawitacyjnego).
Skala powstaje na etapie wzorcowania danego typu przyrządów przez producenta z
wykorzystaniem posiadanych przez niego wzorców roboczych. Odgrywa ona ważną rolę,
gdyż w tego typu przyrządach pomiarowych nie wbudowuje się wzorców, a jedynie przenosi
ich wartość właśnie na skalę.
Warunkiem pomiaru metodą klasyczną jest to, że wartość mierzona mieści się w zakresie
obejmowanym przez skalę przyrządu.
Metodę klasyczną można zobrazować posługując się poniższym schematem blokowym.
32 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Wartość prawdziwa mierzonej wielkości przetwarzana jest w pewien (prawdziwy, ale znany
tylko z dobrym przybliżeniem) sposób dając wskazanie x*, które jednocześnie jest wynikiem
pomiaru xzm. Matematycznie można to ująć następująco:
x* = f0(x0) = fm(x0)+ "x,
xzm = x*,
gdzie fm oznacza znany nam opis (tzw. model) prawdziwego, ale nieznanego przetworzenia
wielkości mierzonej, a "x jest błędem pomiaru (pojęcie to zdefiniowane będzie pózniej)
wynikającym z różnicy między f0 i fm.
Najczęściej przyrządy wychyłowe buduje się tak, by spełniona była zależność liniowa,
najlepiej tożsamościowa:
fm(y)= a1 y + a0 a1 =1,a0 =0 = y .
Metoda wychyłowa różnicowa jest modyfikacją metody klasycznej przenoszącą wynik
pomiaru na wielokrotnie mniejszy zakres. Idea pomiaru polega na tym, aby pokrywając
znaczną część wartości wielkości mierzonej wartością porównawczą xp, mierzyć jedynie
(miernikiem wychyłowy) pozostającą różnicę.
W skład przyrządu pomiarowego wchodzą wtedy następujące elementy:
- zródło wielkości porównawczej o wartości xp,
- układ różnicowy realizujący operację odejmowania,
- element wychyłowy.
W tak zrealizowanej metodzie pomiaru zachodzą następujące zależności:
x* = f0(x0 - xp)= fm(x0 - xp)+ Dx,
xzm = x* + xp.
Na dokładność pomiaru metodą wychyłową różnicową, która jest większa niż w miernikach
klasycznych, wpływ mają:
- dokładności zrealizowanego odwzorowania fm w stosunku do f0,
- dokładność wytworzenia xp.
6. Metody pomiarowe 33
6.2.2. Metody zerowe
Istotą metod zerowych jest to, że różnicę wartości dwóch wielkości: mierzonej i wzorcowej
doprowadza się do zera poprzez regulacje wartości wzorcowej (proces równoważenia).
Zrównoważenie wykrywane jest przez detektor, który generuje sygnał kończący pomiar (tj.
równoważenie).
Metody zerowe mają trzy ważne zalety w porównaniu z wychyłowymi:
- po zrównoważeniu przyrząd pomiarowy nie pobiera energii ani z badanego obiektu, ani ze
wzorca,
- istnieje możliwość bezpośredniego stosowania wzorców o wartości xw jako elementów
wbudowanych w przyrząd (m.in. stąd największa dokładność tych metod),
- wyeliminowane są błędy związane ze zmianami wielkości wpływających, które tak samo
oddziaływają na wielkość mierzoną i wzorcową.
Dodatkowym elementem wpływającym na niedokładność pomiaru (poza niedokładnością
wzorca) jest próg nieczułości detektora (różnica między x0 a xw mniejsza niż pewna wartość
progowa jest przez detektor niezauważana).
Metody zerowe realizuje się na trzy sposoby, jako metodę kompensacyjną, komparacyjną lub
podstawieniową (funkcjonują też inne nazwy tych metod).
Metoda kompensacyjna cechuje się użyciem wzorca regulowanego. W procesie porównania
wartość regulowanego wzorca przeciwdziała wielkości mierzonej i kompensuje jej fizyczne
działanie na detektor (po zrealizowaniu operacji porównani za pomocą układu różnicowego).
W zależności od znaku i wartości różnicy x0 - xw urządzenie równoważące (UR) zwiększa
lub zmniejsza wartość xw uzyskiwaną ze wzorca.
Ostatecznie wynik pomiaru można zapisać jako xzm = x* = xw .
Metoda komparacyjna cechuje się zastosowaniem wzorca stałego i układu
przeskalowującego jego wartość xw na kxw. Proces równoważenia podlega zatem na regulacji
wartość współczynnika k.
34 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Po zakończeniu procesu równoważenia znana jest wartość k, zatem:
x* = k,
xzm = k xw = x* xw.
Metoda podstawieniowa ma kilka cech charakterystycznych:
- porównanie wartości wielkości mierzonej x0 i wzorcowej xw nie jest równoczesne ani
bezpośrednie,
- wykorzystuje się dodatkową wielkość y będącą efektem zjawiska zależnego od badanej
wielkości x,
- bezpośrednio porównuje się efekty oddziaływania wielkości mierzonej x i wzorca w, czyli
yx i yw (tj. wartości tej dodatkowej wielkości fizycznej).
Ważną zaletą metody podstawieniowej jest eliminacja błędów wynikający z niedokładności
modelu oddziaływania fm, (ilościowa wiedza o postaci fm nie jest w ogóle potrzebna), a wadą
większa złożoność procedury pomiarowej.
Z warunku uzyskanej w procesie równoważenia równości efektów oddziaływania x i w
wynika:
yx = yw f0(x0) = f0(xw) xzm = x* = xw.
6. Metody pomiarowe 35
6.3. Pośrednie metody pomiaru
Metoda pośrednia to metoda, w której wartość wielkości mierzonej wyznacza się na
podstawie bezpośredniego pomiaru wartości innych wielkości z nią związanych oraz
ilościowej postaci tego związku fm wyrażonej za pomocą równania matematycznego (lub
układu równań).
Do obliczenia wyniku pomiaru wykorzystywane są równania typu:
- równanie definicyjne (np. wzór na pole prostokąta),
- prawo fizyczne (np. ruch ciała w polu grawitacyjnym),
- model matematyczny tego związku (model badanego obiektu lub zjawiska),
które ogólnie można zapisać jako:
y = fm(x1, x2,K, xk )
gdzie y to wynik pomiaru pośredniego, a x1, x2, ..., xk to wyniki pomiarów bezpośrednich.
Metoda pośrednia prosta wymaga wykonania obliczenia, w którym wielkości mierzone
bezpośrednio (x) są argumentami w zależności funkcyjnej opisującej ich związek z wielkością
mierzoną pośrednio (y). Związek ten podany jest w sposób jawny.
Przykładem może być pośredni pomiar rezystancji R polegający na bezpośrednim pomiarze
prądu I płynącego przez rezystor i występującego na nim spadku napięcia U, wykorzystując
prawo Ohma: R = U I
Metoda pośrednia złożona polega na takim rodzaju obliczeń, w których uzyskuje się
jednocześnie wartości kilku wielkości mierzonych pośrednio. Najczęściej bezpośrednio
mierzone są zarówno argumenty zależności matematycznej (x) jak i jej wartości (y), a
obliczane nieznane współczynniki równań (nazywane parametrami modelu), które
odpowiadają konkretnym właściwościom fizycznym badanego obiektu.
Zazwyczaj obliczenia są na tyle skomplikowane, że wykonuje się je wykorzystując
odpowiednie algorytmy numeryczne.
Wartości wielkości mierzonych bezpośrednio wynikają z wartości parametrów modelu
matematycznego (właściwości badanego obiektu), można je więc tratować jako skutki, a
parametry jako przyczynę. Z tego powodu pomiary pośrednie złożone należą do kategorii
zadań odwrotnych w metrologii (ilościowe wnioskowanie o przyczynach na podstawie
skutków).
Jako przykład rozważmy pośredni pomiar pewnych właściwości przetwornika zamieniającego
w sposób liniowy pobudzenie (wejście przetwornika) x na reakcję (wyjście przetwornika) y
zgodnie z równaniem y = a1 x + a0 . Do podstawowych parametrów przetworników należą m.in.
czułość S = dy dx (zmiana wyjścia spowodowana zmianą wejścia) oraz offset (wartość wyjścia
przy braku pobudzenia). Po zmierzeniu kilku odpowiedzi przetwornika na kilka pobudzeń
(rys.) można obliczyć (stosując odpowiednią procedurę numeryczną) współczynniki prostej
przez nie przechodzącej (dokładnie  przechodzącej jak najbliżej nich).
36 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Oznaczając oszacowane w ten sposób wartości współczynników  daszkiem , łatwo zauważyć
(analizując podane równanie), że:
S 1, offset 0 .
Jest to zatem przykład pośredniego pomiaru złożonego dwóch właściwości przetwornika.
6.4. Klasyfikacja metod pomiarowych
Pomimo wielości przyrządów pomiarowych, wykorzystują one tylko pięć przedstawionych
bezpośrednich metod pomiarowych, będących też podstawą wszystkich metod pośrednich, co
pokazano na poniższym schemacie.
6.5. Zagadnienia kontrolne
Cechy charakteryzujące poszczególne metody pomiarowe (5 bezpośrednich i 2 pośrednie)
7. Dokładność pomiarów
7.1. Błąd pomiaru
Z wielu powodów wynik pomiaru odczytywany z przyrządu różni się od wartości prawdziwej
wielkości mierzonej, tzn. obarczony jest błędem pomiaru. Okazuje się, że stosując
powszechnie przyjęte podejście: definicja  wzorzec  metoda pomiaru nie da się zbudować
bezbłędnie działającego przyrządu pomiarowego.
Błąd pomiaru "x to różnica między wynikiem pomiaru xzm a prawdziwą wartością x0
wielkości mierzonej:
"x = xzm - x0 .
Jego dokładna wartość nigdy nie jest znana, ponieważ znamy jedynie xzm.
Wprawdzie wartości błędu pomiaru nie można obliczyć, można ją jednak oszacować.
Tradycyjnie ten dział metrologii (i miernictwa) nazywał się analizą błędów, a obecnie nosi
nazwę analizy niepewności pomiaru.
7.2. Fizyczne granice dokładności pomiarów
Można wymienić kilka fizycznych zródeł ograniczoności dokładności pomiarów.
Pierwszym z nich jest zasada nieoznaczoności Heisenberga i dotyczy próby pomiaru pary
wielkości kanonicznie sprzężonych (jak np. położenie i pęd) charakteryzujących ten sam
obiekt.
Druga grupa związana jest z niedokładnością wykonania wzorców.
W przypadku wzorców pierwotnych pojawiają się dwie istotne przyczyny skutkujące
niedokładnością zrealizowanej przez nie wartości:
- budując wzorzec w oparciu o definicję danej jednostki miary, należy wykorzystać wartość
odpowiedniej stałej fizycznej, a wartości te znamy tylko z ograniczoną dokładnością (poza
tymi, które zdefiniowano w 1983 r.);
- zrealizowanie wartości jednostki miary zgodnie z jej definicją natrafia na ograniczenia
natury technologicznej.
Wzorce wtórne uzyskują swoje wartości poprzez przekazanie im wartości na drodze
porównania przez wzorce stojące wyżej w strukturze hierarchicznej (ostatecznie przez wzorce
pierwotne). W efekcie wzorce wtórne cechują się większą niedokładnością niż wzorce
pierwotne, tym większą, im niżej znajdują się w piramidzie wzorców.
Z powyższych przesłanek wynika, że:
38 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
nie da się skonstruować bezbłędnego wzorca (poza międzynarodowym wzorcem 1 kg  z
definicji), zatem wszystkie wykonywana w oparciu o nie pomiary muszą być obarczone
błędami.
Szumy w układach elektronicznych są trzecią przyczyną niedokładności pomiarów,
cechującą jedynie elektroniczną aparaturę pomiarową. Wyróżnia się kilka typowych rodzajów
szumów obserwowanych w urządzeniach elektronicznych (w tym w przyrządach
pomiarowych).
Szumy cieplne (Johnsona) indukują się w przewodnikach, zwłaszcza o dużych rezystancjach
R. Mają one charakter szumu białego (tj. równoenergetycznego i szerokopasmowego). Ich
energia (dana przez kwadrat napięcia skutecznego usk) jest proporcjonalna do temperatury (T),
rezystancji przewodnika (R) oraz szerokości widma szumu (W), gdzie k to stała gazowa. Ich
zródłem są ruchy termiczne materii.
2
usk = 4kTRW .
Szum prądowy (zwany też śrutowym) obserwowalny jest przy małych natężeniach prądu i
wynika z korpuskularnego charakteru prądu. Jest to również typ szumu białego o energii
(danej przez kwadrat wartości skutecznej prądu isk) zależnej od natężenia prądu (I) i
szerokości widma:
2
isk = 2eIW .
Szum migotania (określany też jako hiperboliczny) jest trzecim z podstawowych rodzajów
szumów spotykanych w układach elektronicznych. Jego pochodzenie nie zostało
zidentyfikowane, a energia rozkłada się hiperbolicznie w dziedzinie częstotliwości.
Szumy manifestujące się w elektronicznej aparaturze pomiarowej maskują prawdziwe
wartości mierzonych wielkości (tzn. wartości te "giną" w nieregularnym sygnale szumu), co
w efekcie prowadzi do sytuacji, w której nawet przy bezbłędnym dostępie przyrządu do
wartości prawdziwej, nie byłby on w stanie bezbłędnie określić tej wartości.
7. Dokładność pomiarów 39
7.3. Systemy klasyfikacji błędów pomiarowych i ich
oszacowań
W tradycyjnym podejściu do analizy błędów pomiaru, biorąc pod uwagę dostępne informacje
oraz zaobserwowaną naturę popełnianych błędów, dokonano ich podziału na błędy
systematyczne i przypadkowe.
W pierwszym przypadku opracowano procedury wyznaczania przedziału wartości, w którym
z pewnością miała się mieścić wartość prawdziwa. Podejście takie nazwiemy
deterministycznym.
W przypadku drugim, wykorzystując aparat matematyczny rachunku prawdopodobieństwa i
statystki, nauczono się wyznaczać przedział wartości, w którym wartość prawdziwa powinna
się mieścić z zadanym prawdopodobieństwem. To podejście nazwiemy probabilistycznym.
W roku 1993 Międzynarodowa Organizacja Normalizacyjna (ISO) przyjęła dokument
ujednolicający analizę dokładności pomiarów. Obszarem jego zastosowania jest praktyka
inżynierska, co staje się coraz bardziej istotne przy postępującym procesie rozwoju
technologicznego i globalizacji. W podejściu tym określana jest niepewność pomiaru.
Ostatecznie używa się terminu błąd pomiaru na określenie różnicy między xzm i x0, ale
ponieważ jego wartość nie jest znana, nie znajduje on zastosowania w praktyce inżynierskiej
(używane jest za to w metrologii naukowej). Jednocześnie w praktycznej analizie dokładności
pomiarów stosuje się podejście polegające na wyznaczeniu ich niepewności.
7.4. Deterministyczna interpretacja niedokładności
pomiaru
Błąd systematyczny to błąd, który przy każdym pomiarze tego samego stanu mierzonej
wielkości w tych samych warunkach (ten sam przyrząd i układ pomiarowy) ma
zdeterminowaną wartość (stałą lub określoną wzorem).
Wyidealizowanym przykładem może być sytuacja wielokrotnego strzału do tarczy z
każdorazowym trafieniem w ten sam punkt poza jej centrum.
Tak rozumiane błędy systematyczne pojawiają się w pomiarach bezpośrednich i w
konsekwencji również w pomiarach pośrednich.
Do podstawowych zródeł błędów systematycznych w pomiarach bezpośrednich można
zaliczyć:
- błąd wzorcowania skali pomiarowej (w metodach wychyłowych),
40 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
- różnicę między wartością nominalną a prawdziwą wzorca (w metodach zerowych),
- przybliżoną znajomość charakterystyki przetwarzania nośnika informacji w przyrządzie
pomiarowym (różnica między fm i f0).
Natomiast do podstawowych zródeł błędów systematycznych w pomiarach pośrednich
można zaliczyć:
- błędy systematyczne pomiarów bezpośrednich,
- uproszczony charakter opisu matematycznego wyrażającego związek między wynikiem
pomiaru pośredniego i pomiarami bezpośrednimi (wynikająca stąd niedokładność pomiaru
pośredniego nazywana jest błędem metody).
Błąd graniczny Dgr jest deterministycznym oszacowaniem błędu systematycznego pomiaru
bezpośredniego. Określa on przedział wartości, w którym z pewnością leży wartość
prawdziwa mierzonej wielkości (zatem wartość Dgr jest równa lub większa niż wartość błędu
systematycznego).
Matematycznie tę własności można zapisać następująco:
xzm - Dgrx Ł x0 Ł xzm + Dgrx .
Informacje potrzebne do obliczenia błędu granicznego przez użytkownika podawane są przez
producenta przyrządu pomiarowego, a uzyskiwane na drodze badania serii wyrobów z
wykorzystaniem wzorca roboczego.
Błąd metody jest szczególnym przypadkiem błędu systematycznego, w którym znane jest
oszacowanie jego wartości także co do znaku. Występuje on zarówno w pomiarach
bezpośrednich jak i pośrednich, i wynika z uproszczonej analizy procesu pomiarowego.
Jeżeli badacz dysponuje dokładniejszym opisem procesu pomiarowego, może analitycznie
oszacować wartość błędy metody (tzw. poprawkę) i dokonać korekcji wyniku pomiaru.
Typowym przykładem w miernictwie elektronicznym jest uwzględnienie rozpływu prądów i
rozkładu napięć w układzie pomiarowym z wykorzystaniem praw Kirchhoffa. Takie analizy
stosuje się np. uwzględniając:
- rezystancję (impedancję) wejściową woltomierza przy pomiarach napięcia,
- rezystancję (impedancję) wewnętrzną amperomierza przy pomiarach natężenia prądu,
- rezystancje mierników przy pośrednim pomiarze oporu.
Na przykład układ pośredniego pomiaru nieznanej rezystancji Rx opornika (układ z
poprawnym pomiarem prądu), z bezpośrednim pomiarem napięcia i natężenia prądu (i
wykorzystaniem prawa Ohma) wygląda następująco:
7. Dokładność pomiarów 41
Nieskorygowany wynik pomiaru pośredniego (oznaczony falą), zgodnie z prawem Ohma,
wynosi:
~ U
~ v
x = R = ,
I
a
gdzie Uv to wskazanie woltomierza, a Ia jest wskazaniem amperomierza. Zauważmy, że w
zastosowanym układzie na napięcie wskazywane przez woltomierz składają się spadki
napięcia na badanym oporniku (Ux) i amperomierzu (Ua), zatem:
U = U +U .
v x a
Stąd:
Uv Ux Ua
~
x = = + = Rx + Ra .
Ia Ia Ia
~
Zatem wynik pomiaru pośredniego x obliczony zgodnie z prawem Ohma jest zawsze
przeszacowany o tę samą wartość równą rezystancji wewnętrznej amperomierza (Ra)  mamy
zatem do czynienia z błędem systematycznym, który jednocześnie jest błędem metody:
~
x = x + DS x .
Na podstawie powyższych rozważań można wyznaczyć poprawkę P w postaci:
P = -DS x
i dokonać korekcji wyniku pomiaru:
~
x = x + P ,
czyli
~
Rx = Rx + P = UV Ia - Ra .
Warto pamiętać, że poprawka nie eliminuje pozostałych błędów systematycznych
(towarzyszących pomiarom bezpośrednim czy wynikających z nadal zbyt uproszczonych
opisów matematycznych), zatem:
~
xzm = x + P x0 .
42 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
7.5. Probabilistyczna interpretacja dokładności pomiaru
Błąd przypadkowy to błąd, który przy kolejnych pomiarach tego samego stanu mierzonej
wielkości w tych samych warunkach przyjmuje wartości rozrzucone losowo.
O obecności błędów przypadkowych w wykonywanych pomiarach można się przekonać obserwując serię
pomiarów tego samego stanu mierzonej wielkości wykonanych w tych samych warunkach  wyniki są do siebie
podobne, ale różne.
Dobrym oszacowaniem wartości prawdziwej x0 wielkości mierzonej jest wartość oczekiwana
źx, szacowana jako wartość średnia x z N pomiarów o wartościach xi:
N
1
mx x = xi .

N i=1
Miarą (oszacowaniem) dokładności każdego z pomiarów w analizowanej serii jest odchylenie
standardowe pojedynczego pomiaru sx:
N
1
2
x sx = - x) .
(xi
N -1
i=1
Odchylenie standardowe x wyraża uśredniony rozrzut wyników pojedynczych pomiarów
wokół wartości średniej i jest pojęciem wykorzystywanym w rozważaniach teoretycznych. W
praktyce posługujemy się jego oszacowaniem sx, zwanym w statystyce estymatorem
odchylenia standardowego.
Podniesienie poszczególnych różnic do kwadratu powoduje, że wyniki operacji stają się nieujemne (a zatem nie
zredukują się przy sumowaniu), a pierwiastkowanie po procesie uśrednienia daje wymiar fizyczny sx taki sam
jak mierzonej wielkości.
Podany wzór (tzw. nieobciążony estymator wartości średniej) wynika z prac naukowych z zakresu statystyki
matematycznej. Aby uzyskać nieobciążoność estymatora, suma podpierwiastkowa musi być dzielona przez (N 
1), a nie N (co wynika ze zmniejszonej o jeden wartości liczby stopni swobody).
Ponieważ dokładniejszym oszacowaniem wartości prawdziwej (niż wynik pojedynczego
pomiaru) jest wartość średnia z serii, zatem należy określić dokładność jej wyznaczenia  jest
nią odchylenie standardowe wartości średniej s :
x
N
1 1
2
x sx = sx = - x) .
(xi
N(N -1)
N
i=1
Jak widać, oszacowanie odchylenia standardowego wartości średniej sx uzyskuje się dzieląc sx dla pojedynczego
pomiaru przez pierwiastek z liczby pomiarów w serii. Oznacza to, że oszacowanie x0 w postaci średniej z np. ze
7. Dokładność pomiarów 43
100 pomiarów jest 10 razy dokładniejsze, niż pojedynczy pomiar danej wielkości (w warunkach występowania
błędów przypadkowych). Powyższy wzór wyprowadza się w ramach statystyki.
Obliczony parametr określający dokładność wykonanych pomiarów (odchylenie standardowe
wartości średniej lub pojedynczego pomiaru) można wykorzystać do wyznaczenia przedziału,
w którym mieści się wartość prawdziwa wielkości mierzonej.
Tym razem jednak, w odróżnieniu od podejścia deterministycznego, wartość prawdziwa x0
mieści się w wyznaczonym przedziale tylko z określonym prawdopodobieństwem P (a nie na
pewno). Jak łatwo się domyślić  im większe wybrane prawdopodobieństwo tego, że
wyznaczony przedział zawiera x0, tym większa musi być szerokość tego przedziału.
Zazwyczaj rozrzut wyników pomiarów w serii wokół wartości średniej ma charakter
 dzwonu  tak jak to widać na poniższym histogramie (histogram mówi, ile wartości wpadło
do przedziałów określonych przez podstawy słupków tworzących histogram). Taki rozkład
błędów (i innych zmiennych losowych) w statystyce nazywa się rozkładem normalnym lub
rozkładem Gaussa. Matematycznie opisuje go krzywa ( dzwonowa ,  gaussoida ) pokazana
na drugim rysunku. Określa ona gęstość prawdopodobieństwa p tego, że błąd przypadkowy x
(ogólnie  pewna zmienna losowa) będzie miał daną wartość.
Ponieważ wszystkie prawdopodobieństwa muszą się sumować do jedności, zatem całka z tej funkcji po całej
dziedzinie zmienności (a tym samym pole powierzchni pod krzywą) jest równa 1.
Rozkład ten wprowadził do nauki w pierwszej ołowie XIX w. C.F. Gauss, zajmując się badaniami krzywizny i
rozmiarów Ziemi. To on również zaproponował postać funkcji pozwalającej opisać empirycznie uzyskiwane
histogramy. Równanie rozkładu Gaussa pozwoliło m.in. na analityczne obliczenie i stablicowanie odpowiednich
prawdopodobieństw tego rozkładu.
2
ć
1 (x - mx )

p(x) = exp-
2

2s
s 2p
x
x Ł ł
W celu określenia szerokości przedziału, w którym x0 mieści się z prawdopodobieństwem P,
należy przyjąć odpowiedni poziom istotności.
Poziom istotności ą określa w metrologii maksymalne prawdopodobieństwo tego, że wartość
prawdziwa nie mieści się jednak w wyznaczonym przedziale i przyjmuje on małe wartości
(najczęściej 0,05; 0,01 lub 0,003).
Dalszym krokiem jest określenie przedziału ufności, czyli właśnie tego przedziału, w którym
x0 mieści się z przyjętym prawdopodobieństwem.
44 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Szerokość przedziału ufności jest wprost proporcjonalna do odchylenia standardowego, a
wartość współczynnika proporcjonalności tą,N 1 zależy od przyjętego poziomu istotności i
liczby pomiarów w serii (N  1 to liczba stopni swobody).
Wartości współczynników tą,N 1 odczytuje się z tablic statystycznych. Jeżeli liczba pomiarów
w serii przekroczyła 30, można posłużyć się tablicami rozkładu normalnego. Jeżeli jednak
zawiera się w przedziale od 2 do 30, to należy skorzystać z tablic t-Studenta.
Rozkład t-Studenta jest odpowiedni dla mniejszej liczby pomiarów, a przy ich zwiększającej się liczbie jest
zbieżny do rozkładu Gaussa. Został zaproponowany przez statystyka angielskiego W.S. Gosseta, publikującego
pod pseudonimem Student.
Ostatecznie wynikiem analizy dokładności pomiaru w ujęciu probabilistycznym jest
następujący przedział wokół wartości średniej, w którym wartość prawdziwa x0 mieści się z
prawdopodobieństwem P = 1  ą:
P(x - tą,N-1sx Ł x0 Ł x + tą,N-1sx)=1- ą
Niektóre błędy przypadkiem pojawiające się w wynikach pomiarów mają jeszcze inny
charakter  wynikają przede wszystkim z ludzkiej niedoskonałości badacza. Nazywane są
błędami grubymi, nadmiernymi lub pomyłkami.
Błędy grube wynikają najczęściej z:
- nieprawidłowego odczytu wskazania przyrządu,
- błędnego zapisu wyniku pomiaru,
- niewłaściwe zastosowanie przyrządu.
Błędy grube, ze względu na swe pochodzenie, mają zazwyczaj duże wartości. Jednocześnie
prawdopodobieństwo tego, że pojawi się błąd przypadkowy o dużej wartości, jest bardzo małe
(zakładając rozkład normalny tych błędów  patrz rys.). Daje to przesłanki dla procedury
wykrywania i pozbywania się błędów grubych.
Wykrywanie błędów grubych można przeprowadzić na kilka sposobów. Pierwszy z nich
nazywany jest  regułą trzech sigma . Procedura wygląda wtedy następująco:
- wyznaczenie średniej z serii;
- obliczenie różnic między wartościami kolejnych pomiarów w serii a średnią;
- obliczenie odchylenia standardowego pojedynczego pomiaru sx;
- wyrzucenie z serii tych pomiarów, których wartości różnią się od wartości średniej więcej
niż o 3sx (jeżeli liczba pomiarów przekroczyła 30, to a<0.003);
- po wyrzuceniu z serii wykrytych błędów grubych należy ponownie policzyć wartość
średnią i odchylenia standardowe.
Inne podejście polega na sprawdzeniu, czy podejrzany wynik mieści się w określonym
przedziale wartości z przyjętym prawdopodobieństwem. W tym celu stosuje się następującą
procedurę postępowania:
- uporządkowanie wyników pomiarów według rosnącej wartości;
- odrzucenie wyniku podejrzanego (najmniejszego lub największego);
7. Dokładność pomiarów 45
- obliczenie dla zredukowanej serii pomiarów wartości średniej i odchylenia standardowego
pojedynczego pomiaru;
- wyznaczenie przedziału ufności na przyjętym poziomie istotności;
- odrzucenie wyniku, jeżeli leży on poza przedziałem.
7.6. Ocena niepewności pomiaru
Warto pamiętać, że na całkowity błąd pomiaru " składają się omawiane uprzednio przyczyny
zarówno o charakterze systematyczny ("S) jak i przypadkowym ("P). Zakładając ich
wzajemną niezależność, można zapisać: " = "S + "P .
Jednakże przedstawione podejścia: deterministyczne i probabilistyczne uwzględniają tylko
jedną składową (niejawnie zakładając, że druga jest w porównaniu z nią pomijalnie mała).
W roku 1993 Międzynarodowa Organizacja Normalizacyjna (ISO) opublikowała dokument
pt.  Guide to the expression of uncertainty in measurement wychodzący naprzeciw potrzebie
ujednoliconego podejścia do analizy dokładności pomiarów, uwzględniającego oba typy
błędów.
Niepewność pomiaru to parametr związany z wynikiem pomiaru, charakteryzujący rozrzut
wartości, które można w uzasadniony sposób przypisać wartości mierzonej.
Ostatecznie parametr ten pozwala na wyznaczanie granic przedziału ufności obejmującego nieznaną wartość
prawdziwą mierzonej wielkości z zadanym prawdopodobieństwem.
Niepewność standardowa ux to odchylenie standardowe średniej arytmetycznej z serii
pomiarów (lub jej oszacowanie) dla określonego rozkładu prawdopodobieństwa.
ux = sx lub ux = sx
Poza rozkładem normalnym czy rozkładem t-Studenta, zmienne losowe (jak np. ta, która opisuje rozrzut błędów
przypadkowych) mogą mieć również inne rozkłady. Można np. założyć, że prawdopodobieństwa tego, iż x0 ma
wartości z przedziału określonego przez błąd graniczny są jednakowe  rozkład taki nazywa się jednostajny. Dla
każdego rozkładu podobieństwa można wyznaczyć wartość średnią i odchylenie standardowe.
Czasami o rozrzucie wyników pomiarów decydują jednocześnie róże zjawiska losowe 
każde charakteryzujące się innym rozkładem prawdopodobieństwa, dając ostatecznie łączny
efekt (zwany splotem). Wtedy wszystkie one muszą być uwzględnione podczas obliczania
niepewności pomiaru, począwszy od wyznaczenia niepewności standardowej łącznej.
Niepewność standardowa łączna uS (zwana też niepewnością złożoną) to odchylenie
standardowe rozkładu prawdopodobieństwa będącego splotem rozkładów składowych. Znając
niepewności standardowe ui poszczególnych n rozkładów, wyznacza się ją następująco:
46 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
n
2
uS = .
ui
i=1
Następnym krokiem jest obliczenie niepewności rozszerzonej U z wykorzystaniem
niepewności łącznej oraz współczynnika rozszerzenia kp, którego wartość zależy od przyjętego
poziomu istotności a (albo poziomu ufności równego 1  a):
U = kp(a)uS ,
która pozwala na wyznaczenie granic przedziału ufności wokół oszacowanego wyniku
pomiaru xzm na przyjętym poziomie istotności:
P(xzm -U < x0 < xzm +U)=1- ą .
Przedstawione dotąd aspekty określania niepewności pomiaru mają wiele wspólnego z
tradycyjnym podejściem probabilistycznym. Jednakże, jak wiadomo, funkcjonują też inne
podejścia do szacowania niedokładności pomiarowej. Dlatego w zaleceniach ISO wprowadza
się podział niepewności na dwa typy  A i B.
Niepewność typu A (uA) wyznacza się metodami statystycznymi na podstawie wyników z
serii pomiarów  wyraża ona efekty losowe. Stąd:
uA = sx lub uA = sx .
Niepewność typu B wyznacza się za pomocą innych metod  wyraża ona efekty
systematyczne.
Wynika stąd, że każdy błąd systematyczny, poza błędem o znanej wartości i znaku uwzględnianym jako
poprawka, można uważać za niepewność typu B. Do grupy tej można zaliczyć np. ocenę błędów granicznych
przyrządów pomiarowych.
Jednakże również i w tym przypadku oszacowaniom efektów systematycznych należy
przypisać konkretne rozkłady prawdopodobieństwa. Na przykład położenie x0 w przedziale
danym przez "gr opisuje się jednostajnym rozkładem prawdopodobieństwa, dla którego
można obliczyć odchylenie standardowe J , a tym samym niepewność typu B:
Dgr
uB = s = .
J
3
Ostatecznie, po wyznaczeniu wartości niepewności typu A i typu B, oblicza się niepewność
łączną:
2 2
uS = uA + uB .
Wartość współczynnika rozszerzenia zależy od rozkładu prawdopodobieństwa cechującego
wynik pomiaru.
7. Dokładność pomiarów 47
W przypadku niepewności typu A najczęściej mamy do czynienia z rozkładem Gaussowskim
(dla liczby pomiarów w serii N e" 30) lub t-Studenta (dla N < 30). W sytuacji gdy uA >> uB,
współczynnik kp należy odczytać z tablic statystycznych danego rozkładu.
W przypadku niepewności typu B najczęściej dostępna jest informacja pozwalająca obliczyć
błąd graniczny pomiaru. Wtedy, przy spełnieniu warunku uA << uB, współczynnik
rozszerzenia przybiera wartość 3 (rozkład jednostajny).
Jeżeli niepewności typu A i B są porównywalne, to kp oblicza się na podstawie splotu
odpowiednich rozkładów prawdopodobieństwa.
7.7. Szacowanie niedokładności pomiarów pośrednich
yródła błędu pomiaru pośredniego podzielić można na dwa rodzaje: błędy pomiarów
bezpośrednich oraz niedokładność opisu matematycznego (w stosunku do rzeczywistości)
wykorzystanego do obliczenia wyniku pomiaru pośredniego.
Wpływ błędów pomiarów bezpośrednich na niedokładność pomiaru pośredniego oszacowuje
się zgodnie z  regułą propagacji błędów , a niedokładności opisu matematycznego
oszacowuje się stosując bardziej rozbudowane modele obiektu lub zjawiska (gdy jest to
możliwe).
48 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Reguła propagacji błędów
Ilościowe przenoszenie się błędów systematycznych z pomiarów bezpośrednich na wynik
pomiaru pośredniego (dotyczy to przede wszystkim błędów granicznych) można wyznaczyć
obliczając różniczkę zupełną dla zastosowanego równania matematycznego ogólnej postaci:
y = f (x1, x2,K, xn).
Wtedy różniczka zupełna (przyrost d wartości funkcji spowodowany przyrostami jej
argumentów) wynosi:
śy śy śy
dy = dx1 + dx2 +K+ dxn ,
śx1 śx2 śxn
gdzie " jest operatorem pochodnej cząstkowej.
Przechodząc od d do przyrostów skończonych " otrzymuje się:
śy śy śy
Dy Dx1 + Dx2 +K+ Dxn .
śx1 śx2 śxn
Ponieważ widoczne w powyższym wzorze pochodne mogą mieć znak  + lub    i nieznane
są znaki analizowanych błędów systematycznych, należy uwzględnić najgorszy przypadek:
n
śy
DS y = DS xi ,

śxi
i=1
gdzie "Sy jest błędem systematycznym pomiaru pośredniego, a "Sxi to błędy systematyczne pomiarów
bezpośrednich.
Wyniki pomiarów bezpośrednich mogą mieć charakter stochastyczny (np. są one średnimi z
serii pomiarów kilku wielkości fizycznych). Wtedy ilościowe przenoszenie się błędów
przypadkowych (określonych przez odchylenie standardowe odpowiedniego rozkładu
prawdopodobieństwa) analizowane jest w oparciu o definicję i własności odchylenia
standardowego. Ostatecznie uzyskuje się wzór analogiczny do oszacowania błędu
systematycznego pomiaru pośredniego:
2
n
ć
DP y =
śy DPxi ,

śxi
i=1
Ł ł
gdzie "Py jest błędem przypadkowym pomiaru pośredniego, a "Pxi to błędy systematyczne pomiarów
bezpośrednich. Wynik taki uzyskuje się przy założeniu, że zmienne losowe opisujące rozrzuty pomiarów
bezpośrednich są od siebie niezależne, a użyta w obliczeniach funkcja f jest w przybliżeniu liniowa.
Powyższe oszacowanie odgrywa szczególną rolę przy analizie niepewności pomiarów
pośrednich, gdyż w tym ujęciu wyniki pomiarów bezpośrednich traktowane są jako realizacje
zmiennych losowych.
7. Dokładność pomiarów 49
Zakładając niezależność tych zmiennych losowych oraz pomijalną nieliniowość stosowanej
funkcji f, powyższe równanie można stosować do obliczania niepewności pomiaru
pośredniego, pamiętając że:
- gdy uA >> uB, to DPxi uA ,
i
- gdy uA << uB, to DPxi uB ,
i
- gdy uA i uB są porównywalne, to DPxi uS .
i
Założenia o niezależności zmiennych losowych i/lub liniowości równania matematycznego często nie są
spełnione. Wtedy powyższy wzór należy uzupełnić o kowariancje tych zmiennych i/lub o dodatkowe wyrazy
wynikające z rozwinięcia funkcji f w szereg Taylora.
Współczynnik rozszerzenia kp wyznacza się na podstawie splotu rozkładów poszczególnych
zmiennych losowych.
W przypadku dominacji niepewności typu A i normalnego rozkładu wyników każdego z pomiarów pośrednich,
splot ma również rozkład normalny, można zatem korzystać z tablic rozkładu normalnego lub t-Studenta (w
zależności od liczebności pomiarów w serii).
W przypadku dominacji niepewności typu B i jednostajnego rozkładu wyników każdego z pomiarów pośrednich
można przyjąć, że splot trzech lub więcej takich rozkładów ma również rozkład normalny. Splot dwóch
rozkładów jednostajnych daje rozkład trapezowy, który dla równych błędów granicznych tych dwóch pomiarów
redukuje się do rozkładu trójkątnego.
7.8. Zagadnienia kontrolne
Co nazywamy błędem pomiaru i jaka jest jego wartość
Jakie są fizyczne przyczyny granic dokładności pomiaru
Czym charakteryzuje się deterministyczna interpretacja niedokładności pomiaru
Co to jest błąd graniczny
Skąd się bierze błąd metody i jak można go wyeliminować
Czym charakteryzuje się błąd przypadkowy
Sposób wyznaczania przedziału ufności
Metody wykrywania i eliminacji błędów grubych
Co to jest niepewność pomiaru
Cechy charakterystyczne niepewności typu A i typu B
Na czym polega  reguła propagacji błędów
8. Analiza wyników pomiarów
8.1. Zapis wyniku pomiaru
Cyfry znaczące w zapisie wyniku pomiaru (który jest przybliżeniem wartości prawdziwej)
informują o dokładności wykonanego pomiaru. Cyframi znaczącymi są wszystkie cyfry poza
początkowymi zerami w zapisie dziesiętnym (np. w liczbie 0,045 cyfry znaczące to 4 i 5).
Wynik pomiaru zapisuje się z taka liczbą cyfr znaczących, że tylko ostatnia z nich jest
niepewna (tzn. że niedokładność pomiaru interpretowana deterministycznie nie powinna
przekraczać 5 jednostek następnej cyfry). Wynika stąd, że ostateczna postać zapisu zależy od
oszacowanej niedokładności pomiaru.
Zera na końcu wyniku pomiaru mogą być znaczące (tzn. niedokładność pomiaru jest w stosunku do nich liczbą
mniejszego rzędu). Jeżeli w liczbie całkowitej końcowe zera nie są cyframi znaczącymi, stosuje się zapisy
wykładnicze. Np. w zapisie 3200 oba zera są znaczące, a w 3,2103 nie są, choć formalnie 3200 a" 3,2103.
Postać zapisu wyniku pomiaru uzależniona jest też od najmniejszej jednostki pomiarowej,
czyli najmniejszej rozdzielczości, z jaką można odczytać wynik z przyrządu pomiarowego.
Zaokrąglanie wyniku pomiaru
Określenie precyzji liczb, za pomocą których przedstawiany jest wynik pomiaru, rozpoczyna
się od zaokrąglenia oszacowania niedokładności pomiaru. Reguła zaokrąglania w tym
przypadku składa się z trzech elementów:
- oszacowanie niedokładności (zazwyczaj jest nim niepewność pomiaru) zaokrągla się
zawsze  w górę ;
- oszacowanie niedokładności zaokrągla się do jednej cyfry znaczącej;
- jeżeli błąd zaokrąglenia w stosunku do pełnej liczby przekracza 20%, to oszacowanie
niedokładności zaokrągla się do dwóch cyfr znaczących (zgodnie z zaleceniem Unii Fizyki
Czystej i Stosowanej).
Zaokrąglanie  w górę zabezpiecza przed sytuacją, w której wartość prawdziwa mierzonej wielkości po
zaokrągleniu niedokładności pomiaru znalazłaby się poza określonym przez nią przedziałem wartości.
Kolejnym krokiem jest zaokrąglenie liczby wyrażającej wartość wielkości mierzonej. Liczby
te zaokrągla się  w górę lub  w dół w zależności od wartości cyfr odrzucanych.
Obowiązują tu następujące reguły:
- wartość wielkości mierzonej zaokrągla się tak, aby jej ostatnia cyfra znacząca znajdowała
się na tym samym miejscu dziesiętnym, co ostatnia cyfra znacząca zaokrąglonej
niedokładności pomiaru;
- jeżeli pierwsza z odrzucanych cyfr jest większa niż 5, lub jest równa 5 a następne nie są
zerami, to następuje zaokrąglenie  w górę ;
- jeżeli pierwsza z odrzucanych cyfr jest mniejsza niż 5, to następuje zaokrąglenie  w dół ;
- jeżeli odrzucana cyfrą jest 5, to następuje zaokrąglenie wyniku do liczby parzystej.
Zapis wyników operacji matematycznych
W pomiarach pośrednich należy przeliczyć wyniki pomiarów bezpośrednich. Wszystkie
obliczenia na wynikach pomiarów należy wykonywać tak, aby nie wprowadzały one
8. Analiza wyników pomiarów 51
dodatkowych błędów (takich, które wynikają z zaokrągleń matematycznych, a nie z błędów
pomiarowych). Dlatego też należy przestrzegać następujących reguł:
- obliczenia pośrednie należy wykonywać na liczbach niezaokrąglonych, a jeżeli istnieje
powód do ich zaokrąglania, to powinno się uwzględniać przynajmniej 4 cyfry znaczące;
- wyniki obliczeń pośrednich polegających na mnożeniu, dzieleniu, potęgowaniu itp.
zapisuje się ze względną dokładnością tego samego rzędu, co dokładność liczby zapisanej
mniej precyzyjnie;
- wyniki obliczeń pośrednich polegających na dodawaniu i odejmowaniu zapisuje się tak,
aby ich najmniej znacząca cyfra znajdowała się na tym samym miejscu dziesiętnym, co
cyfra najmniej znacząca w liczby zapisanej mniej dokładnie.
Względna dokładność zapisu liczby to stosunek wartości jej najmniej znaczącej cyfry do pełnej liczby. Można ją
wyrażać w procentach.
8.2. Schematy analizy wyników pomiarów
Ostateczny wynik pomiaru podawany jest najczęściej w postaci dwóch liczb: oszacowania
wartości prawdziwej oraz oszacowania niedokładności pomiaru. Wyjątkiem są wyniki
pomiarów pośrednich złożonych, gdzie jednocześnie uzyskuje się wartości kilku mierzonych
wielkości wraz z określeniem ich niedokładności. Analiza wyników pomiarów polega na
takim opracowaniu liczb odczytywanych z przyrządów pomiarowych oraz informacji
podawanych przez producenta przyrządu, aby poprawnie określić i zapisać wynik pomiaru.
Sposoby analizy wyników pomiarów zależą od zastosowanych przyrządów pomiarowych,
liczby przeprowadzonych pomiarów oraz podejścia do interpretacji ich wyników:
tradycyjnego (deterministycznego lub probabilistycznego) czy tez obowiązującego w praktyce
inżynierskiej  polegającego na określaniu niepewności pomiaru.
8.2.1. Schemat analizy deterministycznej
Podejście deterministyczne uwzględnia błędy systematyczne. Do najważniejszych jego
elementów należy wyznaczanie błędu granicznego pozwalającego na określenie przedziału, w
którym z pewnością mieści się wartość prawdziwa oraz obliczenie poprawki (jeżeli jest to
możliwe) prowadzące do korekcji wyniki pomiaru w przypadku występowania błędu metody.
W podejściu deterministycznym można zaproponować następujący schemat analizy wyników
pomiarów:
 zapis wskazania przyrządu pomiarowego z dokładnością, na jaką pozwala odczyt z
przyrządu;
 oszacowanie niedokładności pomiaru (najczęściej w postaci błędu granicznego);
 oszacowanie błędu metody (jeżeli występuje i jest to możliwe);
 jeżeli błąd metody przekracza (typowo) 10% błędu granicznego, korekcja wyniku pomiaru
o wartość poprawki;
 w przypadku pomiaru pośredniego: 1) obliczania wyniku pomiaru na podstawie wyników
pomiarów bezpośrednich i odpowiedniego równania matematycznego, 2) oszacowanie
niedokładności pomiaru zgodnie z prawem propagacji błędów systematycznych;
 zaokrąglenia wyników zgodnie z regułami;
 zapis kompletnego wyniku pomiaru, najczęściej w postaci: x = xzm ą "grx.
52 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Błąd graniczny "gr oblicza się na podstawie informacji podanej przez producenta miernika.
W przypadku mierników analogowych informacja taka podana jest na polu odczytowym w
pobliżu podziałki w postaci klasy miernika kl wyrażonej w procentach. Wtedy:
kl Zx
Dgrx = ,
100%
gdzie Zx jest zakresem miernika nastawionym w czasie pomiaru (wiele mierników ma regulowane zakresy).
W przypadku mierników cyfrowych informacja pozwalająca obliczyć błąd graniczny podana
jest w instrukcji do przyrządu i ma postać wzoru:
Dgrx = d xzm + d dgt ,
gdzie  i d to parametry miernika związane z błędem systematycznym i błędem dyskretyzacji (wartości liczbowe
podawane są dla odpowiednich zakresów miernika), a  dgt (skrót od: digit  cyfra) oznacza miejsce dziesiętne
najmniej znaczącej cyfry, którą można odczytać z miernika na danym zakresie (tzw. ziarno wyświetlacza
cyfrowego).
Stosując prawo propagacji błędów systematycznych w pomiarach pośrednich zauważyć
można pewne reguły, jeżeli operacje wykonywane na wynikach pomiarów bezpośrednich są
tylko dodawaniami/odejmowaniami lub mnożeniami/dzieleniami. Prześledzmy to na
przykładach.
Przykład: Pośredni pomiar obwodu trójkąta
Pomiar taki polega na bezpośrednim zmierzeniu trzech boków (a, b i c) oraz obliczeniu
obwodu l:
l = a + b + c.
Zgodnie z prawem propagacji błędów mamy:
śl śl śl
Dgrl = Dgra + Dgrb + Dgrc = Dgra + Dgrb + Dgrc
śa śb śc
Przykład ten ilustruje regułę: Bezwzględny błąd graniczny wyniku pomiaru pośredniego
uzyskanego przez dodawanie/odejmowanie wyników pomiarów bezpośrednich jest równy
sumie bezwzględnych błędów granicznych pomiarów bezpośrednich.
Przykład: Pośredni pomiar rezystancji opornika (1)
W tym przypadku wymusza się przepływ prądu stałego przez badany opornik i mierzy
występujący na nim spadek napięcia U oraz natężenie płynącego przez niego prądu I, a
następnie do obliczenia R wykorzystuje prawo Ohma (w tym przykładzie pomijamy błąd
metody):
U
R = .
I
8. Analiza wyników pomiarów 53
Zatem:
śR śR 1 U
DgrR = DgrU + DgrI = DgrU + DgrI .
2
śU śI I I
Dzieląc obie strony powyższej zależności przez R = U/I, otrzymuje się:
DgrR DgrU DgrI
= + d R = d U +d I .
gr gr gr
R U I
Tym razem zilustrowaliśmy regułę: Względny błąd graniczny wyniku pomiaru pośredniego
uzyskanego przez mnożenie/dzielenie wyników pomiarów bezpośrednich jest równy sumie
względnych błędów granicznych pomiarów bezpośrednich.
Błąd (lub jego oszacowanie) wyrażony w jednostkach miary nazywany jest błędem bezwzględnym i oznaczany
jako ", natomiast ten błąd (lub oszacowanie) odniesiony do wartości prawdziwej i wyrażony (najczęściej) w %
to błąd względny .:
Dx Dx
dx = 100% 100% .
x0 xzm
Zdarzają się sytuacje, że do deterministycznej analizy dokładności pomiarów pośrednich
wymagających wielu mnożeń/dzieleń prościej jest zastosować tzw. różniczkę logarytmiczną
(zamiast zwykłej różniczki zupełnej), co polega na wykonaniu dwóch operacji na używanej
zależności matematycznej: 1) obustronnego logarytmowania i 2) obliczenia różniczki
zupełnej.
Przykład: Pośredni pomiar rezystancji opornika (2)
W podobnych warunkach jak poprzednio, logarytmując prawo Ohma mamy:
ln R = lnU - ln I .
Licząc dalej różniczkę zupełną (pamiętając, że d ln x = dx x ) otrzymuje się:
ś ś ś
(ln R)dR = (lnU)dU - (ln I)dI ,
śR śU śI
czyli
dR dU dI
= -
R U I
i przechodząc do przyrostów zupełnych i wartości bezwzględnych:
DgrR DgrU DgrI
= + d R = d U +d I .
gr gr gr
R U I
54 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
Najczęściej jednak w pomiarach pośrednich występują zależności bardziej zróżnicowane
matematycznie niż te, które były rozważane przed chwilą. Wtedy należy posługiwać się
regułą propagacji błędów systematycznych opartą o różniczkę zupełną. Opracowano jednak
wiele metod, gdzie odpowiednio przemyślane  sztuczki znaczenie upraszczają analizę
niedokładności pomiaru.
Przykład: Pomiar rezystancji wewnętrznej zródła napięcia
Rzeczywiste zródło napięcia elektrycznego opisuje się za pomocą dwóch podstawowych
parametrów, których wartości można zmierzyć. Są to: rezystancja wewnętrzna Rw oraz siła
elektromotoryczna E. Układ pomiarowy (jak na rys.) wykorzystuje opornicę dekadową
(regulowany wzorzec użytkowy rezystancji) i woltomierz.
Pomiar przebiega w dwóch etapach, dla różnych nastaw opornicy dekadowej Rd1 i Rd2, a
mierzone wtedy napięcia wynoszą odpowiednio Uv1 i Uv2. Z praw Kirchhoffa wynikają
następujące relacje:
E Rd1E
I1 = Uv1 = Rd1I1 = ,
Rw + Rd1 Rw + Rd1
E Rd 2E
I2 = Uv2 = Rd 2I2 = .
Rw + Rd 2 Rw + Rd 2
Wtedy Rw obliczyć można następująco:
Uv1 Rd1(Rw + Rd 2) Rd1Rd 2(Uv1 -Uv2).
= Rw =
Uv2 Rd 2(Rw + Rd1) Rd1Uv2 - Rd 2Uv1
Zmierzona rezystancja wewnętrzna zródła nieliniowo zależy od nastaw rezystancji dekadowej
i zmierzonych bezpośrednio napięć, tym samym skomplikowany (i żmudny w
wyprowadzeniu) jest wzór na błąd graniczny pomiaru pośredniego, gdyż
DgrRw = f (DgrRd1,DgrRd 2,DgrUv1,DgrUv2)
.
Dokonując jednak pomiaru dla Rd1 = " (opornica odłączona) i takiego Rd2, że Uv2 H" Uv1,
uzyskuje się:
Rd 2(Uv1 -Uv2)
Rw = @ Rd 2, DgrRw @ DgrRd 2 .
Uv2
8. Analiza wyników pomiarów 55
8.2.2. Schematy analizy statystycznej
Podejście probabilistyczne uwzględnia błędy przypadkowe. W wyniki analizy serii pomiarów
wyznacza się przedział, w którym z wartość prawdziwa mieści się z przyjętym
prawdopodobieństwem.
W tym podejściu rozróżnić należy dwie podobne, aczkolwiek różne sytuacje: analizę
właściwości serii wyrobów (identycznych technologicznie) oraz analizę serii pomiarów tej
samej wartości.
Seria wyrobów
Nowoczesne technologie pozwalają na produkcję dużych serii  identycznych wyrobów.
Ponieważ jednak wiele czynników wpływających na produkcję zmienia się w sposób
niekontrolowany i ma charakter losowy, utrzymanie jakości serii wymaga kontroli (tj.
pomiarów) wybranych właściwości produktów.
Kluczową sprawą dla analizy serii wyrobów jest to, iż każdy z nich jest fizycznie innym
obiektem o innej (własnej) wartości prawdziwej kontrolowanej wielkości. Stąd schemat
analizy wyników pomiarów przybiera postać:
 zapis (rejestracja) poszczególnych wyników z serii pomiarów,
 wyznaczenie wartości średniej z serii,
 wyznaczenie odchylenia standardowego pojedynczego pomiaru,
 obliczenie przedziału ufności na wybranym poziomie istotności a (korzystając z
odchylenia standardowego pojedynczego pomiaru oraz rozkładu t-Studenta lub rozkładu
normalnego w zależności od liczby pomiarów),
 sprawdzenie (na podstawie obliczonych wskazników), czy seria wyrobów spełnia
określone wymagania.
Seria pomiarów tej samej wartości
Odmienna w swej istocie jest sytuacja, gdy wielokrotnie (w obecności błędów
przypadkowych) mierzy się tę samą wartość badanej wielkości, gdyż teraz w każdym
pomiarze wartość prawdziwa jest ta sama. Stąd następujący schemat analizy wyników:
 zapis (rejestracja) poszczególnych wyników z serii pomiarów,
 wyznaczenie wartości średniej z serii,
 wyznaczenie odchylenia standardowego pojedynczego pomiaru,
 analiza wyników i odrzucenie pomiarów obarczonych błędami grubymi oraz ponowne
obliczenie powyższych parametrów (jeżeli wykryto błędy grube),
 wyznaczenie odchylenia standardowego średniej,
 obliczenie przedziału ufności na wybranym poziomie istotności a (korzystając z
odchylenia standardowego średniej oraz rozkładu t-Studenta lub rozkładu normalnego w
zależności od liczby pomiarów),
 w przypadku pomiarów pośrednich parametry wyznaczone w powyższy sposób dla każdej
z wielokrotnie mierzonych wielkości ( xi oraz s ) wykorzystuje się do obliczenia wyniku
xi
pomiaru pośredniego oraz jego odchylenia standardowego (zgodnie z odpowiednim
równaniem oraz regułą propagacji błędów przypadkowych).
56 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
8.2.3. Schemat oceny niepewności pomiaru
Niepewność pomiaru jest parametrem określającym jego niedokładność z uwzględnieniem
błędów zarówno systematycznych jak i przypadkowych.
Analizując niepewność pomiaru można wyróżnić trzy zasadnicze przypadki: 1) dominuje
niepewność typu A, 2) dominuje niepewność typu B i 3) obie niepewności są porównywalne.
Ocena niepewności typu A
Niepewność typu A wyznacza się metodami statystycznymi, a zatem zgodnie z wcześniej
przedstawionymi schematami. Jeżeli spełniony jest warunek uA >> uB, to niepewność łączna
uS H" uA co prosto pozwala wyznaczyć niepewności rozszerzoną (określającą przedział
ufności).
Ocena niepewności typu B
Niepewność typu B wyznacza się metodami innymi niż statystyczne, np. wykorzystując
obliczony błąd graniczny pojedynczego pomiaru lub inne informacje określające błędy
systematyczne. Tym razem trzeba jednak posiadane informacje przeliczyć na niepewność
typu B, np. zakładając rozkład jednostajny błędu pomiaru w przedziale określonym przez błąd
graniczny (wtedy uB = Dgr 3 ). Jeżeli spełniony jest warunek uA << uB, to niepewność
łączna uS H" uB . Pozwala to wyznaczyć niepewności rozszerzoną używając współczynnika
rozszerzenia odpowiedniego dla danego rozkładu (np. dla rozkładu jednostajnego przyjmuje
się najczęściej kp = "3)
Ocena niepewności typu A i B
Ten najczęściej spotykany przypadek wymaga w ogólności bardziej skomplikowanych
obliczeń związanych łącznymi rozkładami niepewności A i B. W praktyce zwykle
niepewność typu A ma rozkład bliski normalnemu, a niepewności typu B można przypisać
rozkład jednostajny (w przedziale określonym przez błędy systematyczne). Schemat
postępowania wygląda następująco:
 obliczenie metodami statystycznymi niepewności typu A,
 obliczenie innymi metodami (np. w oparciu o wartość błędu granicznego) niepewności
typu B,
2 2
 obliczenie niepewności łącznej uS = uA + uB ,
 obliczenie współczynnika rozszerzenia i wyznaczenie przedziału ufności na przyjętym
poziomie istotności,
 w przypadku pomiarów pośrednich parametry wyznaczone w powyższy sposób dla każdej
z mierzonych wielkości wykorzystuje się do obliczenia wyniku pomiaru pośredniego oraz
jego niepewności (zgodnie z odpowiednim równaniem oraz regułą propagacji niepewności
pomiarowych).
Obliczenie współczynnika rozszerzenia wymaga obliczenia splotu odpowiednich rozkładów niepewności typu A
i B, co zwykle nie jest proste. W praktyce inżynierskiej dopuszczalne jest w takiej sytuacji stosowanie kp
takiego, jak dla rozkładu normalnego.
8. Analiza wyników pomiarów 57
8.3. Analiza wyników pomiarów o różnej dokładności
Zdarzają się sytuacje, w których badacz dysponuje kilkoma wynikami pomiarów tej samej
wartości badanej wielkości wykonanych różnymi miernikami lub metodami,
charakteryzujących się zatem różną dokładnością.
Analizę takich wyników pomiarów ponownie należy rozpatrzeć w kontekście interpretacji
deterministycznej i probabilistycznej.
Podejście deterministyczne sprowadza się do:
 wyznaczenia przedziału, w którym mieści się wartość prawdziwa, dla każdego z
pomiarów;
 wyznaczenie części wspólnej tak otrzymanych przedziałów (jak na rys.):
x0 xd 2, xg1
 odpowiedni zapis wyniku pomiaru, uwzględniający nowe granice przedziału z pewnością
zawierającego wartość prawdziwą:
xg1 - xd 2 xg1 - xd 2
xzm = xd 2 + , Dgrx = .
2 2
Podejście probabilistyczne polega na obliczeniu tzw. średniej ważonej oraz jej odchylenia
standardowego w sytuacji, gdy dysponujemy kilkoma seriami pomiarów tej samej wartości
(każda o innej dokładności).
Pierwszym etapem jest wyznaczenie wartości średnich i odchyleń standardowych średnich
dla każdej z serii pomiarów, a potem wag wi proporcjonalnych do ich dokładności (a zatem
odwrotnie proporcjonalnych do kwadratów odchyleń standardowych, czyli wariancjisi2 ):
wi = 1 si2 .
Następnie liczona jest średnia ważona xw zgodnie ze wzorem:
xi
wi
i
xw =
wi
i
oraz odchylenie standardowe średniej ważonej:
58 Miernictwo  komentarz do wykładu ( A.G. Polak 2013)
2
i2
wi
i
w = .
2
ć

wi
Ł i ł
Obliczone w powyższy sposób przedziały (zarówno w podejściu deterministycznym jak i
probabilistycznym) są zawsze mniejsze lub równe najmniejszemu przedziałowi z
pojedynczego pomiaru lub serii pomiarowej, zatem przedstawione schematy analizy wyników
o różnej dokładności pozwalają dokładniej oszacować wartość prawdziwą.
8.4. Zagadnienia kontrolne
Reguły zaokrągleń wyników pomiarów
Schemat deterministycznej analizy wyników pomiarów
Schematy probabilistycznej analizy wyników pomiarów
Schemat oceny niepewności pomiaru
Schematy analiza wyników pomiarów o różnej dokładności


Wyszukiwarka

Podobne podstrony:
Miernictwo Komentarz do wykładów cz3
Miernictwo Komentarz do wykładów cz2
(Uzupełniający komentarz do wykładu 11)
(Komentarz do wykładu 21)
(Komentarz do wykładu 31 1 6)
(Komentarz do wykładu 41)
Dostosuj zakład do przepisów prawa pracy Komentarz do ankiety kontrolnej bhp na budowie, 2005 cz1
Wykład nr 02 Analiza komentarzy do EC Wojciech Średniawa
notatki do wykładów dla kursantów
Komentarze do strategii walki z rakiem w Polsce
materiały dydaktyczne do wykładów
GW Wyklad cz1
Prawo Jazdy w OSK3 Materiały do wykładów6
Komentarz do listy kontrolnej BHP na budowie

więcej podobnych podstron