MINŐSÉG ÉS MÉRÉSÜGY

A hibatörvényektől
a mérési bizonytalanságig 1. rész

(A hibaszámítás története)

 

Egy cikksorozat, amelynek az a szándéka, hogy bemutassa a metrológiai gondolkodás fejlődését a hibatörvényektől a mérési bizonytalanság fogalmának kialakulásáig, csak nagyvonalú, vagy - élesebb megfogalmazásban - felszínes lehet. A fejlődési folyamat a XVI század második felétől napjainkig több mint félezer éven ível át. Kérdés, szabad-e egyáltalán ilyen feladatra vállalkozni, és van-e értelme annak, hogy néhány oldal terjedelemben igyekezzünk eljutni a kiindulástól a végpontig. A válasz: igen. Igen, ha a célt meghatározó alapgondolat az, hogy a mérési hibára vonatkozó felfogás fejlődésének bemutatása elősegítheti a kiforrott nézetek rendszere (koncepció) megértését.
Ez a cikksorozat három részből áll. Az I. rész a hibatörvények kialakulásával és ismertetésével foglalkozik a XVIII. század közepétől a Gauss-eloszlás felfedezésének időpontjáig. A II. rész a Gauss-eloszlás kritikáját, az újabb tudományos eredményeket és Bayes valószínűség-felfogását ismerteti. Végül a III. rész bemutatja a mérési bizonytalanság számítás elgondolásainak (koncepciójának) kialakulását és fejlődését napjainkig. Az első rész Churchill Eisenhart "Hibatörvények" című cikkéből merít.

A hibatörvények olyan valószínűség-eloszlások, amelyekről feltehető, hogy képesek leírni az állandó mennyiség változatlan feltételek mellett történő, ismételt mérésekor fellépő hibák eloszlását. A hibatörvényeket annak bizonyítására vezették be, hogy az ugyanannak a mennyiségnek a többszöri méréséből számított számtani közép jó, sőt általában a legjobb választás a mennyiség értékének a megadására.

Ez a felfogás, a XVI század második felében egész Nyugat-Európában elterjedt. Korábban általános gyakorlat volt a "legjobb" értéket kiválasztani a rendelkezésre álló néhány mérési adat közül. A kiválasztás szempontjai a következők voltak: (1) a mérést a lehető legkedvezőbb körülmények között, a lehető legnagyobb gondossággal végezzék; (2) a kiválasztott érték lehetőleg feleljen meg a mértékadó körök, például a hatóságok elvárásainak.
A még távolabbi múltban (XI. század) azonban arra is volt példa, hogy egyes arab tudósok a mérés eredményéül a legkisebb és a legnagyobb érték közötti tartomány közepét fogadták el. Ez a tartományközép azonban nem volt azonos sem a számtani középpel 1, sem a mediánnal2.
A XVIII század végére mindinkább elterjedt az a gyakorlat, hogy a mennyiség valódi értékének az észlelések számtani közepét tekintsék. T. SIMPSON (1710-1761) ennek ellenére 1755-ben azt írta a Royal Society elnökének, hogy bizonyos személyek még mindig fenntartják véleményüket, miszerint a nagy gondossággal elvégzett egyetlen mérés eredménye megbízhatóbb, mint a többször megismételt mérés eredményeiből képezett számtani közép.

Ha a mérendő mennyiség mért értékét y-nal, valódi értékét pedig -val jelöljük, akkor az x mérési hiba a következő:



Szavakkal kifejezve: a mérési hiba a mért érték mínusz a valódi érték. Ha a mérés ismételt észlelések sorozatából áll, akkor az egyes észlelések egy m állandó mennyiség körül szóródnak, ami nem más, mint az észlelések várható értéke. A várható értéket az számtani közép annál jobban megközelíti, minél nagyobb az észlelések ismétlésének a száma. A várható érték segítségével az x mérési hiba két összetevőre bontható:



Az összeg első tagját véletlen hibának, a második tagját rendszeres hibának nevezik. A véletlen hiba - mint elnevezése is mutatja - valószínűségi változó a rendszeres hiba állandó mennyiség.

Az első két hibatörvényt Simpson alkotta meg.

Az első hibatörvény a diszkrét valószínűségi változó egyenletes eloszlása volt.

Ilyen eloszlást követ a "szabályos" kockával végzett dobások eredménye. Szabályos az a kocka, amelynél az 1, ..., 6 természetes számok dobásának a valószínűsége egyformán 1/6. Ugyancsak ilyen az eloszlása annak a valószínűségnek, hogy egy kártyacsomagból valamelyik lapot kihúzzuk; például a 32 lapos magyar kártya esetében a piros ász kihúzásának a valószínűsége 1/32.

A Simpson által megalkotott második hibatörvény két olyan diszkrét valószínűségi változó összegének az eloszlása volt, amelyek értéktartománya azonos. Ennek az eloszlásnak a neve Simpson-eloszlás, vagy háromszög-eloszlás. Ilyen eloszlást követ két szabályos kocka feldobásakor a dobásértékek összege. Ugyancsak háromszög eloszlással modellezhető a jól ismert "snóbli" játék, ahol a két játékos tetszése szerint tarthat a kezében 0, 1, 2 vagy 3 darab pénzérmét, gyufaszálat stb. és váltakozó sorrendben azt kell megbecsülniük és közölniük a partnerrel, hogy szerintük kettőjük kezében összesen hány darab pénzérme, gyufaszál stb. van. A győztes az, aki pontosan eltalálja ezt az összeget. (Ha a diszkrét valószínűségi változók értéktartománya nem azonos, akkor a háromszög-eloszlás trapéz-eloszlásba megy át.)

Simpson a mérési vagy észlelési hibákra vonatkozó két általános érvényű megállapítást is megfogalmazott: (1) a mérőeszköz szerkezete vagy helyzete nem indokolja a hibák irányzatos (tendenciózus) viselkedését, vagyis a hibák mindkét irányú ingadozásának az esélye pontosan vagy közelítően ugyanakkora; (2) léteznek bizonyos kijelölhető határok, amelyről feltehető, hogy a hiba azokon belül lesz, és a határok értéke a mérőeszköz jóságától és a mérést végző személy tapasztaltságától függ.

A hibák valószínűség-eloszlásával kapcsolatos Simpson-féle elgondolás gyorsan teret hódított Európában.

LAGRANGE (1736-1813) a hibatörvényekkel kapcsolatos eredményeit a 10 részből álló "Memoir"-jában foglalta össze. Megállapította, hogy (1) minden észlelési eredményt hiba terhel; (2) a mérés eredményéül célszerű az eredmények számtani közepét elfogadni, "mert a különféle hibák így egyenlően oszlanak el az összes észlelés között", és (3) a számtani közép hibája: a hibák számtani közepe.

Lagrange feltételezte, hogy ismertek maguk a hibák, és ismert azok gyakorisága. Tudományos programja az volt, hogy meghatározza az észlelési eredményekből a hibák valószínűség-eloszlását. Figyelmet érdemlők Lagrange gondolatmenetének egyes láncszemei:

Ugyancsak figyelmet érdemlőek azok a kérdések, amelyekkel behatóan foglalkozott:

Simpson és Lagrange módszerét az jellemezte, hogy a diszkrét eloszlásokkal kezdték a vizsgálódást, és azután tértek át a folytonos eloszlású hibákra. Ennek az lehetett az oka, hogy a valószínűségelmélet a szerencsejátékok talaján bontakozott ki, és ezekben a játékokban többnyire véges értéktartományú, diszkrét valószínűségi változók fordulnak elő.

JOHANN HEINRICH LAMBERT (1728-1777) abból a feltevésből indult ki, hogy a mérési hiba a zérus érték körül folytonos, szimmetrikus, egycsúcsú gyakoriság-eloszlással jellemezhető. Tanulmányát latin nyelven írta, és fogadtatására az jellemző, hogy le sem fordították német nyelvre. Lambert arra a következtetésre jutott, hogy a negatív és a pozitív hibák egyenlő mértékben lehetségesek, és ezért a gyakoriságuk is azonos. Ha az eltérések mindkét irányban mindig egyenlőek, akkor "megsemmisítik egymást", ha tehát a mérést elég sokszor megismételjük, akkor az összes mérési eredmény számtani közepe nem térhet el jelentősen a valódi értéktől.

A mérést azonban a gyakorlatban nem lehet végtelenül sokszor megismételni, ha pedig véges számú mérést végzünk, akkor nem várhatjuk el, hogy a pozitív és a negatív hibák gyakorisága ugyanakkora legyen. Kell tehát egy új módszert találni a véges számú mérés olyan átlagának a meghatározásához, amely a lehető legkisebb mértékben tér el a valódi értéktől.



Ha ugyanazon a mennyiségen ismételt méréseket végzünk, akkor Lambert szerint az ábrán látható eloszlást kapjuk, ahol:

Aa mérés skálájának a kezdete
ACa méréssel meghatározandó valódi érték
CB és CDa lehetséges legnagyobb hibák mindkét oldalon
PN, QM, RL, SKa CP, CQ, CR és CS hibák valódi relatív gyakoriságai.

Magyarázat nélkül maradt, hogy miért nem jelölt meg Lambert a C számára egy explicit ordinátát. A hiba-gyakorisági görbét Lambert úgy tekinti, hogy az a mérési eredmények vízszintes irányú tengelye mentén jobbra vagy balra eltolható úgy, hogy PN, QM, RL és SK továbbra is a mérési eredmények valódi relatív gyakoriságai maradnak, a mérési eredmények pedig megfelelően kisebbek illetve nagyobbak lesznek, mint a mennyiség valódi értéke, bárhol helyezkedjen is el a C valódi érték a mérési eredmények tengelyén. Ha az eltolásnak megfelelő P', Q', R' és S' mérési eredmények észlelt gyakoriságai ugyanakkorák lesznek, mint az eltolás előtti PN, QM, RL és SK relatív gyakoriságok, akkor az "eltolt" görbe az eredetivel fedésbe hozható. Ez azt jelenti, hogy a görbe legnagyobb értéke (maximuma) a mérendő mennyiség olyan értékének felel meg, amely a P', Q', R', S' észlelt gyakoriságai mellett ezeknek az érékeknek a valószínűségét maximalizálja. Mivel az észlelt és a "valódi" relatív gyakoriságok egybeesése nagyon ritka, szükség van egy olyan alkalmas eljárásra, amely meghatározza a hiba gyakorisági görbéjének pontos helyét, legvalószínűbb elhelyezkedését, azaz a C valódi értéket.

Lambert lehetségesnek tartott egy megoldást abban az esetben, ha a "valódi" gyakorisággal jellemzett hibáknak megfelelő mérési eredmények közötti kölcsönös távolság rögzített és ismert. Ha a mérési eredmények tengelyén csak egyetlen egy pont helyzetét azonosítani tudjuk, akkor ki tudjuk jelölni az összes többi érték helyét is, köztük azét, amelyik a zérussal egyenlő hibának, azaz a valódi értéknek felel meg.

Lambert megoldása egyenértékű annak az elhelyezkedési paraméternek a meghatározásával, amely minimalizálja az



szorzatot, ahol f(y-t ) az Y mért mennyiség valószínűség-sűrűségfüggvénye, y1, y2 , y3 , y4 pedig az n, m, l és k gyakorisággal észlelt értékek.
Ez nem más, mint - mai elnevezéssel - a t valódi érték maximum-likelihood (legnagyobb valószínűségű becslése6.
Bármilyen hihetetlenül hangzik is, Lambert ezzel a módszerrel bevezette a mért értékek folytonos, szimmetrikus eloszlása középpontjának helyét kijelölő maximum-likelihood módszert anélkül, hogy valaha is függvény-alakban fejezte volna ki a hiba gyakorisági eloszlását.

D. BERNOULLI (1700-1782) az észlelések hibáit a nyílvessző becsapódásainak a célponton át húzott függőleges vonaltól való vízszintes eltéréseihez hasonlította. Ebben a képben a célpont az ismeretlen valódi érték, ami "magához vonzza" az észlelési eredményeket, de ezt a vonzerőt számtalan rejtett körülmény gyengíti. A költői kép lényegi mondanivalója az, hogy a mérés során fellépő ismeretlen belső és külső körülmények a mérési eredmény hibáihoz vezetnek. Egyes hibák lehetnek egyirányúak és így halmozódnak, más hibák - ellentétes irányúak lévén - kiegyenlítődhetnek.

Bernoulli úgy vélte, hogy a hibáknak van egy olyan ± r határértéke, ami nem haladható meg. A hiba vagy eltérés valószínűsége ezen a határon túl zérus, a határokon belül pedig, a célpont - azaz a valódi érték - közelében maximális mértékben nő. Más szóval: a kis hibák valószínűsége nagyobb, a nagyoké kisebb. Az eltérések és az azoknak megfelelő valószínűségek közötti összefüggést az általa "skálának" nevezett valószínűség-eloszlás adja meg.

Bernoulli részletesen leírja, hogy az eltéréseket egy vízszintes egyenesen kell ábrázolni, melynek egyik pontja a valódi értéknek felel meg. Az eltérések nagyságának megfelelő pontokban merőlegeseket kell állítani úgy, hogy azok hosszúsága az adott eltérés valószínűségével legyen egyenlő. A merőleges szakaszok végpontjait felül összekötő görbe lesz a "valószínűségi skála". A skálának a következő tulajdonságokkal kell rendelkeznie:

Bernoulli úgy vélte, hogy az alkalmas görbe valamilyen ellipszis, amit a számítások egyszerűsítése érdekében félkörrel lehet helyettesíteni. Okfejtése és indokolása nem volt túlságosan meggyőző.

Az r hibahatár ennek a félkörnek a sugara, ami a két szélsőséges észlelési eredmény közötti különbséggel egyenlő. Ha elég sok észlelési adat van, akkor célszerű r-et ennek a különbségnek a másfélszeresével egyenlőnek venni. Ha csak 3-4 észlelési adat van, akkor még jobb r-et úgy megválasztani, hogy ennek a különbségnek a kétszerese legyen.

A nagyvonalú gyakorlati ajánlást Bernoulli igényes elmélettel támasztotta alá. A legnagyobb (maximális) hiba meghatározásához az



szorzatot kell t -ra nézve maximalizálni az r kiválasztott értékeire, hogy megkapjuk a t "legnagyobb valószínűségű" értékét. Bár itt ismét a maximum-likelihood becsléssel találkozunk, Bernoulli említést sem tett Lambertnek a témában elért hasonló eredményéről. Érdekes megjegyezni, hogy Bernoulli már alkalmazta számításaiban a súlyozott számtani közepet, ahol a súly az adott hiba előfordulásának a valószínűsége volt.

PIERRE SIMON LAPLACE (1749-1827) volt az első, aki végtelen intervallumon értelmezett hibatörvényt javasolt. Az ő hibagörbéje a következő tulajdonságokkal rendelkezett:

Laplace ezeket a tulajdonságokat azzal a követelménnyel egészítette ki, hogy a görbe meredekségének a valódi értéktől x távolságra az abban a pontban lévő ordinátával kell arányosnak lennie, azaz:



Ebből az összefüggésből integrálással adódik a kétszeres-exponenciális hibaeloszlás:


(-¥ < x < ¥, 0 < x < ¥).

CARL FRIEDRICH GAUSS (1777-1885) 1794-ben felismerte, hogy az y = a +bx lineáris függvény a és b együtthatóit a észlelési adatokból a maradék hibák négyzeteinek összegét minimalizáló a-val és b-vel lehet meghatározni:



és közölte, hogy ezt az elvet a gyakorlat igazolta. Hamar felismerte, hogy egy ismeretlen mennyiség legvalószínűbb értékének a meghatározása csak akkor lehetséges, ha ismerjük a valószínűség-eloszlását. Olyan eloszlást keresett, amely "a legegyszerűbb esetben arra az általánosan elfogadott, helyes szabályra vezet, hogy egyenlő megbízhatóságú észlelési eredményekből az ismeretlen mennyiségre kapott több érték számtani közepét kell a legvalószínűbb értéknek tekinteni".

Ahogyan Gauss a hibatörvényét levezette, az önmagában is igen érdekes és tanulságos, de a matematikai részletektől most eltekintünk. Gauss feltételezte, hogy a közvetlen észlelésen alapuló mérés hibáját egyváltozós függvény írja le, amely szimmetrikus, szigorúan monoton csökkenő az x függvényében, továbbá folytonos és differenciálható a -¥ -től +¥ -ig terjedő tartományban. Azonos megbízhatóságú, n számú y1, y2,..., yn észlelési eredmény együttes valószínűség-sűrűségfüggvénye ugyanazon t esetében



ahol

              -ra.

Feltételezte továbbá, hogy az észlelés előtt t mindegyik lehetséges értéke egyenlő valószínűségű. THOMAS BAYES nyomán az inverz valószínűségek technikáját alkalmazva - azaz t -t változónak, az yi észlelési eredményeket pedig rögzítettnek tekintve - bebizonyította, hogy t legvalószínűbb értéke az, amelyik W -t minimalizálja, azaz amely t-ra



Ezután kinyilatkoztatta, hogy a számtani középre alapozott szabályát "gyakorlati axiomaként " kell elfogadni. Idézem: "Bizonyára nem nehéz elfogadni azt a hipotézist, hogyha bármely mennyiség meghatározása ugyanolyan körülmények között, ugyanakkora gondossággal végzett több közvetlen mérés alapján történt, akkor az észlelési eredményekből számított számtani közép adja meg a legvalószínűbb értéket, ha nem is szigorú értelemben, de legalább olyan közelítéssel, hogy arra mindig biztonságosan alapozhatunk".

Mivel y1, y2,..., yn számtani közepe adja a



egyenlet megoldását, ez egyúttal a legvalószínűbb érték, és akkor az előbbi egyenlet megoldásának is ugyanennek kell lennie. A két összegzés megfelelő tagjait páronként egyenlővé téve a közös megoldás megköveteli, hogy fennálljon a következő egyenlőség:



Ebből következik, hogy



A k pozitív, ha az W együttes valószínűség-sűrűségfüggvény értékének maximálisnak kell lennie, és k = h2 és x = y - t behelyettesítéssel a hibatörvény ismert alakja áll elő:



amelyben - mint arra Gauss rámutatott .- "a h állandó az észlelések pontossága mértékének tekinthető."

Gauss úgy vélte, hogy ez az összefüggés szigorú értelemben nem tekinthető hibatörvénynek, mert 0-nál nagyobb valószínűséget tulajdonít a lehetséges hibák tartományán kívül eső hibáknak is. A hibák a gyakorlatban mindig végesek. Ennek azonban nincs jelentősége, mert a függvény "olyan gyorsan csökken, ha hx értéke elég nagy, hogy ezt a kis pontatlanságot el lehet hanyagolni."

A hibatörvény elfogadását jelentős mértékben elősegítette:

Bánkuti László

A laprendszer készítője: UFE