(Translated by https://www.hiragana.jp/)
Dyskusja:Niepewność pomiaru – Wikipedia, wolna encyklopedia Przejdź do zawartości

Dyskusja:Niepewność pomiaru

Treść strony nie jest dostępna w innych językach.
Z Wikipedii, wolnej encyklopedii

"Niepewność pomiaru – różnica pomiędzy wartością pewnej wielkości uzyskaną w wyniku pomiaru a rzeczywistą wartością tej wielkości." Czy ta definicja nie dotyczy błędu pomiaru? Niepewność to raczej przedział w którym zmierzona wartość powinna się z pewnym prawdopodobieństwem zawierać.

ze zgłoś błąd

[edytuj kod]

definicja trąci myszką a odnośnik do literatury mocno zwietrzały. Brak odnośników do dokumentów BIPM.

Nie tyle myszką, co prostotą. Nieporozumienie wynika z tego, że w literaturze polskiej terminy "błąd" i "niepewność" stosuje się wymiennie. W pierwszym zdaniu podana jest najprostsza intuicyjna definicja niepewności pojedynczego pomiaru. W drugim - bardziej formalnie poprawna, bowiem rzeczywista dokładna wartość mierzonej wielkości nigdy nie jest znana.
Wynika stąd jednak inny problem - integracji artykułów "Błąd pomiaru" i "Niepewność pomiaru". --zu. Mpfiz (dyskusja) 17:59, 31 sie 2009 (CEST)[odpowiedz]
Jak sądzę, chodzi o artykuł Niepewność pomiaru, skoro mowa o dokumentach BIPM? Olaf @ 15:51, 30 sie 2009 (CEST)[odpowiedz]

Pojęcia niepewność pomiaru i bład pomiaru nie stosuje się wymiennie. Błąd pomiaru jest to różnica pomiędzy wynikiem a wartością rzeczywistą. A niepewność jest to obszar, który albo opisuje zmienność wyników lub jest rozłożony symetrycznie wokół wyniku pomiaru. Teoria błędów jest starsza i do końca lat 80-tych była używana do opisu wyników pomiaru. Obecnie jest ona zastąpiona teorią związaną z niepewnością. Są to dwa różne pojęcia i nie powinny być ze sobą mylone! Z wyrazami szacunku istnieje coś takiego jak słownik pojęć metrologicznych warto do niego zajrzeć. Dokument EA-04 też ma dołączony odpowiedni słownik.

Stosuje się, na co dowodem może być porównanie przykładowych definicji z tego dokumentu z definicjami podręczniku z zakresu rachunku błędów. Nawiasem mówiąc w rzeczonym dokumencie słowo błąd nie pada ani razu. A takie pojęcia jak odchylenie standardowe, przedział ufności, rozkład Studenta nie są domeną jakieś nowej teorii--zu. Mpfiz (dyskusja) 07:56, 29 paź 2009 (CET)[odpowiedz]

Definicja niepewności jest błędna, bo niepewność to nie jest to samo co różnica między wartością rzeczywistą a zmierzoną (to błąd jest raczej); upraszczając, niepewność można najkrócej opisać jako "maksymalny szacowany błąd pomiaru", ale na pierwszym miejscu w artykule winna stać definicja z VIMu z 1993 (GUM 1996) lub, wyprzedzając, z VIM 2008 (GUM jeszcze nie wydał polskiego tłumaczenia). To, czy się coś stosuje, czy nie, nie powinno mieć tutaj znaczenia. Łukasz

Nie będę przesądzał bo ostatnio nie siedzę za bardzo w teorii ale mogę zaznaczyć jak to jest w praktyce. Otóż przy wzorcowaniu jakiegoś przyrządu pomiarowego mamy w sumie do czynienia z maksymalnym błędem pomiarowym (podawanym przez producenta przyrządu w danych technicznych przyrządu, który prawdopodobnie jest po prostu sumą oszacowanego przez niego maksymalnego błędu z prawdopodobnie dodaną niepewnością pomiaru, zwykle dla danego zakresu pomiarowego).
To co my zmierzymy to jest wartość rzeczywista mierzona przez przyrząd (w danym punkcie pomiarowym) lub różnica między wartością, którą wskazuje przyrząd a wartością, którą powinien wskazywać - czyli błąd pomiaru (istnieje jeszcze pojęcie poprawki, czyli odwrotności błędu: różnicy między wartością, którą przyrząd powinien wskazywać a wartością, którą wskazuje). Wartości te podajemy w świadectwie wzorcowania (oczywiście razem z oszacowaną niepewnością pomiaru danej wartości).
Pomierzony błąd odnosi się potem do błędu maksymalnego podawanego przez producenta. Klient powinien sam ocenić, czy przyrząd, którego błąd jest większy niż błąd maksymalny deklarowany przez producenta jest dalej przydatny do jego celów i ewentualnie zmienić jego klasę lub zakres zastosowania...
To tak dla ścisłości, teoretycy mogą wyciągnąć wnioski. Pozdrawiam Electron <Odpisz> 12:08, 20 sty 2010 (CET)[odpowiedz]
Ja rozumiem, ale nie o tym mowa. Niepewność jest pewnym przedziałem, który ma środek w wartości zmierzonej, wewnątrz którego jest (z pewnym prawdopodobieństwem) wartość prawdziwa. To, co napisane jest w artykule, to różnica, a to nie to samo. Nieistotne, edytuję.
Niepewność jest pewnym przedziałem, który ma środek w wartości zmierzonej, wewnątrz którego jest (z pewnym prawdopodobieństwem) wartość prawdziwa. - OK. Zgadzam się, że taki jest sens niepewności. Electron <Odpisz> 12:53, 21 sty 2010 (CET)[odpowiedz]

Definicja niepewności jest błędna, bo niepewność to nie jest to samo co różnica między wartością rzeczywistą a zmierzoną (to błąd jest raczej); upraszczając, niepewność można najkrócej opisać jako "maksymalny szacowany błąd pomiaru", ale na pierwszym miejscu w artykule winna stać definicja z VIMu z 1993 (GUM 1996) lub, wyprzedzając, z VIM 2008 (GUM jeszcze nie wydał polskiego tłumaczenia). To, czy się coś stosuje w literaturze, czy nie, nie powinno mieć tutaj znaczenia.

Zgłosił: Łukasz 89.79.6.46 (dyskusja) 18:56, 18 sty 2010 (CET)