Forum statystyczne NAJWIĘKSZY W POLSCE PORTAL STATYSTYCZNY DLA STATYSTYKÓW
 Ogłoszenie 
FORUM STATYSTYCZNE MA JUŻ 10 LAT

Znasz statystykę lub ekonometrię, metody prognozowania, data mining i chcesz pomóc w rozwoju forum statystycznego ?
Pisz na: administrator(małpa)statystycy.pl

Rozpoczął swoją działalność portal statystyczny - masz pomysł na jego rozwój ?

Drogi forumowiczu! Zanim napiszesz posta zapoznaj się z regulaminem forum i przedstaw się
The International Year of Statistics (Statistics2013) Free statistics help forum. Discuss statistical research, statistical consulting Smarter Poland Portal statystyczny
Tablice statystyczne
Tablice rozkładu t-Studenta
Tablice rozkładu normalnego
Tablice rozkładu Poissona
Tablice rozkładu chi-kwadrat
Tablice rozkładu F-Snedecora
Wartości krytyczne testu Durbina-Watsona

Linki












Szukaj
Szukaj:
Szukaj w:

Zaawansowane wyszukiwanie

0. Moc testu
Autor: mathkit Data: 2014-12-17, 15:10
Moc testu

Warto wracać do podstaw wnioskowania statystycznego aby mieć na uwadze moc testu.
Przypomnijmy podstawowe definicje:

Błędem I rodzaju - nazywamy błąd polegający na odrzuceniu hipotezy, gdy w rzeczywistości jest ona prawdziwa.

Błędem II rodzaju - nazywamy błąd polegający na nieodrzuceniu hipotezy, gdy w rzeczywistości jest ona fałszywa.

Mając tak zdefiniowane pojęcia, można przejść do kolejnych popularnych definicji:

Poziom istotności (ozn. ) - to prawdopodobieństwo popełnienia Błędu I rodzaju.

Moc testu (ozn. ) - to prawdopodobieństwo nieodrzucenia testowanej hipotezy zerowej gdy jest ona nieprawdziwa.

Mówimy, że test jest mocny, gdy prezentuje mały bład II rodzaju, rzadko myli się odrzucając hipotezę zerową.


Bardzo ciekawy artykuł autorstwa Grzegorza Harańczyka i Jerzego Gurycza ze Statsoft Polska, który w bardzo obrazowy sposób na ciekawym przykładzie empirycznym pokazuje czym jest moc testu, zamieszczam w załączniku.


Off topic: Aktykuł porusza również drażliwe kwestie outlierów i założeń testu t dla zmiennych niezależnych. Zwraca również uwagę, jak ważnym jest dobór wielkości próby w trakcie planowania eksperymentu, tak aby można było, używając słów autorów, mieć "czyste sumienie" podczas wnioskowania statystycznego.

Forum statystyczne - moc testu

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

1. Test rangowy Kruskala-Wallisa
Autor: wdsk Data: 2013-07-03, 17:51
Test rangowy Kruskala-Wallisa (William Kruskal, W. Allen Wallis, grudzień 1952)

Rangowa analiza wariancji Kruskala-Wallisa (Kruskal-Wallis one-way analysis of variance) to nieparametryczny test służący weryfikacji hipotezy, że dane prób () pochodzi z populacji o zbliżonym rozkładzie, przynajmniej jeśli brać pod uwagę ich miary tendencji centralnej.

Założenia:

Zakładamy, że próby są niezależne oraz pochodzą z populacji o rozkładach ciągłych. Ponadto kształt oraz skala rozkładu są identyczne dla każdej z prób, poza jakimikolwiek różnicami dotyczącymi miar tendencji centralnej, takich jak średnia czy mediana.

Jeśli test odrzuca hipotezę zerową, to choć jedna z prób różni się od pozostałych, jednak test nie rozpoznaje gdzie zachodzą różnice i ile ich jest. Testu można używać również dla prób o różnych rozmiarach.

:arrow: Literatura:

:idea: William H. Kruskal, W. Allen Wallis, "Use of Ranks in One-Criterion Variance Analysis", Journal of the American Statistical Association, Vol. 47, No. 260. (Dec., 1952), pp. 583-621.
:idea: Kruskal-Wallis one-way analysis of variance.
:idea: How can we compare several populations with unknown distributions (the Kruskal-Wallis test)?

:arrow: Testujemy hipotezę zerową stanowiącą, że próby pochodzą z populacji o tych samych rozkładach przeciwko alternatywie, że choć jedna różni się od pozostałych.

:arrow: Konstrukcja testu:

:idea: Mamy prób, każda o liczności , , przy czym . Rangujemy wszystkie próby razem, przypisując najmniejszej wartości rangę , kolejnej , a największej . Powtarzającym się wartościom przypisujemy rangi równe średniej arytmetycznej rang, które zostałyby im przypisane gdyby były one różne.
:idea: Obliczamy sumy rang dla poszczególnych prób. Test KW określa czy sumy te różnią się na tyle, że mało prawdopodobne jest, żeby wszystkie pochodziły z takich samych populacji.
:idea: Definiujemy statystykę testową:


gdzie
to liczba prób,
to liczba obserwacji i -tej próbie,
to suma obserwacji ze wszystkich grup,
to suma rang obserwacji w - tej próbie.

Pokazuje się, że jeśli wszystkie prób pochodzi z takiej samej populacji, to wówczas statystyka ma w przybliżeniu rozkład chi-kwadrat z stopniami swobody, przy założeniu, że rozmiary prób nie są zbyt małe (tzn. dla wszystkich ).

:idea: Hipoteza zerowa zostaje odrzucona na poziomie istotności , jeżeli wartość statystyki jest nie mniejsza od wartości krytycznej rozkładu chi-kwadrat dla oraz stopni swobody. Obszar krytyczny testu KW jest jednostronny, ponieważ hipotezę zerową odrzucamy jedynie wówczas, gdy wartość statystyki jest zbyt duża.

Wartości krytyczne można odczytywać z tablic rozkładu chi-kwadrat dostępnych na portalu. Uwaga! Chcąc odczytywać wartości krytyczne dla na potrzeby testu Kruskala-Wallisa, należy w powyższej tablicy odszukać kwantyl odpowiadający poziomowi istotności .

:arrow: Inne, podobne testy:

Parametrycznym odpowiednikiem testu Kruskala-Wallisa jest jednoczynnikowa analiza wariancji, która zakłada, że próby pochodzą z populacji o rozkładach normalnych.

Odpowiednikiem porównującym dwie próby jest test U Manna-Whitneya.

Istotny wynik testu Kruskala-Wallisa wymaga jeszcze przeprowadzenia porównań wielokrotnych (tzw. testów post-hoc - na przykład test Dunna). Z racji, że istotny statystycznie wynik testu Kruskala-Wallisa informuje, że są różnice pomiędzy grupami to w celu sprawdzenia pomiędzy którymi grupami należy przeprowadzić porównania wielokrotne z odpowiednimi poprawkami (na ilość porównywanych grup / porównywanych par).

:arrow: Pytania dotyczące testu można zadawać w wyszczególnionym do tego celu wątku na forum statystycznym - Test Kruskala Wallisa.

:arrow: Zastosowanie w pakiecie R:
Cytat:
kruskal.test()

:idea: Przykład zastosowania w R.

Komentarze: 1 :: Zobacz komentarze (Dodaj swój komentarz)

2. Test U Manna-Whitneya
Autor: wdsk Data: 2013-07-06, 18:08
Test U Manna-Whitneya (H. B. Mann, D. R. Whitney, 1947)

Test U Manna-Whitneya (Mann-Whitney U Test, Mann–Whitney–Wilcoxon (MWW), Wilcoxon rank-sum test, Wilcoxon–Mann–Whitney test) to nieparametryczny test hipotezy zerowej stanowiącej o tym, że dwie próby pochodzą z populacji o tym samym rozkładzie (w kontekście ich miar tendencji centralnej) przeciwko alternatywie będącej jej zaprzeczeniem (w szczególności mówiącej, że jedna z populacji przyjmuje zazwyczaj większe wartości od drugiej).

Założenia: Test nie zakłada, że próby pochodzą z populacji o rozkładzie normalnym ani jakimkolwiek innym.

:arrow: Literatura:

:idea: Mann, H. B., & Whitney, D. R. (1947). "On a test of whether one of two random variables is stochastically larger than the other". Annals of Mathematical Statistics, 18, 50–60.
:idea: Mann-Whitney U.
:idea: Do two arbitrary processes have the same central tendency?.

:arrow: Hipoteza zerowa: próby pochodzą z populacji o tych samych tendencjach centralnych. Hipotezą alternatywną jest jej zaprzeczenie.

:arrow: Konstrukcja testu:

:idea: Mamy dwie próby o licznościach . Rangujemy wszystkie obserwacji w kolejności rosnącej. Wartości powtarzające się otrzymują rangę równą średniej arytmetycznej rang, które zostałyby im przypisane, gdyby były one różne.
:idea: Obliczamy sumy rang dla obu grup.
:idea: Obliczamy


lub
,

gdzie .
:idea: Statystyka testowa to mniejsza spośród liczb oraz . Dla prób większych niż możemy użyć statystyki danej wzorem

,
gdzie
oraz .

Wartością krytyczną jest stablicowany kwantyl rozkładu normalnego na poziomie istotności dla testu obustronnego lub na poziomie dla testu jednostronnego.

Dla małych prób tablice są dostępne w większości pozycji na temat statystyki nieparametrycznej.

:arrow: Inne, podobne testy:

Parametrycznym odpowiednikiem testu U Manna-Whitneya jest test t dla średnich (dla prób niezależnych). Test MWW jest od niego efektywniejszy dla rozkładów innych niż normalne.

:arrow: Pytania dotyczące testu można zadawać w wyszczególnionym do tego celu wątku na forum statystycznym - Test U Manna-Whitneya.

:arrow: Zastosowanie w pakiecie R:
Cytat:
wilcox.test()

:idea: Przykład zastosowania w R.

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

3. Test zgodności chi-kwadrat
Autor: wdsk Data: 2013-07-26, 19:00
Test zgodności chi-kwadrat (Karl Pearson, 1900)

Test zgodności chi-kwadrat (Chi-Square Goodness-of-Fit Test) służy do weryfikowania, czy dana próba pochodzi z populacji o określonym rozkładzie. Może być stosowany dla każdego jednowymiarowego rozkładu prawdopodobieństwa, którego dystrybuantę da się obliczyć. Jest to test najczęściej wykorzystywany w praktyce, służy do badania zgodności zarówno cech mierzalnych jak i niemierzalnych. Jedyny test służący badaniu zgodności cech niemierzalnych.

:arrow: Literatura:

:idea: Pearson, Karl (1900). "On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling". Philosophical Magazine Series 5 50 (302): 157-175.
:idea: Pearson's chi-squared test.
:idea: Chi-Square Goodness-of-Fit Test.

:arrow: Konstrukcja testu:

Test stosuje się dla danych podzielonych dla klasy. Nie jest to konieczne, gdyż można użyć również histogramu lub tabeli częstości, jednakże wartość statystyki testowej jest zależna od tego, jakiego podziału dokonamy. Przy prawdziwości hipotezy zerowej wartości występują w każdej z komórek z równą częstością. Wymagana jest ponadto odpowiednia liczebność próby aby aproksymacja rozkładem chi-kwadrat była poprawna.

:idea: Testujemy hipotezę zerową
próba pochodzi z populacji o określonym rozkładzie

przeciwko jej zaprzeczeniu:
próba pochodzi z populacji o innym rozkładzie.


:idea: Statystykę testową obliczamy dla danych podzielonych na klas:

gdzie oraz to odpowiednio zaobserwowana oraz oczekiwana częstość dla -tej klasy. Częstości oczekiwane obliczamy ze wzoru


gdzie to dystrybuanta rozkładu teoretycznego, dla którego stosujemy test, oraz to odpowiednio górna oraz dolna granica -tej klasy, a to liczebność próby.

:idea: Test jest wrażliwy na dobór klas. Nie istnieje optymalna długość klasy, gdyż zależy ona od rozkładu. Najrozsądniejsze wybory powinny skutkować podobnymi, ale nie identycznymi wynikami. Aby aproksymacja rozkładem chi-kwadrat była poprawna, częstości oczekiwane powinny wynosić co najmniej . Test nie działa poprawnie dla małych prób, a jeśli istnieją wartości występujące rzadziej niż pięć razy, konieczne może być połączenie ze sobą niektórych klas.

:idea: Statystyka testowa ma w przybliżeniu rozkład chi-kwadrat z stopniami swobody, gdzie to liczba klas, a to liczba estymowanych parametrów rozkładu (włączając w to parametry położenia, skali i kształtu) plus . Na przykład dla rozkładu Weibulla z trzema parametrami, .

:idea: Test zgodności chi-kwadrat jest zawsze testem prawostronnym. Hipotezę zerową odrzucamy na poziomie istotności , jeżeli


gdzie to wartość krytyczna rozkładu chi-kwadrat z stopniami swobody na poziomie istotności . Wartości krytyczne odczytujemy z tablic rozkładu chi-kwadrat.

:arrow: Inne, podobne testy:

Test chi-kwadrat jest alternatywą dla innych testów zgodności takich jak testy Andersona-Darlinga czy Kołmogorowa-Smirnowa, które mogą być jednak stosowane jedynie dla rozkładów ciągłych, podczas gdy test chi-kwadrat nie ma takich ograniczeń.

:arrow: Pytania dotyczące testu można zadawać w wyszczególnionym do tego celu wątku na forum statystycznym - Test zgodności chi-kwadrat.

:arrow: Zastosowanie w pakiecie R:
Cytat:
chisq.test()

:idea: Przykład zastosowania w R.

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

3. Testy dla średniej
Autor: mathkit Data: 2013-04-15, 12:03
Testy istotności dla jednej wartości średniej populacji

A. Stawiamy hipotezę zerową postaci:
- nieznana średnia wartość cechy w populacji jest równa
Wobec jednej z hipotez alternatywnych (ustalanej przez badacza):






B. Sprawdzianem hipotez jest odpowiednia statystyka testowa:

1) Gdy populacja generalna ma rozkład normalny o nieznanej średniej i znanym odchyleniu stadardowym , dowolnej liczebności .

,

gdzie - średnia z próby, - liczebność próby.
Statystyka ta ma rozkład normalny

2) Gdy populacja ma rozkład normalny o nieznanej średniej i nieznanym odchyleniu stadardowym , a liczebność próby jest mała (tj. ).

,

gdzie - średnia z próby, - odchylenie standardowe z próby - liczebność próby.
Statystyka ta ma rozkład t studenta z stopniami swobody.

3) Gdy rozkład populacji jest dowolny o nieznanej średniej [/tex] i nieznanym odchyleniu standardowym , a liczebność próby jest duża .

,

gdzie - średnia z próby, - liczebność próby.
Statystyka ta ma rozkład asymptotycznie normalny.

C. Ustalamy poziom istotności

D. Wnioskowanie
Porównujemy obliczoną wartość statystyki testowej z obszarem krytycznym.
Obszar krytyczny ma postać:
lub

w zależności od użytej statystyki testowej.

Gdy obliczona wartość statystyki testowej należy do obszaru krytycznego, wówczas hipotezę zerową przy ustalonym poziomie istotności odrzucamy na korzyść hipotezy alternatywnej. W przeciwnym wypadku nie ma podstaw do odrzucenia hipotezy zerowej (co nie jest równoznaczne z przyjęciem hipotezy )


test t-studenta dla jednej średniej - pytania na forum statystycznym

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

4. Test istotności współczynnika korelacji liniowej Pearsona
Autor: mathkit Data: 2013-04-22, 13:09
Test istotności współczynnika korelacji liniowej Pearsona (R.A. Fisher, 1915)

Literatura:
R.A.Fisher: "Frequency Distribution of the Values of the Correlation Coefficient in Samples from an Indefinetely Large Population" Biometrika, Vol. 10, No. 4, May 1915

Stawiamy hipotezę zerową:


- korelacja pomiędzy dowa cechami w populacji jest różna od zera

Statystyka testowa ma postać:

, gdzie:

- wartość współczynnika korelacji liniowej Pearsona obliczona na podstawie próby
- liczebność próby

Jeżeli to hipotezę zerową należy odrzucić.
jest wartością krytyczną odczytaną z tablic t studenta dla n-2 stopni swobody oraz poziomu istotności .

Zastosowanie w pakiecie R:
Kod:
cor.test(stats)



Test istotności współczynnika korelacji Pearsona - pytania na forum statystycznym

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

4. test t studenta dla zmiennych zależnych
Autor: mathkit Data: 2013-04-16, 08:55
test t studenta dla zmiennych zależnych

Test ten stosujemy, gdy pomiarów badanej zmiennej dokonujemy dwukrotnie (mamy dwie serie wyników) w różnych warunkach (w różnym czasie).
Dysponujemy zatem różnicami pomiędzy parami pomiarów .

Stawiamy hipotezy:

- średnia z róznic jest równa 0.


Statystyka testowa przy ma postać:

, gdzie:

średnia różnic
odchylenie standardowe różnic

Statystyka ta ma rozkład t-studenta z stopniami swobody.
Obliczoną wartość statystyki testowej porównujemy z obszarem krytycznym postaci:


Jeżeli wartość statystyki testowej należy do obszaru krytycznego, wówczas hipotezę odrzucamy na korzyść hipotezy .

Uwaga: Zakładamy, że populacja różnic ma rozkład normalny.

test t dla zmiennych zależnych - pytania na forum statystycznym

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

5. Test dla dwóch współczynników korelacji Pearsona
Autor: mathkit Data: 2013-04-23, 13:53
Test dla dwóch współczynników korelacji

Stawiamy hipotezę:

Wobec hipotezy alternatywnej:


Statystyka testowa ma postać:


gdzie:




- wielkość i-tej próby (i=1,2)
- obliczone współczynniki korelacji z próby (i=1,2)

Przy założeniu prawdziwości hipotezy zerowej opisywana statystyka ma rozkład zbliżony do rozkładu normalnego.

Test dla dwóch współczynników korelacji Pearsona - pytania na forum statystycznym

Komentarze: 0 :: Zobacz komentarze (Dodaj swój komentarz)

Copyright (C) 2006-2015 Statystycy.pl
Powered by phpBB modified by Przemo © 2003 phpBB Group
Strona wygenerowana w 0,23 sekundy. Zapytań do SQL: 19