15 godzin zajęć statystyka medyczna podział materiału. Wstęp do statystyki



Yüklə 68,55 Kb.
tarix09.02.2017
ölçüsü68,55 Kb.
#8104
15 godzin zajęć - statystyka medyczna - podział materiału.

  1. Wstęp do statystyki:

    1. Co to jest statystyka i czym się zajmuje?  opis i estymacja, czyli przewidywanie parametrów dla całej populacji na podstawie badań na próbkach

    2. podstawowe pojęcia:

      1. populacja

      2. próbka reprezentatywna,

      3. estymatory:

        1. obciążone i nieobciążone (E(v')=v)

        2. zgodny (limN→∞ P(|v'-v|>ε)=0), niezgodny

    3. mierzone wielkości i skala pomiarowa: jakościowa i ilościowa. jakościowa: nominalna, porządkowa. ilościowa: interwałowa (równomierna)  ciągła i dyskretna, ilorazowa

      1. nominalna - wynikiem pomiaru jest rozłączna kategoria, np.: kolor oczu, płeć, grupa krwi,

      2. porządkowa - podobnie jak nominalna, tylko że wyniki można jednoznacznie uporządkować, np.: stopień znajomości języka: podstawowy, średnio zaawansowany, zaawansowany, biegły, lub masa ciała: niedowaga, norma, nadwaga, otyłość. Skala ta może być wyrażana pry pomocy cyfr, np. tak i nie to 1 i 0, lub skala Apgar (0-10)

      3. przedziałowa (interwałowa, równomierna) - tak jak porządkowa, tylko że można obliczyć odległość między wynikami, większość pomiarów należy do tej skali, np.: ciśnienie krwi, masa ciała, temperatura

      4. ilorazowa - to samo co skala przedziałowa z tym że iloraz ma sens (istnieje bezwzględne zero), np. wiek,

    4. Sposoby przedstawiania surowych danych (szeregi statystyczne: szeregi szczegółowe, rozdzielcze i czasowe ):

      1. histogramy, zwykłe i skumulowane - skala przedziałowa/ilorazowa - zmienne ciągłe

      2. wykresy słupkowe - zmienne dyskretne - realizowane w statistica przez histogram

      3. wykresy kołowe - wszystkie skale

      4. łodyga i liście - skala przedziałowa /ilorazowa (diagram łodyga i liście - stat. podstawowe)

      5. wykresy rozrzutu - skala przedziałowa/ilorazowa

    5. Elementy rachunku prawdopodobieństwa:

      1. wynik badania jako zmienna losowa

      2. częstotliwościowa definicja prawdopodobieństwa

      3. Zdarzenia zależna i niezależne, reguły działań dla zdarzeń niezależnych

      4. Prawdopodobieństwo warunkowe i reguły Bayesa

        1. P(A|B)=P(A∩B)/P(B)

        2. P(A|B)=P(B|A)P(A)/P(B)

        3. czułość testu diag.: prawdopodobieństwo że test wypadnie dodatnio zakładając, że pacjent jest rzeczywiście chory.

        4. swoistość testu diag.: prawdopodobieństwo że test wypadnie ujemnie zakładając, że pacjent nie jest chory.

  2. Statystyka opisowa+ wykres ramka wąsy.

    1. miary położenia - tendencji centralnej:

      1. średnia arytmetyczna, ważona - wrażliwa na wartości odstające

      2. mediana

      3. moda

      4. kwartyle, percentyle

    2. miary zmienności

      1. wariancja

      2. odchylenie standardowe

      3. odchylenie ćwiartkowe

      4. współczynnik zmienności lub




        Men

        women

        height

        175 +- 15 cm 0.0857

        165+- 14 cm 0.0848

        mass

        75 +- 10 kg 0.13

        55+-9 kg 0.16

    3. miary symetrii (Histogram --> rozkład prawdopodobieństwa: zmienne dyskretne i ciągłe, funkcja gęstości i dystrybuanta.)

      1. kurtoza K>0 - bardziej smukła niż normalny (rozkład leptokurtyczny), K<0 mniej smukła niż normalny (rozkład platokurtyczny)



      1. skośność (współczynnik symetrii) As>0 - mediana i moda na lewo od średniej (symetria prawostronna - Mo), As<0 symetria lewostronna - Mo>Me>.

lub wersji pozycyjnej:

    1. graficzna prezentacja statystyk:

      1. rysunek ramka wąsy

  1. Rozkłady prawdopodobieństwa, w szczególności rozkład normalny, przedział ufności, wartości krytyczne, centralne twierdzenie graniczne, rozkład t-studenta.

    1. Histogram --> rozkład prawdopodobieństwa: zmienne dyskretne i ciągłe, funkcja gęstości i dystrybuanta.

    2. rodzaj rozkładów prawdopodobieństwa:

      1. symetryczny

      2. asymetryczny

      3. o kształcie J

      4. multimodalny

    3. Rozkład normalny

      1. definicja

      2. właściwości: wartość średnia, wariancja, odchylenie standardowe

      3. standaryzacja

      4. kwartyle i inne dla N(0,1) Q1=-0.67, Q3=0.67

        1. ±σ → 68%

        2. ±2σ → 95%

        3. ±3σ → 99%

      5. przedział ufności, poziom istotności, wartości krytyczne

    4. Inne rozkłady: Poison, binomialny - mogą być często przybliżane rozkładem normalnym

    5. Centralne twierdzenie graniczne

Jeśli będziemy brali średnie n-elementowych próbek z dowolnej populacji (dystrybucji) to będą one w przybliżeniu miały rozkład normalny, którego średnia to średnia populacji, a odchylenie standardowe to (odchylenie populacji)/pierwiastek(n)

    1. Przedział ufności dla średniej ze znaną i nieznaną wariancją populacji

      1. wariancja próbkowania i błąd standardowy (SEM)

      2. średnia próbki jest dobrym nieobciążonym estymatorem średniej populacji

      3. jeśli znamy wariancję populacji - - to możemy oszacować przedział ufności dla prawdziwej średniej populacji. Zakładając, że średnia z próbki powinna z dużym prawdopodobieństwem znajdować się w przedziale ufności określonym przez średnią z populacji

      4. jeśli znamy tylko wariancję próbki to stosujemy rozkład t-studenta z n-1 stopniami swobody - zmienna

      5. Wartości krytyczne rozkładu dla danego poziomu istotności

      6. Dwa sformułowania: w przedziale ufności z prawdopodobieństwem 1-α znajduje się średnia z populacji. W (1-α)*100% przedziałów ufności utworzonych dla losowo wybranych próbek znajduje się średnia z populacji.

  1. Testy dla jednej próbki, schemat 5 punktów, rodzaje błędów.

    1. Testowanie hipotez:

      1. Hipoteza H0 i H1 - alternatywna, poziom istotności α

      2. Błąd pierwszego i drugiego rodzaju, moc testu.

prawdopodobieństwo

H0 prawdziwa

H1 prawdziwa

Nie odrzucamy H0

ok - 1-α

β – błąd 2 rodzaju

akceptacja H1

α - błąd 1 rodzaju

ok - 1-β

Moc testu to prawdopodobieństwo 1-β, że jeśli hipoteza H1 jest prawdziwa to H1 zostanie zaakceptowana.

    1. Test t dla jednej próbki (rozkład Gaussa lub duża próbka)

      1. H0: μ=μ0, σ=σ0; H1:μ≠μ0, σ=σ0 for α=0.05

      2. znajdź



      3. oblicz tα/2 i sprawdź czy t należy do przedziału ufności, czyli, czy jest między -tα/2 i tα/2  jeśli tak to nie mamy podstaw do odrzucenia H0

      4. wartość P - Jeśli P>α → wybieramy H0, jeśli P<α → odrzucamy H0

    2. Analiza graficzna błędów I i II rodzaju na przykładzie testu t dla jednej grupy.

    3. Analiza mocy testu - dobór wielkości grupy i wartości α.

    4. Test t a przedział ufności.

    5. Testy jednostronne Pjedn=P/2, zwrócić uwagę na znak t.

    6. schemat 5 punktów

      1. Zdefiniuj hipotezę zerową i alternatywną, oraz poziom istotności

      2. Zbierz odpowiednie dane

      3. Oblicz wartość statystyki

      4. Oblicz wartości krytyczne odpowiedniego rozkładu, lub/i wartość P.

      5. Zinterpretuj wyniki.

  1. Testy t-studenta dla dwóch próbek zależnych i niezależnych.

    1. Test t dla dwóch próbek zależnych (rozkład normalny różnicy d)

      1. H0: μ12, H11≠μ2, for α=0.05

      2. znajdź

      3. , gdzie S dotyczy d

      4. oblicz tα/2 i sprawdź czy t należy do przedziału ufności, czyli, czy jest między -tα/2 i tα/2  jeśli tak to akceptujemy H0

      5. wartość P ?

    2. Test t dla dwóch próbek niezależnych (rozkład normalny w obu próbkach, równe wariancje, i wielkości prób)

      1. H0: μ12, σ12; H11≠μ2, σ12 for α=0.05 and n1=n2=n

      2. , gdzie i ilość stopni swobody df=2n-2

      3. oblicz tα/2 i sprawdź czy t należy do przedziału ufności, czyli, czy jest między -tα/2 i tα/2  jeśli tak to akceptujemy H0

      4. wartość P ?

      5. Istnieją też wersje dla różnych wielkości prób i nierównych wariancji

    3. Testy t dla dwóch próbek niezależnych o różnych wariancjach i różnych rozmiarach

    4. Sprawdzanie normalności przy pomocy testu Shapiro-Wilka: histogramy lub wykresy normalności

    5. Sprawdzanie równości wariancji przy pomocy testu

    6. Testy jednostronne a test dwustronny.

  2. Testy nieparametryczne dla dwóch próbek: Wilcoxon i Mann-Whitney.

    1. Testy dla próbek zależnych:

      1. test znaków (zmienna co najmniej w skali porządkowej, zmienna w skali interwałowej nie musi mieć rozkładu normalnego)

        1. Tworzymy pary wyników xi i yi

        2. Statystyka W to liczba par w których xi > yi, podlega rozkładowi dwumianowamu

        3. H0: ϕ1= ϕ2 H1: ϕ1≠ϕ2

      2. test rangowy (Wilcoxona) (zmienna w skali interwałowej).

        1. Tworzymy pary wyników zi= xi - yi

        2. Następnie szeregujemy zi wg bezwzględnej wartości od najmniejszej do największej. Odrzucamy zi=0

        3. Przypisujemy kolejne rangi, tak że 1 jest przypisana najmniejszej bezwzględnej wartości, itd.. Gdy mamy kilka takich samych wartości to przypisujemy im rangę równą średniej rozpinanych rang.

        4. Statystyka

        5. H0: ϕ1= ϕ2 H1: ϕ1≠ϕ2

    2. Test Manna-Whitneya dla próbek niezależnych

      1. H0: P(X > Y) =P(Y > X) H1: P(X > Y) ≠ P(Y > X) lub ew. dla próbek symetrycznych H0: ϕ1= ϕ2 H1: ϕ1≠ϕ2

      2. rangujemy wyniki z obu próbek

      3. Obliczamy statystykę U

        1. U jest równe ilości przypadków kiedy zmienna ze zbioru 1 ma większą rangę niż zmienna ze zbioru 2. Dla wygody przyjmujemy, że zbiór 1 ma mniejsze rangi.

        2. Inny sposób: Niech R1 i R2 to odpowiednio sumy rang dla zbiorów 1 i 2. Wówczas



      1. U jest stabelaryzowane dla małych grup (n1,n2 ≤20). Dla dużych próbek może być przybliżone rozkładem normalnym. Gdy wartość U jest dostatecznie mała to odrzucamy H0. Wartość oczekiwana U gdy H0 jest prawdziwa wynosi n1n2/2

    1. Schemat testów:

      1. rodzaj testu: porównanie lub zależność

      2. skala pomiarowa

      3. wybór testu

      4. hipotezy H0 i H1

      5. wynik: P

      6. Interpretacja wyniku

  1. Relacja między danymi (korelacja, regresja)

  1. Jeśli jednocześnie zachodzą (relacja liniowa, nie ma wyników odstających, ani podgrup, normalny rozkład obu zmiennych) wtedy stosujemy współczynnik korelacji liniowej Pearsona r





    1. r2 – jest miarą (ułamkową) zmienności y, która może być wyjaśniona jej liniową zależnością od x --> rysunek przy regresji

    2. Testowanie hipotez:

      1. H0: ρ=0, H1: ρ≠0  zmienna testowa t-student test z n-2 stopniami swobody

      2. H0: ρ=ρ0, H1: ρ≠ρ0  zmienna testowa Gaussian test - transformacja odwrotna

Przedział ufności dla z -->

  1. Jeśli zachodzi któryś z następujących warunków (jedna ze zmiennych jest w skali porządkowej, żadna zmienna nie ma rozkładu normalnego, mała próbka, zależność nieliniowa) wtedy stosujemy współczynnik korelacji Spearmana

      1. rs – r obliczony dla rang

      2. rs2 nie może być interpretowany tak jak r2

      3. Testowanie hipotez jak w przypadku r

  1. regresja liniowa – obliczana gdy zachodzą jednocześnie (liniowa zależność między zmiennymi, niezależne wyniki (nie dla tego samego pacjenta), rozkład zmiennej zależnej y dla danej zmiennej niezależnej x jest normalny, wariancja y jest taka sama dla każdego x, x może być mierzony bez błędu, rozkład normalny reszt)

    1. y=a+bx – współ. a i b liczone metodą najmniejszych kwadratów.



    1. testowanie hipotez dla b - test F dla ilorazu odchyleń kwadratowych zmienność reg./zmienność res.:

      1. H0: β=0, H1: β≠0

    2. b* w statistice to po prostu r.

Yüklə 68,55 Kb.

Dostları ilə paylaş:




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin