24
1 Universität Hannover Prof. Dr. L. Hothorn Naturwiss. Fakultät BSc-Modul Biostatistik (3./ 4. Semester) ZWEISTICHPROBENTESTS - PARAMETRISCHE TESTS ____________________________________ 1. Ein motivierendes Beispiel Effect of light (with light, dark) on root growth of mustard seedlings (rootlenghts in cm) (aus: Handbook of small data sets #95) grown with light 21, 39, 31, 13, 52, 39, 55, 50, 29, 17 grown in the dark 22, 16, 20, 14, 32 ,28, 36, 41, 17, 22 Frage: Sind die Wurzellängen unter Licht vergrößert?

1. Ein motivierendes Beispiel - Biostat · qxxx Quantil rxxx Zufallszahlen (random) pxxx Wahrscheinlichkeit (probability) Beta; Binomial ; Cauchy; Chisquare;Exponential; FDist; GammaDist;

Embed Size (px)

Citation preview

1

Universität Hannover Prof. Dr. L. Hothorn Naturwiss. Fakultät BSc-Modul Biostatistik (3./ 4. Semester)

ZWEISTICHPROBENTESTS -

PARAMETRISCHE TESTS ____________________________________

1. Ein motivierendes Beispiel Effect of light (with light, dark) on root growth of mustard seedlings (rootlenghts in cm) (aus: Handbook of small data sets #95) grown with light 21, 39, 31, 13, 52, 39, 55, 50, 29, 17 grown in the dark 22, 16, 20, 14, 32 ,28, 36, 41, 17, 22 Frage: Sind die Wurzellängen unter Licht vergrößert?

2

2. Das Prinzip

• Versuchsfrage: Sind die Wurzellängen unter Licht vergrößert?

• Behauptung in der Statistik: Hypothesenformulierung

• Definition des Endpunktes (Merkmal, Variable, ...): hier Wurzellänge sei genannt µ (Erwartungswert der Variablen x ⇐ theoretische Form des Mittelwertes)

• Da zwei Entscheidungen möglich sind: dies stimmt/ dies stimmt nicht ==> zwei Hypothesen:

Nullhypothese H0 (in engl. Sprachraum H1) und Alternativhypothese HA (engl. H2) H0: µdunkel = µhell HA: µdunkel < µhell dies bezeichnet man als einseitige Hypothese, da nur längere Wurzeln interessieren. Alternativ könnte man die Hypothese auch zweiseitig formulieren, d.h. man an Unterschieden in den Wurzellängen interessiert (als mehr oder weniger) H0: µdunkel = µhell HA: µdunkel ≠ µhell

3

• Daraus ergibt sich folgendes Entscheidungsschema: • Absolute, unbekannte

Wahrheit Comput

eraus Druck

H0 ist wahr

H0 ist nicht wahr(HA ist wahr)

Entschei dung

H0 gilt - (leer) richtig Fehler 2. Art ß

im Test H0 abgelehnt

* Fehler 1. Art αααα

richtig

Die Entscheidung H0 oder HA erfolgt immer nur mit einer statistischen Unsicherheit (Wahrscheinlichkeit):

* die Entscheidung ' längere Wurzeln' ist mit α% (also z.B. 5%) falsch ==> falsch positiv * die Entscheidung ' unveränderte Wurzellänge' ist mit ß% (also z.B. 20 %) falsch ==> falsch negativ

4

Daraus resultiert das grundlegende Problem der Teststatistik: Man kann nur einen der beiden Fehler α oder β direkt kontrollieren. (Der andere Fehler ergibt sich dann aus den Daten.) Daraus folgt, dass man die Hypothesen derart formuliert, dass der inhaltlich bedeutsamere Fehler der Fehler 1. Art ist. Damit existieren zwei Testvarianten: Signifikanztest: es ist aktiv ein Unterschied zu zeigen H0: µdunkel = µhell HA: µdunkel ≠ µhell

Äquivalenztest: es ist aktiv die Gleichwerigkeit zu zeigen, z.B. die Nebenwirkungsfreiheit eines neuen PSM gegenüber dem alten PSM H0: µPSM_alt > µPSM_neu HA: µPSM_alt = µPSM_neu Der typische Fall in der (üblicherweise suchenden Forschung) stellt der Signifikanztest dar. • Es gibt jedoch einige Anwendungen für

Äquivalenztests: Therapeutische Äquivalenz, Bioäquivalenz, Toxikologie, Nebenwirkungen, Sicherheitsstudien

(Detaillierter im MSc-Modul)

5

Die statistische Testtheorie basiert auf dem Falsifikationsprinzip (POPPER, 1995): man kann keinen Effekt direkt beweisen, sondern nur die Wahr-scheinlichkeit für dessen Gegenteil als sehr gering nach-weisen. � Definition zweier gegensätzlicher Hypothesen Nullhypothese /Alternativhypothese und zweier Fehlerarten: Fehler 1. Art αααα: mit Wkt. αααα wird die Nullhypothese verworfen, obwohl dies in “Wahrheit” falsch ist Fehler 2. Art ß: mit Wkt. ß wird die Nullhypothese nicht verworfen, obwohl dies in “Wahrheit” falsch ist � Aus der Ablehnung von H0 kann auf einen statistisch signifikanten Unterschied geschlossen werden, nicht aber aus der Nichtablehnung auf die Gleichheit (Äquivalenz). � Die Testtheorie ist asymmetrisch: man kann nur einen Fehler direkt kontrollieren αααα oder ß, der andere Fehler ergibt sich dann aus den Daten (Fallzahl, Varianz, usw.)

6

� Auf den Punkt gebracht: allein die inhaltlich vorgegebene direkte Fehlerkontrolle bestimmt die Art der Hypothesenformulierung: auf Unterschied oder auf Äquivalenz (Gleichwertigkeit) Wdh.: Man erkennt nebenbei auch noch einseitige und (zweiseitige) Hypothesenformulierung: Es interessiert (scheinbar) nur, ob unter Beleuchtung die Wurzeln verlängert sind (einseitig). Die andere Variante wäre, dass man sich nur für einen Unterschied interessiert (also mehr oder weniger) ==> zweiseitige Hypothesenformulierung. Regel: • bei klarer a-priori Kenntnis der Testrichtung wähle

immer die einseitige Hypothesenformulierung • im Zweifel immer die zweiseitige

Hypothesenformulierung Sachs (1992): Ziel der Wissenschaft dürfte sein, ein Maximum empirischer Fakten durch ein Minimum an Hypo-thesen zu erklären - und diesen dann wieder zu misstrauen. Das eigentlich Schöpferische ist dabei die Formulierung der Hypothesen. Lassen sich Hypo-thesen in eine Rangordnung bringen und bestehen zwischen ihnen deduktive Beziehungen (d.h. aus einer allgemeinen H. lassen sich spezielle H. ableiten), so liegt bereits eine Theorie vor.

7

Wovon hängt der p-Wert des t-Tests ab? • Nur von den Mittelwertunterschieden? • Oder auch von der Varianz? • Oder auch von der Fallzahl?

# Ableitung des t-Tests # Mittelwertunterschied 1 gruppe.a=rnorm(10,10,1) gruppe.b=rnorm(10,11,1) boxplot(gruppe.a,gruppe.b) tdelta=t.test(gruppe.a,gruppe.b, alternative = c("two.sided"),var.equal

=TRUE) tdelta$p.value # Weniger Fallzahl gruppe.c=gruppe.a[1:5] gruppe.d=gruppe.b[1:5] boxplot(gruppe.c,gruppe.d) tfallzahl=t.test(gruppe.c,gruppe.d, alternative = c("two.sided"),var.equal

=TRUE) tfallzahl$p.value # Erhöhte Varianz gruppe.e=rnorm(10,10,3) gruppe.f=rnorm(10,11,3) tvar=t.test(gruppe.e,gruppe.f, alternative = c("two.sided"),var.equal

=TRUE) tvar$p.value cbind(delta=tdelta$p.value, n=tfallzahl$p.value, var=tvar$p.value)

R-Details

Weiterverarbeitung von Ergebnis-Variablen Beschrieben unter ?t.test … Value tdelta$p.value

8

Teststatistik

t x x s n n= − +( ) / / /1 2 1 21 1

mit sn s n s

n n= − + −

+ −( ) ( )1 1

22 2

2

1 2

1 12

wenn t > kritischer Wert (Quantil genannt) ⇔ statistisch signifikant, d.h. je größer dieser Wert t ist, um so eher wird der Unterschied beachtlich = signifikant sein, also 0.69 oder 2.95 oder 15.3, d.h. Ablehnung der H0 D.h. das Quantil stellt einen kritischen Wert dar, mit dem die Testgröße t (aus den Daten berechnet) zu vergleichen ist und damit über Gültigkeit von H0 bzw. HA entschieden wird. Wie definiert man den kritischen Wert und wovon hängt dieser ab? ==> Gosset (Student) (1908) t-Verteilung

9

3. Die t-Verteilung Definition: Eine stetige, reelle Zufallsvariable y unterliegt einer t-Verteilung mit Freiheitsgrad df, wenn sie die Dichtefunktion: f y

dfdf df

y df mit df mit x e t dtdf

t x( ){( ) / }

( / )( / ) ( , ,..., ) ( )= +

⋅+ ∈ ∞ =− − −∞+

�Γ

ΓΓ1 2

21 1 22 1

0

12

π

besitzt Abkürzung: y ist nach tdf,1-α verteilt (s. Bild unten) Eigenschaften: • symmetrisch zu µ • je größer df, um so steiler ist die Kurve • µ=0 σ2=df/(df-2) • Höhere Momente: Schiefe=0 Exzeß=(3(df-2)/df-4))-3 • Ist t nach tdf verteilt, so ist t2 nach F1,df verteilt • Für df==>∞ konvergiert t gegen N(0,1)

EINSCHUB: N(0,1); N(µ,σ2) • df=n1-1+n2-1= n1+n2 -2 Quantil einer Verteilung:

• wegen Symmetrie gilt: tdf,1-α=- tdf,α

10

# Dichtefunktion der t-Verteilung im Vergleich zur Gaußverteilung x=seq(-5,5,0.1) curve(dt(x,2), from= -5, to=5, lwd=3) curve(dt(x,12), from= -5, to=5, col="red", add=TRUE, lwd=3) curve(dt(x,200), from= -5, to=5, col="blue", add=TRUE, lwd=3) curve(dnorm(x), from= -5, to=5, col="pink", add=TRUE, lwd=3) # Zufallszahlen zt=rt(1000,12) hist(zt) # Kumulative Dichtefunktion x=seq(-5,5,0.1) curve(pt(x,12), from= -5, to=5, lwd=3) # Der p-Wert pt=pt(1.966,12) p.wert=1-pt(1.966,12) p.wert # Varianten der Parameterdefinition einer Funktion # Def.: pt(q, df, ncp=0, lower.tail = TRUE, log.p = FALSE) # (log.p gäbe den Logarithmus von p aus) # i) feste Werte in der formalen Reihenfolge, s.o. # ii) Variable via Namen q=1.966 df=12 p.value=1-pt(q,df) # Mustard Beispiel:zweiseitiger p-Wert p.wert.mustard=(1-pt(1.7748,18))*2 p.wert.mustard # Das Quantil der t-Verteilung t.quant2=qt(0.95,2) t.quant12=qt(0.95,12) t.quant200=qt(0.95,200) n.quant=qnorm(0.95) quantile=cbind(t2=t.quant2, t12=t.quant12, t200=t.quant200,

norm=n.quant) quantile

11

4. Testvarianten library(RODBC) setwd(D:"\\Aktuell_D\\data.xls") mus = odbcConnectExcel("mustard.xls") sqlTables(mus) mustard=sqlQuery(mus, 'select * from "Tabelle1$"') odbcCloseAll() # Einfachster Fall: Zweiseitiger t-Test für homogene Varianzen t.test(Length~Condition, data=mustard, alternative = c("two.sided"), var.equal =TRUE)

R-output Two Sample t-test data: Length by Condition t = -1.7748, df = 18, p-value = 0.09284 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -21.400608 1.800608 sample estimates: mean in group dark mean in group light 24.8 34.6

R-Syntax des t-Tests t.test(x, y,….) x,y … Vektoren oder t.test(formula, data, ….) t.test(formula, data, alternative = c("two.sided", "less", "greater"), mu = 0, paired = FALSE, var.equal = FALSE, conf.level = 0.95, subset, na.action,…) Richtung: Gruppe 2-Gruppe1 in alphabetischer Reihenfolge

12

R-Syntax dxxx Dichte qxxx Quantil rxxx Zufallszahlen (random) pxxx Wahrscheinlichkeit (probability) Beta; Binomial ; Cauchy; Chisquare;Exponential; FDist; GammaDist; Geometric; Hypergeometric; Logistic; Lognormal; Multinomial; NegBinomial; Normal; Poisson; TDist;Uniform;Weibull

Entscheidungsregel bei einseitiger Hypothese: • falls gilt t > tdf,1-α , so wird H0 mit

Wahrscheinlichkeit 1-α abgelehnt, • sonst, d.h. falls gilt t ≤ tdf,1-α gilt die Nullhypothese

weiter, oder statistisch präziser: über eine Verwerfung der Nullhypothese kann nichts ausgesagt werden

Konsequenzen der ein- bzw. zweiseitigen

Hypothesenformulierung: Drei Möglichkeiten existieren, die Richtung von

Hypothesen festzulegen: i) einseitig auf Anstieg H0: µ1 = µ2 HA: µ1 < µ2 ii) einseitig auf Abfall H0: µ1 = µ2 HA: µ1 > µ2 iii) zweiseitig auf Unterschied H0: µ1 = µ2 HA: µ1 ≠ µ2

13

Die Wahl der Hypothesenrichtung ist allein aus der sachlogischen Fragestellung begründet. Der Regelfall stellt die zweiseitige Fragestellung auf Unterschied dar (und sollte im Zweifelsfall immer benutzt werden). Aber es existieren praktisch auch einseitige Frage-stellungen: z.B. nach Wirkstoffgabe soll nur auf Abfall des Schädlingsbefalls getestet werden nach Düngergabe soll nach auf Ertragsanstieg getestet werden Zwischen einseitiger und zweiseitiger Hypothesen-formulierung existiert ein wesentlicher Unterschied:

# einseitig Frage: t > tdf,1-αααα (Anstieg) bzw. t < tdf,1-α (Abfall)

# zweiseitig Frage: t > tdf,1-αααα/2 Beispiel: α=0.05, df=20 einseitig t20,0.95 =1.725;aber zweiseitig t20,0.975 =2.086 Die Wahrscheinlichkeit der Entdeckung eines Unterschiedes ist bei zweiseitiger Hypothesen-formulierung - wesentlich - geringer

14

Frage: Bei zweiseitiger Hypothesenformulierung entscheidet man bei Ablehnung von H0 nur auf Unterschied: Kann man dennoch im Rahmen des Tests aussagen in welcher Richtung dabei die Veränderung ist ? Antwort: Ja. Falls beim zweiseitigen Test H0 abgelehnt wurde, sind nur noch zwei Situationen möglich: entweder ist 1 2 1 2x x oder x x> < Daraus folgt folgende Niveau α-Prozedur: # falls ,1 / 2dft t α−≤ � stop; sonst gehe weiter # falls 1 2x x> dann liegt eine signifikanter Abfall der Gruppe 2 gegenüber der Gruppe 1 vor # falls 1 2x x< dann liegt eine signifikanter Anstieg der Gruppe 2 gegenüber der Gruppe 1 vor Beweis (Abschlußtestprinzip) Was ist letztlich der Unterschied zwischen ein - und zweiseitigen Testen? # in beiden Varianten kann man signifikanten Anstieg (oder Abfall) von Wirkungslosigkeit (Nichtverwerfen der H0) abgrenzen # beim einseitigen Test spart man durch die a-priori Beschränkung der HA Fallzahl (ein Abfall ist genauso viel wert wie keine Aussage)

15

Auswahl von Gruppen für 2-Stichprobentests # Auswahl zweier Gruppen t.test(Sepal.Length ~ Species, data=iris, alternative=c("two.sided"), var.equal=T, subset=(Species !="setosa"))

5. Vier Methoden der Signifikanzdarstellung • ja/nein Entscheidung H0 vs. HA • ja/nein Entscheidung H0 vs. HA, jedoch für drei

festgelegte α Niveaus: 0.05; 0.01 0.001 mit typischerweise folgenden Symbolen: - H0 * 0.05 ** 0.01 *** 0.001 • p Werte = Überschreitungswahrscheinlichkeit der H0,

d.h. kleinstes empirisches α Niveau wo gerade noch H0 abgelehnt wird

* unser obiges Beispiel: p=0.212

* Eine Wahrscheinlichkeit 0<p<1, stark unsymmetrisch H0 abgelehnt ==>0; H0 nicht abgelehnt ==>1

• Zweiseitiges (1-α) Konfidenzintervall für die

Differenz der Erwartungswerte: 1 2 ,1 / 2 1 2 1 2 ,1 / 2 1 21/ 1/ ); 1/ 1/ )df dfx x t s n n x x t s n nα α− −

� �− − + − + +� �

16

# Berechnung Konfidenzintervalle data(iris) zweiseit.CI=t.test(Sepal.Length ~ Species, data=iris, alternative=c("two.sided"), var.equal=T, subset=(Species !="setosa")) zweiseit.CI$conf.int unteres.CI=t.test(Sepal.Length ~ Species, data=iris, alternative=c("less"), var.equal=T, subset=(Species !="setosa")) unteres.CI$conf.int oberes.CI=t.test(Sepal.Length ~ Species, data=iris, alternative=c("greater"), var.equal=T, subset=(Species !="setosa")) oberes.CI$conf.int alle.CI=cbind(ZweiseitCI=zweiseit.CI$conf.int, UntCI=unteres.CI$conf.int, ObCI=oberes.CI$conf.int) alle.CI

Vier Vorteile:

• mit der Regel, wenn der Wert 0 nicht Element des Intervalls ist, wird H0 abgelehnt (und umgekehrt), gleiche Entscheidung wie 1.

• der Abstand des Intervalls von 0 stellt ein Maß für den Grad der Ablehnung der H0 dar

• die Breite des Intervalls stellt auch ein Maß für Streuung und Fallzahl (und das α-Niveau) dar

• das Intervall bleibt beim parametrischen Test auf Basis der Originaldaten in der Dimension des Merkmals, d.h. im Beispiel Wurzellänge in cm; wichtig für Interpretation

Interpretation ein/zweiseitiger Konfidenzintervalle

• Der Fehler 2. Art ß, Testgüte ==>

Entscheidungsschema (s.oben) 6. Das Varianzproblem

17

Eine elementare Voraussetzung muss für die strenge Gültigkeit des t-Tests (und der t-Verteilung) erfüllt sein: Varianzhomogenität 2 2

1 2σ σ= Idee: Sind die Varianzen (und die höheren Momente) homogen (d.h. aber nicht numerisch gleich), dann repräsentiert der Lokationsvergleich allein den Vergleich zweier Verteilungen Dann benutzt man folgende

Testversion t x x s n n= − +( ) / ( / / )1 22

1 21 1 mit s2 ... gemeinsamer Varianzschätzer beider Stichproben Sind die Varianzen nicht homogen, liegt das sog. Behrens-Fisher Problem vor. Eine einfache Lösung stellt die Freiheitsgradadjustierung nach Welch (1947) dar:

( )df

s n s n

s n n s n nwelch =+

− + −12

1 22

2

2

12

12

1 22

22

21 1

/ /

( / ) / ( ) ( / ) / ( )

Teststatistik: t x x s n s n= − +( ) / / /2 1 12

1 22

2 d.h. der Freiheitsgrad wird bei Inhomogenität verringert Beispiel: s1=s2; n=20 df=38 t38,0.95=1.686 s1=0.25; s2 n=20 df=21.4 t21,0.95=1.717 mit diesem höheren Freiheitsgrad wird "bestrafend adjustiert" Frage: warum df=21?

18

# Vergleich t- mit Welch Test library(RODBC) setwd(D:"\\Aktuell_D\\data.xls") mus = odbcConnectExcel("mustard.xls") sqlTables(mus) mustard=sqlQuery(mus, 'select * from "Tabelle1$"') odbcCloseAll() # Einfachster Fall: Zweiseitiger t-Test für homogene Varianzen boxplot(Length~Condition,data=mustard) var.test(Length~Condition,data=mustard, alternative=c("two.sided")) heterogen=t.test(Length~Condition,data=mustard, alternative=c("two.sided"), var.equal=FALSE) heterogen homogen=t.test(Length~Condition,data=mustard, alternative=c("two.sided"), var.equal=TRUE) homogen p.werte=cbind(Homogen=homogen$p.value, Heterogen=heterogen$p.value) p.werte

Auswahlverfahren zwischen t- und Welch -Test Scenario: Man analysiert Realdaten; a-priori kennt man nichts über die Varianzen, nur die Fallzahlen n1 und n2 sind bekannt. • Ein bis heute nicht befriedigend gelöstes Problem • Drei Varianten:

i) Ignorieren, und immer den Standard t-Test benutzen: sehr schlecht, da weder Niveau α garantiert noch die Güte erhalten bleibt, dies insbesondere im unbalanzierten Fall, dramatisch falls si� und ni� ii) Ausschließliche Benutzung des Welch-t-Tests, jedoch für 2 2

1 2σ σ= Welch-t ≠ t-Test

19

iii) Benutzung eines Vortests auf Varianz-homogenität: F-Test oder Levene-Test (robust gegenüber Abweichung von der Gaußverteilung) Allerdings stellen beide Tests keine Tests auf Varianzhomogenität , sondern Varianz-inhomogenität dar.

7. Der t-Test mit gepooltem Varianzschätzer in

Anlagen mit mehr als zwei Gruppen • Sog. multipler t-Test: In höheren Anlagen

(Varianzanalyse) wird folgende Version benutzt t x x MQ n nR= − +( ) / ( / / )1 2 1 21 1 • Der Begriff “multiple” ist irreführend, korrekt ist t-

Test mit gepooltem Varianzschätzer Yield (in kg/ha) of 5 lentil varieties (PETERSEN, 1985)

1 2 3 4 5 740 545 325 740 605 430 440 290 630 505 760 390 870 430 640 540

# t-Test mit gepoolten Varianzschätzer für Soil C vs. D library(RODBC) setwd("D:\\Aktuell_D\\data") lentil = odbcConnectExcel("lentil.xls") sqlTables(lentil) len=sqlQuery(lentil, 'select * from "Tabelle1$"') odbcCloseAll() boxplot(Yield~Variety, data=len) t.test(Yield~Variety, data=len, alternative=c("two.sided"), subset=(Variety !="A" & Variety !="B" & Variety !="E")) attach(len) # wird gebraucht, da in pairwise.t.test kein Formeleditor verfügbar pairwise.t.test(Yield, Variety, data=len, alternative=c("two.sided"),p.adj="none")

20

8. Robustheit gegenüber Abweichung von der Gaußverteilung

• robust gegenüber symmetrischer Nicht-Gaußverteilung

• relativ robust gegenüber schiefen Verteilungen, insbesondere bei nicht zu kleinen Fallzahlen (>10)

• nicht robust gegenüber Ausreißern • wenig robust gegenüber diskreten Verteilungen,

insbesondere bei hoher Bindungszahl und kleinen Fallzahlen, z.B. Bonituren: 2,2,4,5

9. Verbundenes Testproblem: der Paardifferenz-t-Test

• Ein oben nicht genannte Voraussetzung des Zweistichprobentests stellt die Unabhängigkeit der Zufallvariable dar.

• In der Praxis existieren viele Situationen mit abhängigen

Stichproben an den gleichen Stichprobeneinheiten (Parzelle, Pflanze, Zelllinie, Versuchstier etc.):

baseline und Meßwert nach Substanzgabe, 1. Zeitperiode /2. Zeitperiode am gleichen Probanden

(cross-over design) Paarige Organe (re/li)

21

Eine Möglichkeit der Analyse besteht in der Auswertung der Paardifferenzen (am Beispiel t-Test bezüglich Baseline (1) vs. nach Substanzgabe (2)) Bildung der Paardifferenzen: d y yi i i= −1 2 Modifizierter t-Test (Einstichproben-T.):

2

1

1/ ( )

1

n

d d d ii

t d n s mit s d dn =

= = −−

Entscheidungsregel und Konfidenzintervall: analog t-Test mit df=n-1 (d.h. es gibt ja nur eine Fallzahl) Beispiel: Ertrag von Kirschbäumen in zwei aufeinanderfolgenden Jahren (aus Köhler et al. Biostatistik, 1996, S. 98) Baum 1 2 3 4 5 6 7 8 Jahr 1 36 31.5 34 32.5 35 31.5 31 35.5 Jahr 2 34 35.5 33.5 36 39 35 33 39.5 # verbundener t-Test library(RODBC) setwd("D:\\Aktuell_D\\data") kirsch = odbcConnectExcel("cherry.xls") sqlTables(kirsch) cherry=sqlQuery(kirsch, 'select * from "Tabelle1$"') odbcCloseAll() attach(cherry) # wird gebraucht, da paired t.test keinen Formeleditor

kennt t.test(Jahr1, Jahr2,data=cherry, alternative=c("two.sided"),

paired=TRUE)

22

Ein weiteres Beispiel: Mittlerer Schädlingsbefall je Pflanze vor und nach Behandlung mit einer Sprühlösung

Baseline Nachbehandlung d 12.3 10.1 2.1 14.2 9.8 4.4 11.1 12.9 -1.8 9.8 5.8 4.0 10.2 9.5 0.7

10. Zusammenfassung • Der t-Test ist ein fast universell nutzbarer Test zum

Vergleich zweier Gruppen. • Er ist Bestandteil in verschiedenen anderen

Testproblemen (BI, II, III) • Die “Signifikanz” steigt mit: � Mittelwertdifferenz (Effektunterschied) u./o. � Fallzahlen u./o. ���� Varianz(en) u./o. einseitiger statt zweiseitige Hypothese u./o. � α u./o. � βoben (Fallzahlplanung)

23

11. Lernziele • Prinzip der Hypothesenformulierung, Fehler 1. und 2.

Art • Die Teststistik des t-Test; der Zusammenhang

zwischen {Effektunterschied, n, σ, α, β} • Unterschied: ein- und zweiseitiges Testen • Definition des p-Werts • Das Prinzip der t-Verteilung, Quantil • Prinzip und Interpretation von Konfidenzintervallen • Das Varianzproblem; der Welch-t-Test • Unterschied: unverbundenes / verbundenes

Testproblem

12. Vernetzung • vielfältig! wichtige Grundlage! grundlegendes

Verständis erforderlich! • Siehe Vorlesung: Mehrfaches Testen • Zahlreiche Vorlesungen im BSc und MSc-Modulen

mit Testproblemen

13. Buchempfehlung Dalgaard P: Introductory Statistics with R Springer (2002) Verzani, J Using R for introductory statistics. Chapman& Hall 2005

24

Sachs Angewandte Statistik Oldenbourg (1994) Köhler, Voleske (Fehler in Rechnungen, aber gut erklärt)

14. On-line learning DASL Projekt: http://lib.stat.cmu.edu/DASL/ methods: /t-test DASL Australien und Nz http://www.statsci.org/data/index.html