View
234
Download
2
Category
Preview:
Citation preview
Formeln zur Statistik Statistik - Neff
(1.1) Mittelwert, Varianz bei Einzelwerten (1.2) Freiheitsgrade (1.3) Abweichungsquadrate (1.4) Lineare Einfach-Regression (1.5) Multiple lineare Regression, DW-Tabelle (1.6) A'-Regression (1.7) VT – Regression (2.1) Linearer Trend und Saisonschwankungen (2.2) Logistischer Trend (2.3) Gleitende Mittelwerte (2.4) Wachstumsfaktoren (2.5) Exponentielles Glätten (3.1) Konzentrationsmaße (3.3) Häufigkeitsverteilung (4.1) Wahrscheinlichkeit (4.2) Chi2-Unabhängigkeitstest (4.3) Diskrete Zufallsvariable (4.4) Stichprobenmittel (4.5) Stetige Zufallsvariable (5.1) Binomialverteilung (5.2) Hypergeometrische Verteilung (5.3) POISSON-Verteilung (5.4) Normalverteilung (5.5) Standard-Normalverteilung (5.6) Approximationsbedingungen (5.7) Anpassung und Korrekturfaktoren (5.8) Chi2 - Anpassungstest (6.1) Konfidenzintervall (6.2) Hypothesentest (6.3) σ unbekannt (6.4) Stichprobe ohne Zurücklegen Tabellen
(7.1) Binomialverteilung (7.2) POISSON-Verteilung (7.3) Tabelle FISHER-Prüfmaß xF (7.4) Tabelle Chi2-Prüfmaß χ2 (7.5a) Tabelle STUDENT-Prüfmaß F(t) (7.5b)Tabelle STUDENT-Prüfmaß D(t) (7.6) Standardnormalverteilung FSN
Formeln zur Statistik Statistik - Neff
(1.1) Maßzahlen bei Einzelwerten Mittelwert bei N bzw. n Einzelwerten xi
In der Grundgesamtheit 1
1 N
i
i
µ xN =
= ∑ in der Stichprobe: 1
1 n
i
i
x xn =
= ∑
Abweichungsquadrate ( ) ( )22 2
0
1n
x i i i
i
A x x x xn=
= − = −∑ ∑ ∑
Varianz bei N bzw. n Einzelwerten xi
der Grundgesamtheit: ( )2 2 2
1 1
1 1N N
i i n
i i
x µ x µN N
22
= =
σ = − = − = σ∑ ∑
der Stichprobe: ( )22 2 21
1 1
1 1
1 1
n n
i i n
i i
s x x x nxn n
2
−= =
= − = − = σ − −
∑ ∑
Standardabweichung in der Grundgesamtheit: 2σ = σ in der Stichprobe: 2s s= (1.2) Freiheitsgrade ν "nü" Freiheitsgrade ν (df, degrees of freedom) ist die Anzahl der frei wählbaren, unabhängigen Einzelwerte, die in die statistischen Berechnungen einbezogen werden können. a) bei der Stichprobenvarianz n-1 b) beim FISHER-Prüfmaß ν = n-p-1 p Anzahl der Einflussgrößen c) beim STUDENT-t-Prüfmaß in der multiplen Regression: ν = n-p-1 im Hypothesentest: ν = n -1 d) beim Chi2-Prüfmaß χ2 im Unabhängigkeitstest ν = (k - 1) · (l - 1) im Anpassungstest ν = k – p – 1 (1.3) Abweichungsquadrate bei Regressionsanalysen SS "Sum of Squares", Summe der Abweichungsquadrate A MS Mittlere Summe der Abweichungsquadrate, Varianz σ2, Mean Sum of Squares p Anzahl der Einflussfaktoren
2 2Error
1 1
ˆ( )n n
i i i
i i
A y y e= =
= − =∑ ∑ = SSResiduen ( )2
ResResiduen
ˆ
- -1 1i iy ySS
MSn p n p
−= =
− −∑
2
2 2Gesamt Gesamt Gesamt 1
1
( )( )
1 1
ni iGesamt
i i n
i
y ySSA y y SS MS
n n−
=
−= − = = = =
− −∑∑ σ
2
Regression2erklärt Regression erklärt
1
ˆ( )ˆ( )
ni i
i i
i
SS y yA y y SS MS
p p=
−= − = = = ∑∑
Bestimmtheitsmaß ( ) ( ) ( )
( )
2 2 2
22 1 1 1
22
1
ˆ ˆ
:1 1
n n n
i i i
erklärt i i i
n
gesamti
i
y y y y y ys
rs n n
y y
= = =
=
− − −= = =
− − −
∑ ∑ ∑
∑
Adjustiertes Bestimmtheitsmaß 2 Residuen
Gesamt
1adjust
MSr
MS= −
FISHER-Prüfgröße xFempir = erklärt
Residuen
MS
MS
Formeln zur Statistik Statistik - Neff
(1.4) Lineare Einfach-Regression ŷ = m x + b
Summe der Abweichungsquadrate 2 2Error
1 1
ˆ( )n n
i i i
i i
A y y e= =
= − =∑ ∑
Regressionskoeffizienten ( )22
i i i i
i i
n x y x ym
n x x
− ⋅=
−
∑ ∑ ∑∑ ∑
1
i i
mb y x
n n= −∑ ∑
Korrelationskoeffizient
( )( ) ( )( )2 22 2
i i i i
i i i i
n x y x yr
n x x n y y
− ⋅= ±
− ⋅ −
∑ ∑ ∑∑ ∑ ∑ ∑
Bestimmtheitsmaß r2
FISHER-Prüfgröße xFempir ( )2
erklärt2
Residuen
21
MSrn
r MS= ⋅ − =
−
Die Nullhypothese wird verworfen, wenn xFempirisch > xFc, α | 1 | ν (1.5) Multiple lineare Regression p Einflussfaktoren, ν = n-p-1 Freiheitsgrade Die Nullhypothese wird verworfen, wenn xFempirisch > xFc, α | p | ν Signifikanter Beitrag des Einflussfaktors xk , wenn | tempirisch | > tc, α | ν Tabelle 7.5a Signifikante Interkorrelation zwischen den Einflussfaktoren xj, xk , wenn rjk > 0,5.
Signifikante Autokorrelation, wenn für die DURBIN-WATSON-Prüfgröße gilt: DW1 ∉ [DWunten ; DWoben]
( )2
12
12
1
n
i i
i
n
i
i
e e
DW
e
−=
=
−=
∑
∑
( )2
1
2
1
n
i i k
i kk n
i
i
e e
DW
e
−= +
=
−=
∑
∑
(1.6) A'-Regression ŷ = a ϕ(x) + b Ansatzfunktionen ϕ(x)
Summe der Abweichungsquadrate 2
1
( ( ) )n
i
i
A y a x b=
= − ϕ −∑
Normalgleichungen ( )2
( ) ( ) ( )
( )
i i i i
i i
a x b x y x
a x nb y
ϕ + ϕ = ϕ
ϕ + =
∑ ∑ ∑∑ ∑
Regressionskoeffizienten ( ) ( )22
( ) ( )
( ) ( )
i i i i
i i
n y x y xa
n x x
ϕ ϕ
ϕ ϕ
⋅ − ⋅=
−
∑ ∑ ∑∑ ∑
1
( )i i
ab y x
n nϕ= −∑ ∑
Formeln zur Statistik Statistik - Neff
(1.7) VT–Regression Lineare Regressionsmodelle ŷ(x) = a0 + a1ϕ1(x) + a2 ϕ2(x) + … + ak ϕk(x) mit den Ansatzfunktionen ϕ i (x)
VANDERMONDE-Matrix
0 0 1 0 0
0 1 1 1 1
0 0
1 ( ) ( ) ( )
1 ( ) ( ) ( )
1 ( ) ( ) ( )
k
k
m m k m
x x x
x x x
x x x
ϕ ϕ ϕ ϕ ϕ ϕ = ϕ ϕ ϕ
V
⋯
⋯
⋯
⋯
VANDERMONDE-Gleichung V·a = y ⇒⇒⇒⇒ V
TV a = V
T y Interpolationswert für x =z ŷ(z) = a0 + a1ϕ1(z) + a2 ϕ2(z) + … + ak ϕk(z) (2.1) Linearer Trend und Saisonschwankungen Komponentenmodell yi = ŷi + si + iri
Saisonschwankungen si = yi – ŷi 1
1 k
j ij
i
s sk =
= ∑
Irreguläre Restwerte iri = si – js = yi – ŷî − js
Prognosewerte p̂ = ŷ(xn+z) + ijs
(2.2) Logistischer Trend
Ansatzfunktion ˆ1 mx b
Sy
e +=
+ *
transformiert ln 1S
yy
= −
Regressionskoeffizienten ( )
* *i i *
i i22i i
1i in x y x y mm b y x
n nn x x
⋅ −= = −
−
∑ ∑ ∑ ∑ ∑∑ ∑
(2.3) Gleitende Mittelwerte k vorausgehende und k nachfolgende Zeitreihenwerte Ungerade bzw. gerade Ordnung des gleitenden Mittelwerts
( )
( )m=i+ k-1m=i+k
i m i i-k m i+km=i-k m=i- k-1
1 1 1 1
2 1 2 2 2y y y y y y
k k
= = + + +
∑ ∑ɶ ɶ
(2.4) Wachstumsfaktoren
Indizes 0,
0
kk
BI
B= (Berichtsperiode k, Basisperiode 0)
Wachstumsfaktoren 1
ii
i
yx
y −
= Zuwachsrate ri = xi – 1
Mittlerer Wachstumsfaktor 0
( ) nn
i
yGM x
y= Mittlere Zuwachsrate
0
nn
y
y-1
(Es liegen n+1 y-Werte y0, y1, …, yn vor)
Formeln zur Statistik Statistik - Neff
(2.5) Exponentielles Glätten n Beobachtungswerte, Glättungskonstante α
Prognosewerte, direkt
n 1
n 1 n-i n-i0 i 0
ˆ (1 ) (1 )i i
i
y y y∞ −
+= =
= − ⋅ = − ⋅∑ ∑α α α α
Geglättete Werte, rekursiv i 1 i+1 iˆ ˆ(1 )y y y+ = + − ⋅α α Prognosen für i = n
THEIL'scher Ungleichheitskoeffizient ( )
( )
2
i i
2
i i 1
ˆy yU
y y −
−=
−
∑∑
Die Prognose ist signifikant besser als die naive Prognose, wenn U < 1 (3.1) Konzentrationsmaße
n Merkmalsträger mit den Mengen Mi und den Anteilen an der Merkmalsumme mi. Anteile an den Merkmalsträgern fi. Die k anteilsschwächsten Merkmalsträger.
LORENZ-Kurve aus ( )k k
k ki=1 i=1
| i ix y h m
= ∑ ∑
Gini-Koeffizient KGini = 1 – 2 Aunten mit ( )n
unten i 1 i ii=1
1
2A y y h−= + ⋅∑
(3.2) speziell für i
1h
n=
LORENZ-Kurve aus ( )k
k ki=1
| i
kx y m
n
=
∑
GINI-Koeffizient KGini = 1 – 2 Aunten mit n
unten ii=1
1 1
2A y
n
= −
∑
HERFINDAHL-Koeffizient n
2Herfindal i
i=1
K m= ∑
(3.3) Häufigkeitsverteilungen Stichprobenumfang n, Anzahl der Klassen k, ersatzweise Klassenmitten xi* statt xi.
Relative Häufigkeiten ii
nh
n=
Häufigkeitsdichten ii
i
hf
x=
∆
Empirische Verteilungsfunktion ( )i i i1
( )k
i
i
F F x h h X x=
= = = ≤∑
Zentralwert (Median) xz = xi mit Fi = 0,5
Mittelwert 1 1
1 n k
i i i i
i i
x x n x hn = =
= ⋅ = ⋅∑ ∑
Varianz 2 2 2
1
1
1
k
i i
i
s x n n xn =
= − −
∑ für n ≤ 200. 2 2
1
k
i i
i
s x h x2
=
= ⋅ −∑ für n > 200.
Variationskoeffizient s
vx
=
Standardabweichung 2s s= +
Formeln zur Statistik Statistik - Neff
(4.1) Wahrscheinlichkeit
Statistische Konvergenz ( )lim lim( ) 0 1nn n
W h p→∞ →∞
− = = (Treffer-Wahrschlk. p)
Allgemeiner Additionssatz W(A ∪B) = W(A) + W(B) − W(A∩B) Allgemeiner Multiplikationssatz W(A∩B) = W(A) · W(B|A) Unabhängige Ereignisse W(A∩B) = W(A) · W(B) Verteilungsfunktion F W(a < X ≤ b) = F(b) – F(a) (4.2) Chi2-Unabhängigkeitstest k Zeilen (Anzahl der Kategorien von X), l Spalten (Anzahl der Kategorien von Y). Häufigkeiten nij für den i-ten Wert des Merkmals X und den j-ten Wert des Merkmals Y. Randhäufigkeiten n, ni•, n•j.
Berechnete Häufigkeiten i jij
n nu
n
• •⋅=
Voraussetzung für Test uij ≥ 5
Normierte Abweichungsquadrate ( )2
ij ij
ij
ij
n uq
u
−=
Chi2-Prüfmaß ( )
2
i j2
ijij ij2 2
iji ji 1 j 1 i 1 j 1ij
k l k l
empirisch empirisch
n nn
n u nchi q
n nu
n
• •
• •= = = =
− − = χ = = =∑ ∑∑ ∑∑
Freiheitsgrade für χ2crit | ν | α ν = (k - 1) · (l - 1)
Unabhängigkeitshypothese wird verworfen, wenn 2 2.empirisch critχ > χ .
(4.3) Diskrete Zufallsvariable
Erwartungswert i i1
k
i
x f=
µ = ⋅∑
Erwartete Varianz 2 2 2i i
1
k
i
x f=
σ = ⋅ − µ∑
Erwartete Standardabweichung 2σ = + σ (4.4) Stichprobenmittel
1 2 ... nX X XX
n
+ + += kommt der Normalverteilung mit zunehmendem n immer näher.
Die Xi müssen nicht selbst normalverteilt sein. Die Xi müssen nicht völlig voneinander unabhängig sein.
Erwartungswerte ( ) ( )µ X µ X=
Erwartete Varianzen 1
( ) ( )X Xn
σ = σ X
σσ
n=
Formeln zur Statistik Statistik - Neff
(4.5) Stetige Zufallsvariable
Dichtefunktion f mit f(x) ≥ 0 und ( ) 1 100%f x dx
+∞
−∞
= =∫
Verteilungsfunktion F 2
2 2( ) ( ) ( )x
F x f x dx W X x−∞
= = ≤∫
2
2lim ( ) 1 100%x
F x→∞
= =
Wahrscheinlichkeit 2( ) ( ) ( ) ( ) [ ( )]b
b
a
a
W a X b f x dx F b F a F x≤ ≤ = = − =∫
Erwartungswert ( )µ x f x dx
+∞
−∞
= ⋅∫
Erwartete Varianz ( )22 2 2( ) ( )x f x dx µ x µ f x dx
+∞ +∞
−∞ −∞
σ = ⋅ − = − ⋅∫ ∫
Erwartete Standardabweichung 2σ = + σ (5.1) Binomialverteilung Treffer-Wahrscheinlichkeit p, q = 1 – p, Anzahl der Treffer x.
Binomialkoeffizienten ( 1) ( 2) ... ( 1) !
! !( )!
n n n n n x n
x x x n x
⋅ − ⋅ − ⋅ ⋅ − += = −
Wahrscheinlichkeitsfunktion W(X = x) = fn,p(x) = (1 )x n x x n xn n
p q p px x
− − = −
Verteilungsfunktion Bin | n | p ,0 0
( ) ( )k k
x n x
n p
x x
nF k f x p q
x
−
= =
= =
∑ ∑ Tabelle 7.1
Erwartungswert µ = n p Erwartete Varianz σ2 = n p q
Erwartete Standardabweichung 2σ = + σ (5.2) Hypergeometrische Verteilung N Anzahl der Elemente in der Grundgesamtheit, n Stichprobenumfang M Anzahl der Treffer in der Grundgesamtheit M = N p
Treffer-Wahrscheinlichkeit . 1 1M M
p q pN N
= = − = −
Wahrscheinlichkeitsfunktion | , ,( ) ( )Hyp n N M
M N M
x n xW X x f x
N
n
− ⋅ − = = =
Erwartungswert µ = n p.
Erwartete Varianz σ2 = n p q 1
N n
N
−⋅
−.
Erwartete Standardabweichung Hyp Binσ σ1 1
N n N nn p q
N N
− −= ⋅ ⋅ ⋅ = ⋅
− −
Formeln zur Statistik Statistik - Neff
(5.3) POISSON-Verteilung
Erwartungswert und 1 1µ µ
µ n p p q pn n
= ⋅ ⇒ = = − = −
Wahrscheinlichkeitsfunktion Poi| µ ( )! !
x xµ
µ
µ µf x e
x x e
−= ⋅ =
Verteilungsfunktion Poi | µ0
( )!
xkµ
x
µF k e
x
−
=
= ⋅∑ Tabelle 7.2
Erwartete Varianz σ2 = µ (5.4) Normalverteilung
2
22
1
2 σNorm|µ,σ
1
2 σ2 Norm|µ,σ 2
1Dichtefunktion ( )
σ 2
1Verteilungsfunktion ( ) ( )
σ 2
x µ
x µx
f x e
W X x F x e dx
− −
− −
−∞
=π
≤ = =π ∫
(5.5) Standard-Normalverteilung
Dichtefunktion fSN(z) = 2 21 1
2 21
0, 42
z z
e e− −
=π
Verteilungsfunktion 2 21
21
( ) ( )2
zz
SNW Z z F z e d z−
−∞
≤ = =π ∫ Tabelle 7.6
Erwartungswert µ = 0 Standardabweichung σ = 1
Standard-Normalvariable bzw. x µ
z x µ z−
= = + ⋅σσ
Standardnormalvariable z mit Stetigkeitskorrektur 0,5
σ
x µz
+ −=
(5.6) Approximationsbedingungen Übergang von der Hypergeometrischen V. zur Binomial-V., wenn n/N ≤ 0,05 Binomial-V. zur POISSON-V., wenn n/p ≥ 1500
Hypergeometrischen V. zur POISSON-V., wenn n/N ≤ 0,05 und n/p ≥ 1500 Binomial-V zur Normalverteilung, wenn σ2 = n p q > 9 Hypergeometrischen V. zur Normalverteilung, wenn n/N ≤ 0,05 und σ2 = n p q > 9 POISSON-V. zur Normalverteilung, wenn µ = σ2 > 9 STUDENT-t-V. zur Normalverteilung, wenn n > 30, bei normalverteilter Grundgesamtheit wenn n > 50, bei unbekannter Verteilung der Grundgesamtheit
Formeln zur Statistik Statistik - Neff
(5.7) Anpassung und Korrekturfaktoren µ, σ aus Grundgesamtheit, x , s aus Stichprobe
Diskrete Zufallsvariable X 0,5
σ
x µz
+ −= (Stetigkeitskorrektur)
Stichprobenmittel X x
σσ
σ
x µz n
n
−= ⇒ =
n/N > 0,05: σkorrigiert = σ·1
N n
N
−−
σ unbekannt, n < 30 bzw. n < 50 bzw. s s
x µ x µt t n
− −= =
(5.8) Chi2 - Anpassungstest k Klassen [xi
unten ; xioben], i = 1, 2, …, k. Signifikanzniveau α.
p ist die Anzahl der Parameter ( x , s) , die aus der Stichprobe ermittelt werden.
Standardnormalvariablen obeni
i
x xz
s
−=
Wahrscheinlichkeiten W(–∞ < X ≤ xioben) = FSN(zi)
Wahrscheinlichkeiten wi = FSN(zi) – FSN(zi – 1) mit FSN(z0) = 0 Theoretische Häufigkeiten ui = n · wi.
Testgröße ( )2
ki i2
i 1 i
empirisch
n u
u=
−χ = ∑
Prüfmaß χ2crit | 1 – α | ν Tabelle 7.5
Freiheitsgrade ν = k – p – 1
Entscheidung Verteilungshypothese bestätigt, wenn 2 2empirisch crit.χ ≤ χ
(6.1) Konfidenzintervall
Intervall µ ∈ c cz ; zx xn n
σ σ − +
Intervall-Länge oben unten 2 2 cµ µ zn
σ− = ε =
Abweichung x µε = −
Stichprobenumfang
2
czn
x µ
σ= −
Kritischer Wert c
x µz n
−=
σ
Signifikanzniveau D(zc) = 1 – α
Formeln zur Statistik Statistik - Neff
(6.2) Hypothesentest
Intervall [ ]X Xµ σ , µ σx z z∈ − + Nullhypothese H0 H0 wird verworfen, wenn zempirisch > zkritisch
Empirischer Wert empirisch σ
x µz n
−=
Signifikanzniveau D(zc) = 1 – α (6.3) σ unbekannt, n < 30 bzw. n < 50
Kritischer Wert empirisch
x µt n
s
−=
Signifikanzniveau Dν (tc) = 1 – α mit ν = n – 1.
(6.4) Stichprobe ohne Zurücklegen, n/N > 0,05
Standardweichung des Stichprobenmittels 1x
N n
Nn
σ −σ = ⋅
−
Notwendiger Stichprobenumfang 2
1 ( 1)σc
Nn
Nz
≥ ε
+ −
Formeln zur Statistik Statistik - Neff
(7.1 a)
Formeln zur Statistik Statistik - Neff
(7.1 b)
Formeln zur Statistik Statistik - Neff
(7.2)
Formeln zur Statistik Statistik - Neff
(7.3)
Formeln zur Statistik Statistik - Neff
(7.4)
Formeln zur Statistik Statistik - Neff
(7.5a)
Formeln zur Statistik Statistik - Neff
(7.5b)
Formeln zur Statistik Statistik - Neff
(7.6)
Formeln zur Statistik Statistik - Neff
(7.6)
Recommended