Sannolikhetsteori och statistikteori
DEL 1: Sannolikhet eller hur man beskriver slumpen
utfall – resultatet av ett slumpmässigt försök
utfallsrummet – mängden möjliga utfall
händelse – samling utfall
relativ frekvens – kvoten mellan antalet erhållet utfall och hela antalet utförda kast
disjunkta händelser – kan inte inträffa samtidigt
Kolmogorovs axiomsystem
- Händelsen P(A) måste ligga mellan 0 & 1
- P(utfallsrummet) = 1
- om A & B är parvis oförenliga gäller \( P(A) + P(B) = P(A \cup B) \)
komplementsatsen P(A*) = 1 - P(A)
Additionssatsen P(A or B) = P(A) + P(B) - P(A and B)
oberoende händelser – \( P(A \cap B) = P(A)P(B) \)
Booles olikhet – \( P(A \cup B) \leq P(A) + P(B) \)
De morgans lagar – bra att veta att även boolsk algebra är distributiv.
\[ A \cup (B \cap C) = (A \cup B) \cap (A \cup C) \] \[ A \cap (B \cup C) = (A \cap B) \cup (A \cap C) \]
Kombinatorik
Förutsättningar:
- n element
- k av dessa plockas
Klassiska sannolikhetsdefinitionen Vid likformigt sannolikhetmått är sannolikheten för en händelse lika med kvoten mellan antalet för händelsen gynsamma fall och antalet möjliga fall.
Dragning med återläggning och hänsyn till ordning \[n^k\]
Dragning utan återläggning med hänsyn till ordning \[n*(n-1)(n-2) \cdots (n-k)\]
Dragning utan återläggning utan hänsyn till ordning \[\binom{n}{k}\]
Dragning utan återläggning Urna med kulor av två olika färger. Hur stor är chansen att erhålla k vita? Enl. __Klas. sann._ ges svaret av \[ g/m \] \[ m = \binom{v+s}{n} \] \[ g = \binom{v}{k} \binom{s}{n-k} \] Alltså produkten av sätten att få k stycken vita och alla möjligheter att få resterande svarta.
Dragning med återläggning Samma som ovan men med återläggning. \[ m = (v+s)^n \] \[ g = \binom{n}{k} v^k s^{n-k}\]
Alltså antalet olika kombinationer det finns av k stora samlingar bland n multiplicerat med sannolikheten för k vita multiplicerat med n-k svarta. Allt detta dividerat med m.
Betingade sannolikheten – sannolikheten att något inträffar givet en annan händelse.
\[P(B|A) = \frac{P(A \cap B)}{P(A)}\]
Ger alltså ett samband mellan betingning och snitt.
Lagen om total sannolikhet – genom att summera de olika produkter som ges av sannolikheten för varje möjligt utfall \( H_i \) multiplicerat med sannolikheten att A händer om vi faktiskt fått \( H_i \) får vi den totala sannolikheten att A händer.
\[P(A) = \sum_{i=1}^{n} P(H_i)P(A|H_i)\]
Bayes sats – när man behöver vända på en betingad sannolikhet. Nämnaren i bråket är alltså högerledet i lagen om total sannolikhet.
\[P(H_i|A) = \frac{P(H_i)P(A|H_i)}{\sum_{j=1}^{n} P(H_j)P(A|H_j)}\]
Oberoende händelser – \( P(B|A) = P(B) \)
sannolikheten att minst en inträffar \[A_1 , A_2 , … , A_n \text{ är oberoende }, \quad P(A_i)=p_i\] \[1-(1-p_1)(1-p_2)…(1-p_n) = 1-(1-p)^n\]
1. Endimensionella stokastiska variabler
Den stokastiska variabeln är bron mellan matematiken och slumpen men är inget mer än en reellvärd funktion definierad på ett utfallsrum. Betecknas i texten som versaler från slutet av alfabetet som X, Y, eller Z.
diskret stokastisk variabel
En s.v. är __diskret_ om den kan anta ett ändligt eller uppräkneligt oändligt antal olika värden. funktionen över värdemängden kallas sannolikhetsfunktionen.
Enpunktsfördelning – all massa i ett värde \[p_X(a) = 1\]
Tvåpunktsfördelning – om X endast antar två värden a & b med sannolikheterna p respektive 1- p. ex: krona/klave då X tar värdena a = 1 och b = 0 sägs X vara Bernoulli-fördelad.
Likformig fördelning – X antar värden 1,2,..,m och alla dessa med samma sannolikhet. \[p_X(k)=1/m, k = 1,2,…,m.\]
För-första-gången-fördelning – När samma oberoende försök görs om och om tills ett visst resultat erhålls. Antalet försök t.o.m. resultatet är då en s.v. med ffg-fördelning. \[ p_X(k)=(1-p)^{k-1}p, k=1,2,…,\] \[ X \in ffg(p) \]
Geometrisk fördelning – genom att skippa resultatrundan som räknas in i ffg-fördelningen tillhör X Ge(p). \[p_X(k) = (1 - p)^kp, k = 0,1,2,…,\]
Binomialfördelning – slumpmässigt försök med en händelse A där P(A) = p upprepas n oberoende ggr. \[ p_X(k) = \binom{ n }{ k } p^k ( 1 - p )^{ n - k } \] \[ X \in Bin(n,p) \]
Hypergeometrisk fördelning – uppträdde vid dragning utan återläggning ur urna med vita och svarta kulor. \[ p_X(k) = \frac{\binom{v}{k} \binom{s}{n-k}}{\binom{v+s}{n}}\] \[ X \in Hyp(N,n,p)\]
Poisson-fördelning – beskriver antalet företelser som inträffar oberoende av varandra. \[ p_X(k) = \frac{ \mu^k }{ k! }e^{ -e } \] \[ X \in Po(\mu)\]
kontinuerlig stokastisk variabel
Sannolikhetsfunktionen kallas nu täthetsfunktion och betecknas med f.
Likformig fördelning – X antar alla värden mellan a och b med samma sannolikhet \[ f_X(x) = 1/(b-a) \text{ om } a < x < b >\]
Exponentialfördelning – beskriver tiderna mellan händelserna i en poissonprocess. \[ f_X(x) = \lambda e^{-\lambda x} \quad E(X) = 1 / \lambda, \quad D(X) = 1 / \lambda \]
Normalfördelningen
Weibull-fördelning
Gammafördelning
fördelningsfunktion – Funktion som för varje möjligt utfall beräknar sannolikheten att utfallet blir just detta eller lägre.
funktioner av stokastisk variabel – När man vill veta hur en s.v., Y som beror av g(x), ser ut. Nedan följer generellt tillvägagångssätt för att beskriva \( f_y (y) \) i termer av den kända \( f_x (y) \). Med exemplet: \( g(x) = |X| \)
- Beskriv: \( F_y (y) = P( Y \leq y) \)
- Byt ut Y mot g(X): \( P( g(X) \leq y) \)
- Lös ut X: \( P( -y \leq X \leq y) = F_X (y) - F_X (-y) \)
- \(f_Y (y) = f_X (y) + f_X (-y) \)
intensitet
2. Flerdimensionella stokastiska variabler
Note to self:
- \[ p_{X,Y}(i,j) = p_X(i)p_Y(j) = P(j|i)P(i) \] OBS! Dont forget the last P(i)
Största och minsta värdet
Z = max(X,Y) \[F_Z(z) = F_X(z)F_Y(z)\]
Z = min(X,Y) \[F_Z(z) = 1-[1-F_X(z)][1-F_Y(z)]\]
Gör först om till fördelningsfunktion om täthetsfunktion
Summan av s.v.
- \[f_Z(z) = \int_{\infty}^{\infty} f_X(x)f_Y(z-x)dx\]
3. Väntevärden
Note to self: konstanter inuti väntevärdesfunktioner ser dumt ut så flytta ut dem.
Väntevärdet/E(X)/μ
Är ett typ av lägesmått, precis som medianen. E(X) är väntevärdet för X. E(X) berättar om vad det väntade (__E__xpected) resultatet blir.
DEF: \[ E(X) = \sum_kkp_X(k) \] \[ E(X) = \int\limits_{-\infty}^{\infty} x f_X(x)dx \]
Y = g(X) – Väljer du att interfacea funktionen med en ny variabel som beror av X med samma gamla fördelning så kan man trixa enl. följande \[ E(Y) = \sum_kg(k)p_X(k)\] \[ E(X) = \int\limits_{-\infty}^{\infty} g(x) f_X(x)dx \]
\[ E(X+Y) = E(X)+E(Y) \]
X & Y oberoende
\[ E(XY) = E(X)E(Y)\]
Samling X med samma väntevärde µ \[ E(\sum_{i=1}^n X_i)=n\mu \]
Betingade väntevärden
\[ E(X|Y=k) = \sum_{j=0}^\infty jp_{X|Y=k}(j)\]
\[ E(X|Y=y) = \int_{-\infty}^\infty xf_{X|Y=y}(x)dx\]
Variansen/V(X)/σ²
Variansen är en typ av spridningsmått. Vid beräkning av varians av en summa olika s.v. bör man ALDRIG anta att inblandade s.v. är oberoende. GLÖM MED ANDRA ORD INTE KOVARIANSEN.
DEF: \[ V(X) = E[(X-\mu)^2] \]
Schysta satser: \[ V(X) = E(X^2)-[E(X)]^2 \] \[ V(aX+b) = a^2V(X) \] \[ V(X + Y) = V(X) + V(Y) + 2C(X,Y) \]
- Om oberoende: \( V(X + Y) = V(X) + V(Y) \)
- Om oberoende och med samma σ: \( V(\sum_{i=1}^nX_i) = n\sigma^2 \)
- Om oberoende och med samma σ samt µ: \( V(\bar{X})=\sigma^2/n \)
Tänk på att använda formelsamlingen för att snabbt fastställa variansen för de olika fördelningarna.
Standardavvikelse D(X) eller σ
Schyst mått då man får samma dimension som väntevärdet \[ D(X) = \sqrt{V(X)} \] \[ D(aX + b) = |a|D(X) \] Om oberoende: \[ D(X + Y) = \sqrt{D^2(X) + D^2(Y)} \]
Variationskoefficienten
uttrycks i procent \[ R(X) = D(X)/E(X) \]
fel
- systematiskt fel/bias är differansen mellan mätvärdets väntevärde och det korrekta värdet. (ett tal)
- slumpmässigt fel menas differensen mellan mätvärdet och dess väntevärde. (s.v. med E(X) = 0)
Beroendemått
Kovarians
- Kovariansen C(X,Y) mellan X & Y bör bli positiv om det finns ett beroende sådant att det finns en tendens hos variablerna att samtidigt avvika åt samma håll från sina väntevärden.
- \( C(X,Y) = E[(X-\mu_X)(Y-\mu_Y)] \)
- \( C(X,Y) = E(XY)-E(X)E(Y) \)
- Om C(X,Y) = 0 är X och Y okorrelerade.
- \( X \text{ & } Y \text{ oberoende} \to \text{okorrelerade} \)
Korrelationskoefficienten
- DEF: \[ \rho(X,Y) = \frac{C(X,Y)}{D(X)D(Y)} \]
- Kovarians fast dimensionslös
Stora talens lag
- Ju fler oberoende s.v. med samma µ desto närmre kommer medelvärdet att gå mot µ.
Betingade väntevärden och varianser
Gauss approximationsformler
Har du någonsin känt dig inkapabel? Då är taylorutveckling något för dig! Allt för ofta vill man ha en schyst funktion mitt i väntevärdet men hur räknar man ut E(Y) då!? Du behöver inte vara helt körd i skallen, det kan vara så att du råkat ut för någon av de många fallgropar som kantar väntevägen!
En variabel
- taylorutveckla: \[ g(X) \approx g(\mu) + (X - \mu)g’(\mu) \]
- g(X) har nu approximativa väntevärdet g(µ) samt [g’(E(X))]²V(X) som varians. Med en rak linje blir det enkelt att räkna med µ och σ².
Flera variabler
Abandon all hope, ye who enter here
- taylorutveckla: \[ g(X,Y) \approx g(\mu_X,\mu_Y)+(X-\mu_X)g’_X(\mu_X,\mu_Y)+(Y-\mu_Y)g’_Y(\mu_X,\mu_Y) \]
4. Normalfördelningen
Notes to self:
- ca en tredjedel av massan hamnar utanför en standardavvikelse.
- normalfördelningar bevaras alltid under linjära transformationer
\[ f_X(x) = \frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]
Standardiserad fördelning
Täthetsfunktion: φ Fördelningsfunktion: Φ
\[ \Phi(-x) = 1 - \Phi(x) \]
Allmän fördelning
\[ X \in N(\mu,\sigma) \quad iff \quad Y = (X-\mu)/\sigma \in N(0,1) \] \[ f_X(x) = \frac{1}{\sigma}\varphi(\frac{x-\mu}{\sigma}) \] \[ F_X(x) = \Phi(\frac{x-\mu}{\sigma}) \]
Linjärkombinationer
Om \[ X \in N(\mu,\sigma) \] så gäller att \[ Y=aX+b \in N(a\mu + b, |a|\sigma) \]
Om \[ X_1,X_2,..,X_n \] är oberoende N(µ,σ) och \[ \bar{X} \] är medelvärdet så gäller att \[ \bar{X} \in N(\mu,\sigma/\sqrt{n}) \]
5. De tre vännerna och Binomialfördelning
binomialaren (fördelningen med återläggning)
E(X) = np V(X) = npq
Om oberoende \[ X \in Bin(n_1,p) \quad \& Y \in Bin(n_2,p) \] \[ X + Y \in Bin(n_1+n_2,p) \]
Obs! Glöm inte att Binomialfördelningen är diskret, håll därför koll på gränserna (> != >=)
Kan approximeras till
poissonfördelning – om p är litet normalfördelning – om npq > 10 kan man approximera med N(np,sqrt(npq)). Resultatet blir noggrannare om man vid beräkning av fördelningsfunktion adderar 1/2 till gränsen/gränserna.
Skillnad mellan två binomialfördelade s.v. approximeras till \[ Y_1 - Y_2 \in N(p_1 - p_2, \sqrt{ \frac{p_1 (1-p_2)}{n_1} + \frac{ p_2 (1- p_1)}{n_2}} ) \]
Hypergeometriske (utan återläggning)
E(X) = np V(X) = ((N-n)/(N-1))np(1-p)
Kan aproximeras som
- binomialapproximation om n/N är liten
- normalapproximation om n är stort
Poisson-fördelningen
E(X) = µ V(X) = µ
\[ X_1 \in Po( \theta_1 ) \quad and \quad X_2 \in Po( \theta_2 ) \quad then \quad X_1+X_2 \in Po(\theta_1+\theta_2) \]
Kan approximeras som
- normalfördelning om µ är stort
Multinomial
Markovkedjor
Stokastiska processer vars nästa värde endast beror på nuvarande värde.
övergångsmatris används för att skriva upp “hoppsannolikheterna”.
övergångssannolikheter av N:te ordningen härleds genom att matrismultiplicera övergångsmatrisen med sig själv n ggr. alltså sannolikheten att mellanlanda i ett tillstånd.
För att simulera sannolikheterna att systemet börjar i de olika tillstånden används matrismultiplikation med en radvektor \[ p^{(0)}=(p_1^{(0)},p_2^{(0)},...) \]
\[ \begin{pmatrix} 1 & 2 \end{pmatrix} * \begin{pmatrix} 1to1 & 1to2 \\ 2to1 & 2to2 \end{pmatrix} \]
terminologi
tillstånd – markovkedja är alltid i ett tillstånd. Den lämnar detta enl. övergångsmatrisen
ändlig – ändligt antal tillstånd i kedjan
beständigt – om tillstånd där \( p_{ii} = 1 \) (Gäller alla olika ordningars övergångsmatriser)
- kolla första ordningens sannolikhet att kedjan väljer att hoppa till tillståndet det redan var i, sedan andra ordningens och tredje ordningens. Fortsätt tills du hittat ett samband mellan sannolikheterna, ex. i form av en geometrisk serie. Blir summan 1 har du ett beständigt tillstånd.
- Använd sedan faktumet att om två tillstånd kommunicerar tvåsidigt är de båda antinge beständiga eller båda inte
- Använd sedan faktumet att om alla \( p_{ij} = 0 \) så är j inte beständigt (går ju inte att komma dit (om man inte börjar där men inte sedan kan man ändå inte komma dit igen)).
obeständigt – tillstånd om P(i->i) less than 1
Om två tillstånd kommunicerar tvåsidigt är de båda antingen beständinga eller inte.
irreducibel – om alla tillstånd kommunicerar tvåsidigt med varandra, indirekta anslutningar räknas också.
- rita upp markovkedjan och följ pilarna
stationär fördelning – sannolikheterna att systemet befinner sig i de olika tillstånden.
- skapa sannolikhetsvektorn \( \pi = ( \pi_1, \pi_2,..) \)
- lös ekv. \( \pi = \pi P \) (P är övergångsmatrisen)
\[ p^{(n)}=( p_1^{(n)}, p_2^{(n)} ,…) \to \pi, \quad \text{ när } n \to \infty \]
asymptotisk fördelning – om man i en ändlig kedja kan finna ett \( r>0 \) så beskaffat att alla element i någon kolonn i matrisen P^r är positiva, existerar det en asymptotisk fördelning
periodiska tillstånd – om det alltid krävs ett visst antal hopp för att komma tillbaka till ett tillstånd är tillståndet periodiskt. t.ex. om processen bara kan nå tillbaka till Ei efter 3,6,9,… steg har Ei perioden 3.
aperiodiska tillstånd – om det alltid går att komma tillbaka till ett tillstånd direkt..
DEL 2: Statistik eller vilka slutsatser man kan dra av ett datamaterial
terminologi
parameterrummet – de värden den sökta parametern kan tänkas anta.
stickprov – betecknas med lilla x = (x1,x2,…,xn) för n dimensionella s.v.
stickprovsvariansen – \( s^2 = \frac{1}{n-1} \sum_{j=1}^n (x_j - \bar{x})^2 \)
kovariansen – mellan x- och y-värdena i en datamängd \( ( x_1 , y_1 ),( x_2 , y_2 ),…,( x_n , y_n ) \) \[ c_{xy} = \frac{1}{n-1}\sum_{i=1}^n(x_i-\bar{x})(y_i-\bar{y}) \]
korrelationskoefficienten – \( r = \frac{c_{xy}}{s_xs_y} \)
7. Punktskattning
Lär dig uppskatta saker!
punktskattning – den observerade sannolikheten – ett utfall av stickprovsvariabeln \[ \theta_{obs}^*(x_1,x_2,…,x_n) \]
stickprovsvariabeln – en s.v. som punktskattningen är ett utfall av \[ \theta^*(X_1,X_2,…,X_n) \]
väntevärdesriktig – punktskattning vars tillhörande stickprovsvariabel har väntevärdet θ. dvs om \[ E(\theta^*) = \theta \]
MSE – mean square error – medelkvadratfelet för en punktskattning – mått på slumpmässigt fel \[ MSE = E(( \theta^* - \theta)^2) \]
effektiv skattning – om variansen för \( V( \theta^* ) \leq V( \hat{\theta} ) \) så är \( \theta^* \) effektivare än den andra.
Skattning av μ & σ
µ – stickprovsmedelvärdet \[ \bar{x} \] är en väntevärdesriktig och konsistent skattning av µ och gäller för alla fördelningar
σ^2 – stickprovsvariansen s^2 är en väntevärdesriktig skattning av σ^2 som gäller för alla fördelningar och ser ut så här om μ är känd \[ \frac{ 1 }{ n } \sum_i^n (x_i - \mu)^2 \] Annars skattas μ med medelvärdet av mätdata och man får efter lite väntevärdesriktighetsjustering \[ \frac{ 1 }{ n - 1 } \sum_i^n (x_i - \bar{x})^2 \]
Skattningsfunktioner
Maximum-likelihood-metoden – ML-metoden – Om man vill skatta en parameter till en täthets/sannolikhetsfunktion. Genom att sätta in varje mätdata i sin sannolikhetsfunktion och sedan multiplicera alla dessa får vi sannolikheten att utfallen blev just mätdatan. Vi utnyttjar nu att sannolikhetsfunktionen är som störst när avståndet mellan väntevärdet och mätdatan är som minst genom att derivera över den okända parametern och söka maxpunkt.
- Skapa \[ L(\theta) = P(X_1 = x_1, X_2 = x_2,…,X_n = x_n;\theta) \] alt. \[ L(\theta) = f_{X_1,X_2,…,X_n}(x_1,x_2,…,x_n;\theta) \] (A.k.a. likelihood-funktionen)
- Finn funktionens maxpunkt genom ex. derivering över theta.
- Funktionens största värde är det mest sannolika scenariot.
Minsta-kvadrat-metoden – MK-metoden – Om man vill skatta en parameter till en täthets/sannolikhetsfunktion. När man vet hur parametern förhåller sig till mätdatan kan man ställa upp en summa där varje term motsvarar \( (x_i - g( \theta ) )^2 \). Genom att finna derivatans minimum får vi reda på det värde på θ som gör differanserna så små som möjligt. Så hur går man då tillväga? Jo genom att skapa funktionen \( Q( \theta )) \) och sedan derivera denna och finna minimum för
\[ Q(\theta) = \sum_{i=1}^n [x_i - \mu_i (\theta)]^2 \] \[ \frac{dQ}{d \theta} Q( \theta ) \]
Viss mätdata sämre än resten? Använd vikter framför termerna i \( Q ( \theta ) \) så att de sämre mätningarna får mindre betydelse.
Flera parametrar? Lös partialderivatorna och sedan ekvationssystemet.
Normalfördelningen
Två stickprov med samma σ – M.h.a. ML-skattning får vi som väntat \( ( \mu_1 ){obs}^* = \bar{x} \) samt \( \mu_2 ){obs}^* = \bar{y} \). variansen, å andra sidan, skattas av \[ s^2 = \frac{ \sum_{i_1}^{n_1} (x_i - \bar{x} )^2 +\sum_{i_1}^{n_2} (y_i - \bar{y} )^2 }{ (n_1 - 1 ) + (n_2 - 1 ) } \]
n stickprov med samma σ – En skattning som gäller oavsett hur många stickprov man blandar in ges av \[ s^2 = \frac{ Q_1 + … + Q_n }{ (n_1 - 1) + … + (n_2 - 1) } \] \( Q_i \) är kvadratsumman kring medelvärdet.
8. Intevallskattning
När man vill veta hur stor sannolikhet det är att en okänd parameter ligger inom ett visst interval.
Tillämpning på normalfördelningen
Ett stickprov
µ okänd σ känd
\[\mu* = \bar{x} \]
μ känd σ okänd
\[ (\sigma^2)_{obs}^* = \frac{1}{n} \sum_{i=1}^{n} (x_i - \mu)^2 \]
Konfidensintervall för väntevärdet
σ känd
En lämplig skattning av µ är aritmetiska medelvärdet av X.
\[ \bar{X} \in N(\mu,D) \] \[ D = \sigma/\sqrt{n} \] \[ I_\mu = (\bar{x}-\lambda_{\alpha/2}D,\bar{x}+\lambda_{\alpha/2}D) \]
Allt detta följer av att:
\[ \frac{\bar{X}-\mu}{D} \in N(0,1) \]
Följaktligen gäller med sannolikheten 1-alfa att:
\[ -\lambda_{\alpha/2} < \frac{\bar{X}-\mu}{D} < \lambda_{\alpha/2} >\]
Om vi har ett intervall:
\[ I_\mu = (16 \pm 2.58 * 0.155) \]
där
\[ D = 1.2/\sqrt{60} = 0.155 \]
och man istället vill ha en mindre standardavvikelse, säg 0.5, så kan man sätta upp följande ekvation:
\[ 2 * 2.58 * 1.2/\sqrt{n} = 0.5 \]
σ okänd
I detta fallet gäller en helt galen lösning eftersom man behöver skatta σ
\[ I_\mu = (\bar{x}-t_{\alpha/2}(f)d,\bar{x}+t_{\alpha/2}(f)d) \] \[ d = s/\sqrt{n}, \quad f = n-1 \]
Konfidensintervall för standardavvikelsen
μ känd
Aint gonna happen gurl
μ okänd
\[ I_\sigma = (k_1s,k_2s) \] \[ k_1 = \sqrt{(f/\chi_{\alpha/2}^2(f)} \] \[ k_2 = \sqrt{(f/\chi_{1-\alpha/2}^2(f)} \] \[ f = n-1 \]
Två stickprov
När man vill mäta skillnaden mellan två stickprov. Om de två stickproven parvis korrelerar bör metoden tillhörande stickprov i par användas.
Om σ1 och σ2 är kända:
\[ I_{\mu_1-\mu_2} = (\bar{x}-\bar{y}-\lambda_{\alpha/2}D,\bar{x}-\bar{y}+\lambda_{\alpha/2}D) \] \[ D = \sqrt{ \sigma_{1}^{2} / n_1 + \sigma_{2}^{2} / n_2} \]
Om σ1 = σ2 = σ:
\[ I_{\mu_1-\mu_2} = (\bar{x}-\bar{y}-t_{\alpha/2}(f)d,\bar{x}-\bar{y}+t_{\alpha/2}(f)d) \] \[ d = \sigma \sqrt{ \frac{1}{n_1} + \frac{1}{n_2}} \]
Stickprov i par
När det utförs två mätningar på n olika objekt, t.ex. före och efter något har hänt. Då alla objekt kan skilja sig åt är det svårt att göra skattningar om de enskilda objekten men på samma gång perfekt läge för att skatta skillnaden mellan mätningarna.
Skapa \( z = y - x \) och använd z för skattning av standardavvikelse.
9. Hypotesprövning
nollhypotes – hypotesen att det inte föreligger något fenomen som kräver en förklaring. Betecknas: \( H_0 \)
mothypotes – hypotes som kan vara sann om inte nollhypotesen är det. Betecknas: \( H_i \)
signifikansnivå/felrisk – sannolikheten att nollhypotesen förkastas trots att den är sann. (Ju lägre desto bättre).
- signifikant* – 0.05
- signifikant** – 0.01
- signifikant*** – 0.001
testvariabel/teststorhet – observation av stickprovsvariabel. Tackvare normalapproximation lämpar sig ofta testvariabler på formen \( ( \theta^* - \theta_0 )/D \). Där \( \theta^* \) är det skattade väntevärdet, \( \theta_0 \) är väntevärdet som gäller för nollhypotesen och \( D \) är standardavvikelsen för skattningen.
signifikanstest 1. Om \(t_{obs} \in \text{jätteosannolikt område} \) förkasta \( H_0 \) 2. Om \( t_{obs} \) å andra sidan är ett sannolikt utfall, även i vanliga fall så bör \( H_0 \) inte förkastas.
direkt- och P-värdesmetoden – anta \( H_0 \) och beräkna sannolikheten att man får det utfall man fått eller något värre. “Värre” betyder alla utfall som är ännu mindre sannolika om \( H_0 \) stämmer.
konfidensmetoden – genom att beräkna konfidensintervall för variabel och sedan förkasta nollhypotesen om värdet hamnar utanför.
Testkvantitet – använd testvariabel och tabell och se om testvariabeln är större eller mindre än en viss α-kvantil.
styrkefunktionen \( h(\theta) = P(H_0 \text{ förkastas}) \) om θ är det rätta värdet.
- bör vara stort för alla θ som tillhör mothypotesen
- bör vara litet för alla θ som tillhör nollhypotesen
- h(θ) kallas testets styrka för θ
How to styrkefunktion
- \( X \in N( \theta, 0.04) \) Antag \( H_0: \theta = 2.0 \) och sätt upp villkoret för att förkasta \( H_0 \). e.g. \( | X - 2.0 | \geq 0.04 \lambda_{0.025} \)
- Skapa nu styrkefunktionen \(h(\theta) = P(| X - 2.0 | \geq 0.04 \lambda_{0.025}) = 1 - P(-0.04 \lambda_{0.025} \leq X - 2.0 \leq 0.04 \lambda_{0.025}) \). Denna duger inte än eftersom den inte beror av θ.
- Då styrkefunktionen alltså går ut på att få se sannolikheten att \( H_0 \) förkastas när \( E(X) = \theta \) antar vi att \( E(X) = \theta \) och bildar variabelbytet \( u = \frac{X - \theta}{0.04} \) för att kunna använda den standardiserade normalfördelningen.
- Via enklare räkning byter vi ut \( (X - 2.0)/D \) mot (\( u \) och kan då använda den standardiserade nomralfördelningens fördefördelningsfunktion \[ h( \theta ) = 1 - \Phi ( \lambda_{0.025} + \frac{2.0 - \theta}{0.04}) + \Phi (- \lambda_{0.025} + \frac{2.0 - \theta}{0.04}) \]
10. Regressionsanalys
När man vill se samband mellan två eller flera storheter.
observera!
- Använd alltid t-fördelningen när standardavvikelsen blivit skattad.
Icke linjära samband – Logaritmera \[ y_i = c e^{\beta_{t_i}} \epsilon_i \] \[ ln y_i = ln c + \beta t_i + ln \epsilon_i \] Glöm nu inte att använda \( ln y_i \), alltså inte \( y_i \). Samma gäller alla sådana termer.
Terminologi
teoretiska regressionslinjen \[ y = \alpha + \beta x \]
parameterskattningar
\[ \sum x_i , \quad \sum x_i^2 , \quad S_{xx} = \sum_{i=1}^n (x_i - \bar{x})^2 = \sum_{i=1}^n x_i^2 - \frac{1}{n} (\sum_{i=1}^n x_i)^2 \]
\[ \sum y_i , \quad \sum y_i^2 , \quad S_{yy} = \sum_{i=1}^n (y_i - \bar{y})^2 = \sum_{i=1}^n y_i^2 - \frac{1}{n} (\sum_{i=1}^n y_i)^2 \]
\[ \sum x_i y_i , \quad S_{xy} = \sum_{i=1}^n (x_i - \bar{x}) (y_i - \bar{y}) = \sum_{i=1}^n x_i y_i - \frac{1}{n} (\sum_{i=1}^n x_i) (\sum_{i=1}^n y_i) \]
Punktskattningar
Remember MK-metoden? Bestäm minimum för
\[ Q( \alpha , \beta ) = \sum_{i}^n (y_i - \mu_i)^2 \] \[ \mu_i = \alpha + \beta x_i \]
Genom att sätta partialderivatorna till noll fås
\[ \beta^* = \frac{S_{xy}}{S_{xx}} \quad \alpha^* = \bar{y} - \beta^* \bar{x} \]
\[ ( \sigma^2 )^* = s^2 = \frac{Q_0}{n-2}, \quad Q_0 = S_{yy} - S_{xy}^2 / S_{xx} \]
Observera att
\[ \mu_0^* = \alpha^* + \beta^* x_0 \in N( \alpha + \beta x_0 , \sigma \sqrt{ \frac{1}{n} + \frac{(x_0 - \bar{x})^2}{S_{xx}}}) \]
Intervallskattningar
Prediktionsintervall för observationer – När man vill göra ett konfidensintervall för framtida observationer av \( Y \) för \( x = x_0 \)
Kalibreringsintervall – Då man erhållit värde \( y_0 \text{ på } y \), vad blir då \( x_0 \)
Stokastiska vektorer
stokastisk vektor – Kolonnvektor vars element är stokastiska variabler. Den kan alltså representera en n-dimensionell stokastisk variabel. \[ X = [X_1,…,X_n]^T \]
väntevärdesvektorn – Elementvis beräknade väntevärden för \( X \)
kovariansmatrisen – Också en funktion på \( X \). Denna genererar \( C(X_i,X_j) \) på \( X_{ij} \). Då \( C(X,X) = V(X) \) hittar man varianser för de olika s.v. på diagonalelementen.
Multipel regression
För stilrenhet döps \( \alpha \) om till \( \beta_0 \).
\[ y_i = \beta_0 + \beta_1 x_{i1} + … + \beta_k x_{ik} + \epsilon_i, \quad i=1,…,n \]
Skriv modellen på matrisform för att generalisera ytterligare. \[ y = X \beta + \epsilon \]
QUICKGUIDE: – en guide för formelsamlingsägare: 1. Beräkna \( \beta^* \). 2. Beräkna \( s^2 = \frac{Q_0}{n-(p+1)} \)
TIPS: – för dig som vill bli regressiv king
Välj många olika kombinationer av \( x_{ij} \). – Om alla \( x_{ik} \) är samma kommer normalekvationen sakna entydlig lösning eftersom normalen då balanserar på en linje av mätdata och och inte är utspridd över axeln tillhörande \( x_{ik} \).
Håll koll på (n - (p + 1)) – då summan återkommer i variansskattning och som antal frihetsgrader till t-fördelningen. p är antalet olika x-variabler och därav också antalet x-dataserier med n värden i varje serie.