Chebyshovs teorem Vad det består av, applikationer och exempel



den Chebyshovs teorem (eller Chebyshovs ojämlikhet) är ett av de viktigaste klassiska resultaten av sannolikhetsteorin. Det gör det möjligt att uppskatta sannolikheten för en händelse som beskrivs i form av en slumpmässig variabel X, genom att ge oss en dimension som inte är beroende av fördelningen av den slumpmässiga variabeln men på variansen av X.

Satsen är uppkallad efter den ryska matematikern Chebyshev Pafnuty (även skrivet som Chebychev eller Tchebycheff) som, trots att inte vara den första att uttala denna sats, var den första att ge en demonstration 1867.

Denna ojämlikhet, eller de som enligt deras egenskaper kallas Chebyshov-ojämlikhet, används huvudsakligen för att approximera sannolikheter genom beräkning av dimensioner.

index

  • 1 Vad består det av??
  • 2 Ansökningar och exempel
    • 2.1 Bindande sannolikheter
    • 2.2 Demonstration av gränssätten
    • 2.3 Provstorlek
  • 3 Ojämlikhet typ Chebyshov
  • 4 referenser

Vad består det av??

I studien av sannolikhetsteori uppstår om fördelningsfunktionen av en stokastisk variabel X är känd, kan du räkna ut din förväntade värde eller matematiskt förväntan E (X) - och dess varians Var (X), under förutsättning att nämnda belopp existerar. Det ömsesidiga är emellertid inte nödvändigtvis sant.

Det vill säga, att veta E (X) och Var (X) kan inte nödvändigtvis få fördelningsfunktionen för X, så mängder P (| X |> k) för vissa k> 0, är ​​mycket svåra att få tag på. Men tack vare Chebyshovs ojämlikhet är det möjligt att uppskatta sannolikheten för den slumpmässiga variabeln.

Chebyshovs teorem berättar att om vi har en slumpmässig variabel X över ett provutrymme S med en sannolikhetsfunktion p, och om k> 0, då:

Ansökningar och exempel

Bland de många applikationer som Chebyshovs teori har, kan följande nämnas:

Bindande av sannolikheter

Detta är den vanligaste tillämpningen och används för att ge en övre gräns för P (| X-E (X) | ≥k) där k> 0, endast variansen och förväntan av den slumpmässiga variabeln X, utan att känna till sannolikhetsfunktionen.

Exempel 1

Antag att antalet produkter som tillverkats i ett företag under en vecka är en slumpmässig variabel med i genomsnitt 50.

Om vi ​​vet att variationen i en produktionsvecka är lika med 25, vad kan vi säga om sannolikheten att produktionen i denna vecka kommer att skilja sig med mer än 10 från genomsnittet?

lösning

Applicera ojämlikheten hos Chebyshov måste vi:

Av detta kan vi få sannolikheten för att veckan produktions antalet artiklar med mer än 10 genomsnittet är högst 1/4.

Demonstration av gränsteorierna

Ojämlikheten hos Chebyshov spelar en viktig roll vid demonstrationen av de viktigaste gränsteorierna. Som ett exempel har vi följande:

Svag lag av stora antal

Denna lag fastställer att en sekvens X1, X2, ..., Xn, ... av oberoende slumpvariabler med samma genomsnittsfördelning E (Xi) = μ och varians Var (X) = σ2, och ett känt genomsnittligt prov av:

Då för k> 0 måste du:

Eller, likvärdigt:

show

Låt oss först märka följande:

Eftersom X1, X2, ..., Xn är oberoende följer det att:

Därför är det möjligt att bekräfta följande:

Sedan måste vi, med hjälp av Chebyshovs stämning,

Slutligen beror teorem från det faktum att gränsen till höger är noll när n tenderar att vara oändligt.

Det bör noteras att detta test endast gjordes för fallet där Xi-variansen existerar; det skiljer sig inte från varandra. Således observerar vi att stämningen alltid är sann om E (Xi) existerar.

Chebyshovs gränssats

Om X1, X2, ..., Xn, ... är en följd av oberoende slumpvariabler så att det finns några C< infinito, tal que Var(Xn) ≤ C para todo n natural, entonces para cualquier k>0:

show

Eftersom successionen av variationer är enhetligt avgränsad, har vi Var (Sn) ≤ C / n, för alla naturliga n. Men vi vet det:

Genom att göra n tender mot oändlighet, följande resultat:

Eftersom en sannolikhet inte kan överstiga värdet 1, erhålles det önskade resultatet. Som en följd av denna ståndpunkt kunde vi nämna det speciella fallet med Bernoulli.

Om ett experiment upprepas n gånger oberoende med två möjliga resultat (framgång och misslyckande), där p är sannolikheten för framgång i varje experiment och X är den slumpvariabel som representerar antalet framgångar, sedan för varje k> 0 du måste

Provstorlek

I termer av varians, tillåter olikhet Chebyshev oss att finna en provstorlek n som är tillräcklig för att säkerställa att sannolikheten för att | Sn-μ |> = k uppträder är så liten som önskas, vilket tillåter en approximation till medeltalet.

Låt X1, X2, ... Xn exakt vara ett urval av oberoende slumpvariabler av storlek n och låt oss anta att E (Xi) = μ och dess varians σ2. Då, på grund av Chebyshovs ojämlikhet, måste vi:

exempel

Antag att X1, X2, ... Xn är ett urval av oberoende slumpvariabler med Bernoulli-distributionen, så att de tar värdet 1 med sannolikhet p = 0,5.

Vad som borde vara storleken på provet för att säkerställa att sannolikheten att skillnaden mellan det aritmetiska medelvärdet Sn och dess förväntade värde (överstiger med mer än 0,1), är mindre än eller lika med 0. 01?

lösning

Vi har det E (X) = μ = p = 0.5 och att Var (X) = σ2= p (1-p) = 0,25. För ojämlikheten hos Chebyshov, för alla k> 0 måste vi:

Nu tar vi k = 0,1 och δ = 0,01, vi måste:

På detta sätt dras slutsatsen att en provstorlek på minst 2500 behövs för att säkerställa att sannolikheten för händelsen | Sn - 0.5 |> = 0,1 är mindre än 0,01.

Ojämlikhet typ Chebyshov

Det finns olika ojämlikheter relaterade till ojämlikheten hos Chebyshov. En av de mest kända är Markov ojämlikheten:

I detta uttryck är X en icke-negativ slumpmässig variabel med k, r> 0.

Markov ojämlikhet kan ta olika former. Till exempel, låt Y vara en nonnegativ slumpmässig variabel (så P (Y> = 0) = 1) och antar att E (Y) = μ existerar. Antag också att (E (Y))r= μr existerar för ett heltal r> 1. då:

En annan ojämlikhet är den för Gauss, som berättar för oss att den gav en unimodal slumpmässig variabel X med läget vid noll, sedan för k> 0,

referenser

  1. Kai Lai Chung Elementär förmågasteori med stokastiska processer. Springer-Verlag New York Inc
  2. Kenneth.H. Rosen. Diskret matematik och dess tillämpningar. S.A.MCGRAW-HILL / INTERAMERICANA DE ESPAÑA.
  3. Paul L. Meyer. Sannolikhet och statistiska tillämpningar. Inc. MEXICAN ALHAMBRA.
  4. Seymour Lipschutz Ph.D. 2000 Diskret matematik Lös problem. McGraw-Hill.
  5. Seymour Lipschutz Ph.D. Teori och probabilities of probability. McGraw-Hill.