MAT Probabilidad e Inferencia Estadística (Santaló, 1970)
MAT Probabilidad e Inferencia Estadística (Santaló, 1970)
MAT Probabilidad e Inferencia Estadística (Santaló, 1970)
11
µ-a µ µ+a X
....
•
•
• •
PROBABILIDAD E
INFERENCIA ESTADISTICA
por
Luis A. Santaló
Facultad de Ciencias Exactas y Naturales
Universidad de Buenos Aires
Buenos Aires, ARGENTINA
Septiembre de 1970
IV
INDICE
Página
1. La Definición Clásica • . . . . . . . . . . . . . . . . . . • . . . . .
2. Principios Fundamentales..................... 4
3. Probabilidad y Combinatoria . . . . . . . . . . . . . . . . . . 6
4. Probabilidad y Frecuencia . . . . . . • . . . . . . . . . . . . . 9
5. La Probabilidad Subjetiva o Grado de Creencia . . 9
6. La Probabilidad en Torneos . . . . . . . . . . . . . . . • . . . 11
l. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . 33
2. Esperanza Matemática... . . . . . . . . . . . . . . . . . . . . . 37
3. Momentos de Una Variable Aleatoria . . . . • . • . . . . 38
4. La Desigualdad de Tchebycheff . . . . . . . . . . . . . • . . 39
5. Suma de Variables Aleatorias . . . . . . . . . • . . . . . . . 40
6. Producto de Variables Aleatorias . . . . . . . . . • . . • . 42
7. Correlación . . . . . . . . . . . . . . . . . . . . . • . . . . . . . . . . . 44
8. Función Generatriz de Momentos . . . . . . . . . . . . • . 45
9. Función Característica . . . . . . . . . . . . . . . . . • . . . . . 47
10. Regresión................................... 47
1. Inferencia Estadística • . . . . . . . . . . . . . . . . . . . . . . . . . 87
2. Fórmula de Bayes.............................. 88
l. Muestras . . . . . . • . . . . • • . • • . . . . . . . . . . . . . . . . . . . . . . 91
2. Media y Varianza de Una Muestra................ 92
3. Estimadores................................... 94
4. Estimadores Consistentes....................... 96
5. Estimadores Suficientes . . . . . . . . . . . . . . • . . . . • . . • . 97
6. Estimadores Eficientes • . . . . . . . . . . . . . • . . . . . . . . . . 99
7. Estimadores de Máxima Verosimilitud . . . . . . . . . • . 101
l. La Distribución X2 • • • • • • • • • • • • • • • • • • • • • • • • • • • • • 105
2. La Distribución t de Student . . . . . . . . • . . . . . . . . . . . 107
3. Estimación por Intervalos de Confianza........... 109
4. Verificación de Hipótesis . . . . . . . . . . • . . . . . • . . . . • • 111
S. Comparación de Distribuciones Experimentales
2
y Teóricas: Test del X • • • • • • • • • . • • • • • • • • • • • • • • 112
Bibliografía . . . . . . . . . . . . . . . . . • . . . . . . . . . . . . . . . . . . . . . . . . 131
1
LA DEFINICION CLASICA DE PROBABILIDAD Y
PRIMEROS EJEMPLOS
l. DEFINICION CLASICA
"Se lanza al aire por dos veces consecutivas una moneda cuyos
lados opuestos llamaremos "cara" y" cruz". Se pide la probabili-
dad de obtener cara por lo menos una vez". A primera vista
podr{a creerse que los casos posibles son: las dos veces cara,
una vez cara y otra cruz, y las dos veces cruz. Contando de esta
manera nos encontramos con dos casos favorables y tres casos
posibles; por tanto la probabilidad serra 2/3.
z. PRINCIPIOS FUNDAMENTALES
p Ca r _ a ! (a + b - r) ! •
Ca+~, r - (a - r) ! (a + b) !
- 401
p~' 10 ' 10 ' 10 - (iO'!r·
p 19 18 17 .l.
20·19·18 20
6. LA PROBABILIDAD EN TORNEOS
A l 2 2 3 3 3
B 1 l 2 2 6 6
e l l 2 3 5 5
de manera que
y sin embargo
p(A,C) < p(C,A)
i) Si A 1 , A 2 , ••• E B, entonces UA 1 E B,
ii) Si A E B, entonces A =E - A E B.
Como es bien sabido, U significa la unión de conjuntos, y íl la
intersección de éstos.Además el conjunto vacío se representará
por r/J.
a) E A u A E B;
b) r/J E E B;
I. P(A) :<>O
P(U A 1)
III. P(E) = l.
A = (A n B) u (A n B), B = (A n B) u (Á n B)
de las cuales, por el axioma II, se deduce
A uB = (A n B) u (A n B) u (Á n B)
nos da
+ l
1,J ,k
P(A¡ n A3 n A.) -
donde las sumas se extienden en cada caso a todas las combina-
ciones posibles entre los diferentes {ndices i, J, k,
3, LA DEFINICION CLASICA
4, PROBABILIDAD CONDICIONAL
P(A ílB)
P(BIA)
P(A) [2. 7 J
Hay que demostrar que esta definici6n es admisible, es decir,
que la probabilidad condicional PA(B) = P(B j A), definida para
todo B E B, una vez fijado A E B, cumple con los axiomas I, II y
III de toda probabilidad. En otras palabras, hay que probar que
(E, B, PA) es otro espacio de probabilidad.
[2. 12]
y son inaompatibLes si A íl B ~.
5. EJEMPLOS
[ 2. 14 J
•• 3 ••' \
( •• 3 •• .) •
2
n((n.-1)!)
P(A¡) IP(A¡) l.
(n. !)2
23
b) Probabilidad P(A 1 íl Aj). Fijados los lugares en que ocurren
las coincidencias de los números i y J, los n - 2 números restan-
tes pueden ser cualesquiera; por tanto quedan ((n. - 2) !):i casos.
Como los lugares de las coincidencias pueden ser cualesquiera de
los n, resultan, para cada caso, n(n - 1) posibilidades más; en
total, A 1 íl Aj está compuesto de ((n. - 2) ! ):in.(n - 1) casos y por tanto
n (n - 1 )( (n. - 2) !) :i 1
(n. !)2 n(n - 1) '
..!.. .
2
c) Análogamente,
y por tanto
l
1,j,k
P(A 1 n Aj n Ak) G)n(n - 1)(n. - 2) = -fi·
1
Se tiene así como resultado final (procediendo sucesivamente)
que la probabilidad de por lo menos una coincidencia es
1
_ 365. 364••• (365 - r + 1)
365r
n +e
n+r+c
__n__ . n+c n + 2c .
n+r n+r+c r¡+r+2c
n n+c
n+r n+r+c n+r+(f1; 1 -l)c
P 2 = 1-(35/36)
24
= 0,49 .•.
25
2Tb = o, 1157.
También este problema tiene interés histórico. Figura en
Le Opere di Gal.iZ.eo Gal.iZ.ei, vol. XIV, Firenze 1855, bajo el trtulo
Considerazione sopra iZ. giuoco dei dadi, y fue propuesto a Galileo
( 1564-1642) por un jugador que se extrañaba de que la probabilidad
fuera distinta, siendo as{queloscuatronúmeros 9, 10, 11y12 ad-
miten el mismo número de descomposiciones en tres sumandos,
a saber:
9 l +2 +6 l +3 +5 1+4+4 2 +2 +5 2 +3 +4 3+3+3,
10 1 +3 +6 1+4+5 2 +2 +6 2+3+5 2 +4 +4 3+3+4,
11 l +4 +6 1+5+5 2 +3 +6 2+4+5 3 +3 + 5 3+4+4,
12 1+5 +6 2+4+6 2 +5 +5 3+3+6 3 +4 +5 4 +4 +4.
La explicaci6n está, como hemos visto, en que las descompo-
siciones no tienen la misma probabilidad, puesto que por permu-
taci6n de los sumandos pueden provenir de ternas diferentes.
primera. Si p = '
1/2 las dos alternativas so11 equivalentes
'
bilidades), etcétera, ' que hay 5 · 4 • 3 · 2 = 120 posibilidades
resulta
más, y por tanto la probabilidad buscada es 120/7776 = 5/324 =
o, 015.
30
Otros Problemas. Damos a continuaci6n otros ejemplos sim-
ples de problemas, de los que se indica únicamente la soluci6n.
32
3
VARIABLES ALEATORIAS, FUNCIONES DE PROBABILIDAD
10 VARIABLES ALEATORIAS
[3. 2]
P(E) l.
Por otra parte, dado que los valores de f son probabilidades,
es siempre f ;;;, O. Las dos relaciones
[3. 3 J
Supongamos que los valores de Xestán o rdenadosx 1 < X:¡ < • .• <
< Xn· Muchas veces interesa la probabilidad de que X tome un va-
lor iguaZ o menor que x 1 • Su valor será
[3. 4 J
cada uno de los cuales tiene la misma probabilidad 1/8. Los nú-
meros posibles de caras son x 1 =O, x 2 = 1, x 3 = 2, x 4 = 3. Los
valores de la función de probabilidad y de la función de distribución
están dados en la siguiente tabla:
X o 1 2 3
f 1/8 3/ 8 3/ 8 1/8
F 1/8 1/2 7/ 8 1
X= O,I,2,3.
Ejemplo 2.. Una urna contiene 1 2 bo Zi Has nwneradas de 1 a 1 2.
Se saca una boZiZZa y se quiere analizar Za variable aleatoria X =
= número de divisores del número obtenido.
Soluci6n. Se tiene:
No. sacado 2 3 4 5 b 7 8 9 10 11 12
X 2 2 3' 2 4 2 4 3 4 2 6
De aquí se deduce
X 1 2 3 4 6
36
Esto nos dice, por ejemplo, que la probabilidad de que un nú-
mero elegido al azar entre 1 y 12 tenga 3 divisores es f(3) = l/b,
y la probabilidad de que tenga menos de 3 divisores es F(2) = 1/2.
X 2 3 4 5 6 7 8 9 10 11 12
f 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36
F 1/36 1/12 1/6 5/18 15/36 21/36 13/18 15/18 11/12 35/36 1
y 1 2 3 4 5 6
2. ESPERANZA MATEMATICA
Sea una variable aleatoria finita X que puede tomar los valores
xl' x 2 ,
••• , xn con las probabilidades f(x 1 ), f(x.), ... , f(xn).
E(G(X)) =
1
l= l
G(x¡)f(x¡). [3. 6 J
)
Ejemplo l.
La esperanza matemática de la variable aleatoria
X = número que resulta al lanzar un dado, será
E(X) = (1/36)(2 +3.2 +4.3 +5.4 +6.5 +7.6 +8.5 +9.4 +10.3 +
+ll.2+12)=7.
Ejemplo 3, La esperanza matemática del número de divisores
de un número elegido al azar entre 1 y 12, según el ejemplo 2 de
la sección 1, será
[3. 7 J
Var(X) = o 2 = o 2 (X) l
1= l
(x1-a.1)2f(x1). (3.9]
o (3. 11 J
E(X2) - (E(X))2 [3. 12 J
(3. 13 J
4. LA DESIGUALDAD DE TCHEBYCHEFF
E(H(X)) l
1=1
H(x 1 ) f(x1) ~ IH(xa) f(xa)
a
~ K lt(xa)
a
Pero lf(xa) indica la probabilidad de que H(X) sea igual o
mayor que K. Por tanto se tiene
[3. 16 J
j
l
= 1
P(Xi, YJ) = f(x¡), [3. 17 J
cr2(X +Y) = l
1, j
(x1 + Y3 - ª1 - S1)2f(x1)g(yJ) =
l
1,J
(x 1 - a 1 ) 2 f(x 1 )g(y 3 ) + l
1,J
(y 3 - S1) 2f(x1lg(y 3) +
+ 2 L<x1 - a 1
1
)f(x1) lcYJ - 61)g(y3l
j
y como h<y
j
3
) = l,lf(x 1 )= l,E(X-a 1)=0,E(Y-S 1 )=0,resulta[3.20].
1
42
[3. 21 J
En particu ar, s1 a 1 = 1, a 2 - -1,
E(X. Y) = l
1,J
X1Y3f(x1)lf'(yj) = lx1f(x1llY3'7(y3) = E(X). E(Y).
1 j
cov(X, Y) = O. [3. 26 J
Demostraci6n. Se tiene
7, CORRELACION
cov(X Y)
P = o{X) o/Y) • [3.28]
de donde:
a) p 2 s: 1, y por tanto -1 s: p s: l.
b) Si p = ±1, existen valores ),_ = >,. 0 , µ = µ 0 (no ambos nulos),
para los cuales [3. 29] se anula, o sea E(>,. 0 (X - a) + µ 0 (Y - R1 )) 2 =O,
lo que exige que sea
J
º· [3. 31
Esta igualdad significa que los Únicos pares de valores x 1 , YJ de
las variables X, Y que tienen probabilidad distinta de cero de ocu-
rrir, son los que verifican A0 (X 1 - a 1 ) + µ 0 (YJ - S1 ) =O, es decir, los
pares (x1 , YJ) son s;oordenadas de puntos pertenecientes a la recta
[3.31]. Esto implica que entre X e Yhayunacorrespondenciafun-
cional lineal, o sea, se tiene el siguiente teorema.
Teorema 3.5. El aoefiaiente de aorrelaaión es un número real
-1 y +l, taZ que p = ±1 impZiaa que entre X e Y
.aomprendido entre
. . .
Sí X e Ysonindependíentes, hemosvístoquep=O. Sinembargo,
esta condición necesaria no es suficiente para la independencia de
las variables X e Y, Consideremos el siguiente ejemplo. Sea U la
variable aleatoria que representa el número de un dado lanzado al
azar, y sea V la variable análoga para un segundo dado, independiente
del primero. Consideremos las variables aleatorias X= U+ V e Y=
=U-V. Tendremos E(X ·Y)= E(U 2 -V 2 )= E(U 2 ) - E(V 2 ) =O. Por otra
parte, también es E(Y)= E(U) - E(V) = O. Por consiguiente, según
[3.24]escov(X, Y)=O, dedondep=O. Sinembargo, X e Ynosonin-
'l'(t) = E(eXt) = !
1= l
e'it f(x 1). [3.32]
[3.34]
Repitiendo el razonamiento, resulta que si X 1 , X 2 , ••• , Xn son
variables aleatorias independientes, se tiene
[3. 3 5 J
9. FUNCíON CARACTERISTICA
47
10. RECRESION
Sean dos variables aleatorias X e Y y sea f ¡J = f(x 1 , YJ) la pro-
babilidad del par X= x 1 e Y= YJ· De manera análoga a (2. 8], se
tiene ahora
h(X¡) = l..J
J
!J [3,39]
Y~ = lYJf(YJlx1).
J
[ 4. 1 J
F{x) [4. 3 J
(n - r + l)p
1 + (n + l )p - r
b(r;n,p)
b(r - l;n,p) rq rq
Distingamos dos casos: a) Existe un entero r= r 0 talque (n+ l)p=
r 0 • En este caso, para este valor r 0 es b(r 0 ;n,p) = b(r 0 - l;n,p)
y para valores r > r 0 es b(r;n, p) < b(r- l;n, p) (o sea bes decre-
ciente), en tanto que para valores r < r 0 es b(r;n,p) > b(r -1 ;n,p)
(o sea, b es también decreciente hacia la izquierda). En resumen,
b(r;n, p) tiene dos valores iguales, correspondientes a r 0 = (n + l)p
y a r 0 -1, para los cuales toma el valor máximo. b) No existe
un entero r 0 que sea igual a (n + l)p. En este caso, sea r 0 el
Único entero compredido entre (n + l)p- 1 y (n + l)p. Este será el
único valor de r para el cual b(ro - 1 ;n,P) < b(r 0 ;n, p) > t{r0 + 1; n,p),
en tanto que para r < r 0 , la funci6n b(r:n, p) crece y para r > r 0 de-
crece. Es decir, b(r; n, p) tiene en este caso un solo valor r 0 en el
que toma su valor máximo. Como veremos más adelante, este valor
máximo es aproximadamente igual a l/ (Znnpq )1/:a. En las figura s
1 y 2 se dan ejemplos de ambos casos.
b( r; 9, o.4)
0,4
0,3
0,2
0,1
o 2 3 4 5 6 7 8
r
Fig. l.
b(r; 10 1
0 . 2s)
51
0,4
0,3
0,2
0,1
o 2 3 4 5 6 7 8 r
Fig. 2.
38760
1048576
o, 036 ...
p
lO
= (Zº)(l)a:i
10 2
= 184756 =
1048576
o
'
176 .. , .
oª(X) = npq· [ 4. 5 J
t'
00
I'
=o
rb(r;n, p) np, f
r =o
(r - np) 2 b(r;n, p) npq. [4. 6 J
'f(t) [4. 7]
De aquí se dedu·ce,
E(X) '±''(O) np = ª1
E(Xª) '±'"(O) n(n - l)pª + n,p
3, TEOREMA DE BERNOULLI
i
P( X - np \ ~ k/ñ;pq) s p [4. 8 J
que puede escribirse
[4. 9)
h..(PJ.
n
> e, h > e/f!q_ [ 4. 1 o J 53
con lo cual [4. 9] se puede escribir
P(\~
n
- p\ > e) <4.
e n
[4. 11 J
[ 4. 12 J
pq s:t ( 4. 13 J
__x_ 1
P( \ 1. 000 • o, 5 \ s O, o5 ) " l - 4. (0,05 )2 • 1. 000 = O, 9 ,
o sea que hay una probabilidad igual o superior al 90% de que el número
de caras esté comprendido entre 450 y 550,
Problema 4. 3. ¿Cuántas veaes hay que lanzar un dado para
que, aon probabilidad ;;, o, 9, Za freauenaia relativa aon que saZ.ga
eZ. 1 difiera de 1/6 en no más de o, 01?
[4. 14]
y por haber supuesto que las X 1 son independientes dos a dos, también
[4.15]
P (1 2; - ª1 1 ;,, \~) ~ ~2
o bien, poniendo ko/ rn = e:'
56
o bien
o, [ 4. 1 7 J
[ 4. 18 J
º·
Cuando esta igualdad se cumple, se dice que la sucesión X 1 sa-
tisface la Zey débiZ de los grandes números.
np \. . [s. l J
Se tiene
r = 0 , 1,2, . . . [5. 3 J
F(r) [5. 4 J
1 =l
E(X) r
r =o
:>,.r _\
rr:i e A.,
b(r;10,01)
0;4
O;l
0,2
Q1 61
Fig, 3.
o 6
eYr!
0;4
O;l
0,1
Fig. 4,
o 3 4 6
Sin embargo, es más fácil calcular la media y la varianza de
una variable de Poisson de la siguiente manera. Puesto que la
media de una variable binomial es np, que ahora es la constante \,
y la varianza de la variable binomiales n,pq =np(l - p) = \(1 - \/n) -
- \, resulta que la esperanza y la varianza de la variable aleatoria
de Poisson de parámetro A son
'l'(t) [5. 6 J
P 0
= e-a = O, 13 5
P = A.. b. x. [5.9]
[5. 11 J
E(x) =+ [5. 12 J
[5. 14 J
[5.15]
Estas son las ecuaciones fundamentales del proceso,
[5. 16 J
pn = (1-p)pn. [5. 18 J
68 Esta es la probabilidad de que la cola tenga n clientes. En
particular, la probabilidad de encontrar la ventanilla desocupada
esP 0 =:l-p.
_P_ [5. 19 J
1- p
f(T) I
n =o
¡(T\n)P 0 =
[5. Zl J
it(l - p)e-(1-p)itT.
1 [5.ZZJ
it - A..
[6. 2 J
[6. 4 J
_l_ -(r-3)2/3
/3n e . [6. 5 J
Fig. 5,
2. VARIABLES ALEATORIAS CONTINUAS
Fig. 6.
l
E(X) = e = a , o 2 (X) 20 [ 6 .14]
[6.16]
[6.17]
1 -x2/2
cp(x) = !"');;e [6. 18 J
y a la función de distribución
X
q¡(x) =- 1- \ e-xª12 dx
JTñ J_oo •
Estas funciones Cfl(x), q¡(x) han sido tabuladas, Tablas más o me-
nos extensas se encuentran en todos los libros de cálculo de
probabilidades. En el Apéndice III se da un ejemplo de estas
tablas.
$íxl
-x X
Fig. 7. 77
Esta relaci6n hace que sea suficiente tabular it(x) para valores
positivos de x. Un detalle que conviene tener en cuenta para no
proseguir con cálculos innecesarios es que
79
Fig. 8.
[6.28]
= __
l_ e-(x-a:i)2/32
Y 4/Zñ '
donde se ve que la coincidencia es casi total.
0,10
0,09
o,oe
0,07
80 0,06
0,05
0,04
op3
op2
0,01
10 15 20 25 30
Fig. 9.
[6.31]
X-\
lim P ( -
7J,->00
-<z
/T
1 [6. 34 J
o sea
lim l -t..; e-le <P(z). [ó.35]
n, _, '° x < A+z/A r.
Esta relación nos dice que, para A g1'ande, la dist1'ÜJUai6n de
Poisson puede aproximarse mediante la dist1'ibución normal.
Por este motivo, las tablas de la función de Poisson no suelen
pasar de A.= 10. Para valores A.> 10, cada sumando de [6.35] es
despreciable, y la suma debe calcularse por tablas de la función
i/>(z).
l l
E(X) =----¡::- , a2(X) = -
A. 2
.
86
7
LA FORMULA DE BA YES
l. INFERENCIA ESTADISTICA
Z. FORMULA DE BA YES
IP(B n A 1 ).
l
P(A,) P!BIA,) [ 7. 3 J
P(A1iBl = ;'(A,ílB) =
IP(A¡íl B) f P(A 1 ) P(BiAil.
l l
90
8
ESTIMACION POR PUNTO
l. MUESTRAS
[8. 2 J
y la varianza de Za muestra es
82 ~ (x 1 -
= ..l
nl x) 2 = J..~
nlx2 - :x2
1
[8. 3 J
l 1
,_
.....,...,.;it::.L" .................... ~ ------ ............... J -- - - ..
[8. 4 J
iI(x\-:.w1
[8. 5 J
(} =..!&-3.
2 34
[8. 6 J
Aplicando los teoremas del capítulo 3 referentes a la esperan-
za y a la varianza de una suma de variables aleatorias, y tenien-
do en cuenta [8. 1 J y [8. 6 J resulta
52 ={ I(x
l
1 - x)2. [8. 9]
*llX
escribir
n
2
5 1 - E(X) - (X - E(X))Jl =
l
~!cxl-E(X)J 2 - [X-E(X)J2.
93
y
E{X- E{X)) 2 E{X - E(X))2
resulta
52 ={ I(x
l
1 - x)2. [8. 9]
*llX
escribir
n
2
5 1 - E(X) - (X - E(X))Jl =
l
~!cxl-E(X)J 2 - [X-E(X)J2.
93
y
E{X- E{X)) 2 E{X - E(X))2
resulta
(8. 14 J
1
P(iX - E(X) \ ::<: h:o(X)) s; --:¡;¡z • (8. 15 J
Esto nos dice que al tomar X por E(X), el error que se co-
95
mete converge a cero en probabilidad (definici6n 4. 1 ). Por
tanto, el estimador X de E(X) es tanto mejor cuanto mayor es el
tamaño de la muestra, lo cuales intuitivamente evidente (suponien-
do, naturalmente, que o 2 (X) tiene un valor finito).
4, ESTIMADORES CONSISTENTES
1
P(!T- 8 \ .$ h;o (T) + \ 8 -E(T)\) ;¡:, l - h;ª [ 8. 21 J
S. ESTIMADORES SUFICIENTES
1
P(!T- 8 \ .$ h;o (T) + \ 8 -E(T)\) ;¡:, l - h;ª [ 8. 21 J
S. ESTIMADORES SUFICIENTES
I(x1-8)
l
2
= I((x
l
1 -t)+(t-8))
2
l
2
I(x 1 - t) + n(t - 8)
2
6. ESTIMADORES EFICIENTES
E lo log f (X;a., íl 0
2 2
L- 00 J 2 204 1
4
ya que U4"' 30 , Por tanto [8. 26] nos dice que todo estimador de
la varianza de una variable normal tiene la varianza;;,, 2cl'/n,
E{S~) 02 [8.28]
1
[8. 29]
L = -w
1 \
¿(x
l
1 - a) 2 - n log a a - log (v·~
-z Zn) n •
-
1 \
Za
1
a
4¿(X¡ - a) -
n
-:z =
Zo
Q
'
de donde aª = -;.I(X
l
1 - a)ª·
103
9
ESTIMAC ION POR INTERVALOS DE CONFIANZA. VERIFICAC ION
DE HIPOTESIS
[9.2]
X~~ o. [9. 4 J
X~)
2
P(X > = P· [9. 5 J
En general interesa, dados p y n, calcular para que [9. 5 J x;
se cumpla. Para ello se han construido las tablas de x2 (véase el
Apéndice III), que dan el correspondiente X~ para distintos valores
de p y d~ n,. El número n se llama el número de grados de liber-
tad de X.
E(x 2 ) = n, [9. 6 J
[9. 7 J
s~ = -kI(x 1
_ a.l2 [9. 8 J
1
z. LA DISTRIBUCION t DE STUDENT
T = /X~ n [ 9. 11 J
Se demuestra (véase, por ejemplo, Cramer( 4 )) que la función
de densidad de T es
xj-(n+i)/2
+- . [9.12]
n
Fig. 10,
E(T) = O, o 2 (T) - n
- n::z· [9.14]
[9.16]
[9.17]
tiene una distribuci6n normal N(O, 1), como resulta de aplicar el teo-
2 2
rema 6. 1 y teniendo en cuenta que a2(X) = a
2
/nx,
a (Y) = a /nv. Se puede
demostrar que [9.16] y [9.17] son independientes. Por tanto, la va-
riable
[9. 18 J
[9.22]
- s - s
P(a s
nsª s
-¡;a b) = l - r¡ . [9.24]
,..,sz r¡
P(b < 7 ) = Z' P(a s~) = 1 --21-· [9.25]
[9.26]
Por ejemplo, dados T) =O, 10, n = 20, s 2 = l. 000, utilizando las
tablas de xª (para n - 1 grados de libertad), para que se cumplan
las condiciones [9. 25] resulta a= 10, 117 y b = 30, 144, y por tan-
to se tiene el intervalo 663 ~ o 2 ~ 1. 976, con el coeficiente de con-
fianza O, 90.
4. VERIFICACION DE HIPOTESIS
Supongamos nuevamente una variable aleatoria X con funci6nde
probabilidad o de densidad f (x; 8) dependiente de un parámetro 8. Su-
pongamos conocidalaformade la funci6nf, pero noelpq.rámetro 8.
Sehaceunahip6tesis, H 0 , de quesea 8 = 8 0 • Se trata entonces, me-
diante una muestra, de verificar el grado de certeza de esta hip6tesis,
Por costumbre se dice que se trata de verificar la "hip6tesis nula".
A veces, junto con la H 0 se formulan otras hip6tesis H 1 , por ejem-
plo, 8 = 8 1 6 8 < 9 0 ó 8 > 8 0 • Se trata entonces ge verificar tam-
bién estas hip6tesis, llamadas "hip6tesis alternativas". Las lrneas
generales del método a seguir son las siguientes:
P(x E R; 8 = 81 ) = 1 - T) [9.28]
que se llama potencia.
Definición 9. 1. Se llama función de potencia del test definido por
la región R con respecto al valor 8 del parámetro, a la probabi.lidad
[9.30]
o, 05. [9.31]
, sis a =a a o p e e s r:
elige una muestra y se calcula su media x= (1/ n)(x
0
1 + x 2 + ... + Xn).
Si esta media cae fuera del intervalo [a 0 - 1, 96 o/ .Jn, a 0 + 1, 96 o/ /ñ]
se rechaza la hip6tesis a = a 0 " .
u [9.32]
1
U = -- -(2002 + 802 + 402 + 862 + 304 2 + 2302)
l. 000 = 200 ' 69 .
114
El número de grados de libertad es 5. Según las tablas de X2,
el valor 200 queda sin duda en la regi6n crítica. Es decir, se
concluye que, o bien el dado es defectuoso, o el experimento ha
sido mal realizado,
x2 (56 - 55) 2 /55 + (87 - 81¡ 2 /81 + (142 - 152) 2 /152 + (71 -69) 2 /69 +
+ (88 - 90) 2 /90 + (72 - 72) 2 /72 + (100 - 95) 2 /95 + (142 - 144) 2 / 144 +
+ (31 -29) 2 /29 + (23 -23) 2 /23 + (25 - 30) 2 /30 + (48 - 46) 2 /46
6,28.
116
El número de grados de libertad es 7, puesto que elnúmero de
parámetros independientes es 8. En efecto, sabiendo el tamaño de
cada muestra, para conocer todo el experimento, basta conocer,
por ejemplo, el número de fumadores de cada región. Tomando
el nivel de significación O, 05 las tablas dan X~ = 14, 06. Puesto
que 6, 28 queda fuera de la regi6n crrtica, se deduce que el crite-
x
rio del 2 no permite deducir que haya diferencia alguna en la pro-
porci6n de fumadores de una región a otra.
x2 (60 - 66) 2 /66 + (70- 66¡ 2 /66 + (68 - 66) 2 /66 + (20 - 14) 2 /14 +
118
APENDICE I
COMBINATORIA
1. Permutaciones
[ 3)
120
El símbolo(~) se llama el número aombinatorio de n objetos
tomados r a r.
4. Particiones
[ 5]
5. F6rmula de Stirling
121
[6]
Decir que el segundo miembro es un valor aproximado del prime-
ro, cuando n es grande, quiere decir que el límite del segundo
miembro dividido por el primero tiende a la unidad paran-+"',
aunque los valores de ambos miembros de [6] pueden diferir en
cantidades grandes.
6. El Binomio de Newton
1. El Número e
e = lim f1 + -1)n. [ 1J
n-+oo \' n
[2]
~ ~n + xn + [3 J
L nr n!
n= o
En particular
Sea
2
f(x) = ae-b(x-c) , a, b >O.
Queremos calcular
[4]
Por tanto
I = a T· [6]
[8]
123
La esperanza matemática correspondiente a esta funci6n será
La varianza es
2
Por tanto, poniendo de manifiesto la media a y la varianza o ,
se tiene
2
y haciendo el cambio de variables X - a. - ta =za y aplicando [7],
resulta
3. La Funci6n Gamma
n n!
1 1
2 2
3 6
4 24
5 120
6 720
7 5040
8 40320 125
9 362880
10 3 628800
11 39 916800
12 479 001600
13 6227 020800
14 87178 291200
15 1 307674 368000
16 20 922789 888000
Tabla 2
A.r -A.
Valores de la Funci6n de Probabilidad de F oisson Pr = rT e
o o, 819 0,670 0,549 0,449 o, 368 o, 135 o, 050 0,018 0,007 0,001 o,ooo
1 o, 164 0,268 0,329 o, 359 0,368 0,271 o, 149 o, 073 0,034 0,006 o,ooo
2 o, 016 0,054 o, 099 o, 144 o, 184 0,271 o, 224 o, 146 0,084 0,022 0,002
3 o, 001 0,007 0,020 o,038 0,061 o, 180 o, 224 o, 195 o, 140 0,052 0,008
4 o, 001 o, 003 0,008 o, o 15 0,090 o, 168 o, 195 o, 175 0,091 0,019
5 o, 001 0,003 0,036 o, 101 o, 156 o, 175 o, 128 0,038
6 o, o 12 o, 050 o, 104 o, 146 o, 149 0,063
7 o, 003 o, 022 o, 059 o, 104 o, 149 0,090
8 0,001 o, 008 0,030 0,065 o, 130 o, 113
9 o, 003 o, o 13 0,036 o, 101 o, 125
10 o, 001 0,005 o, o 18 0,071 o, 125
11 0,002 0,008 0,045 o, 114
12 o, 001 0,003 0,026 0,095
13 0,001 0,014 o, 073
14 0,007 0,052
15 0,003 0,035
Tabla 3
f (X)
X f(X) X f(X)
o o, 3989 2 0,0540
o, 1 o, 3969 2, 1 0,0440
1 o,2420 3 0,0044
1, 1 0,2178 3, 1 0,0033
1, 7 0,0940 3, 7 0,0004
1, 9 0,0656 3, 9 0,0002
Tabla 4
X <P(x) X <Ji(X)
o, 1 o,5398 2, 1 0,9821
o, 7 o, 7580 2, 7 o, 9965
128
o, 8 o,7881 2,8 o, 9974
1, 5 0,9332 3, 5 0,9998
1, 6 0,9452
1, 7 0,9554
1, 8 o, 9641
1, 9 0,9713
Tab a 5
Distribución de xª: P( 2 > X~) = s°'a kn (x)dX
Valores de X~ Xo
;;:;
ce
w
=
Tal la 6
Distribuci6n t de Student: t>{j Ti > to) = 2 S"'
to
Sn(X)dX
Valor l:lS de t 0
1 o, 158 o,510 1, 000 3,078 6, 314 12, 706 31, 821 63,657
2 o, 142 o,445 o, 816 1, 886 2, 920 4,303 6, 965 9,925
3 o, 137 0,424 o, 765 1, 638 2, 353 3, 182 4,541 5, 841
4 o, 134 0,414 o, 741 1, 533 2, 132 2, 776 3, 747 4,604
5 o, 13 2 0,408 o, 727 1, 476 2, o 15 2, 571 3,365 4,032
6 o, 13 1 0,404 o, 718 1, 440 1, 943 2,447 3, 143 3,707
7 o, 130 0,402 o, 716 1, 415 1, 895 2,365 2,998 3,499
8 o, 130 0,399 o, 706 1, 397 1, 860 2,306 2, 896 3,355
9 o, 129 0,398 o, 702 1, 383 1, 833 2,262 2, 821 3,250
10 o, 129 0,397 o, 700 1, 372 1, 812 2,228 2, 764 3' 169
11 o, 129 o, 396 o,697 1, 363 1, 796 2, 201 2, 718 3' 106
12 o, 128 0,395 o,695 1, 3 56 1, 782 2, 179 2,681 3,055
13 o, 128 0,394 o,694 1, 350 1, 771 2, 160 2,650 3,012
14 o, 128 0,393 o,692 1, 345 1, 761 2, 145 2,624 2, 977
15 o, 128 0,393 o, 691 1, 341 1, 753 2, 131 2,602 2,947
16 o, 128 0,392 0,690 1, 337 1, 746 2, 120 2,583 2,921
17 o, 128 0,392 o,689 1, 333 1, 740 2, 110 2, 567 2,898
18 o, 127 0,392 o,688 1, 330 1, 734 2, 101 2, 552 2,878
19 o, 12 7 o, 391 o, 688 1, 328 1, 729 2,093 2, 539 2, 861
20 o, 127 0,391 o,687 1, 325 1, 725 2,086 2, 528 2,845
25 o, 127 0,390 o,684 1, 316 1, 708 2,060 2,485 2, 787
30 o, 127 0,389 o,683 1, 310 1, 697 2, 042 2,457 2, 750
BIBLIOGRAFIA
Textos Fundamentales
Textos Intermedios
Textos Elementales
Publicadas
Serie de matemática
Serie de física
Serie de química
Serie de biología
En preparaci6n
Serie de matemática
Serie de física
Serie de química
Serie de biología