Apuntes 1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

1

UNIDAD I: INTRODUCCIÓN A LAS PROBABILIDADES

1.1 Historia e importancia de la Probabilidad

Antes de abordar los diferentes tópicos del cálculo de probabilidades, es necesario


empezar definiendo lo que se entiende o debe entenderse por estadística, a manera de
justificar el porqué se debe estudiar la Probabilidad.

Para la aceptación popular la estadística es solo una colección de datos numéricos, tablas y
gráficas referentes a alguna actividad o fenómeno, tales como accidentes de tránsito,
volumen de ventas o de producción, índice de desempleo, etc. En todo caso, la
compilación, organización y la presentación de datos en forma ordenada y sistemática son
solo una parte incidental de la Estadística.

Por estadística debe entenderse como la metodología científica, cuya función principal es
la elaboración de principios y métodos que ayuden a tomar decisiones frente a la
incertidumbre. Estos principios y métodos son de aplicación y utilidad general en cualquier
campo de la ciencia: física, biológica, educativa, etc.

Si consideramos algunos problemas en el campo económico y comercial, las siguientes son


algunas preguntas, entre muchas, a las que, mediante la Estadística podrían darse
respuestas adecuadas y coherentes:

¿Qué efectos a causado una campaña publicitaria, en la preferencia de los consumidores


por determinado producto?

¿Cuál es la demanda actual de cierto producto y cuanto se espera que sea en un fututo
próximo?

¿Es significativa la diferencia observada durante los últimos años en las propensiones
marginales a consumir a corto y largo plazo?

¿Debe comercializarse o no hacerlo un nuevo producto? ¿Por qué?

La Estadística se divide en dos ramas amplias: la Estadística Descriptiva y la Inferencia


Estadística.

La Estadística Descriptiva, se ocupa del resumen de datos y la descripción de los mismos,


mientras que la Inferencia Estadística, apoyada en el cálculo de probabilidades, tiene que
ver con el proceso de utilizar datos para efectuar estimaciones, predicciones y decisiones,
así como otras generalizaciones. Los datos utilizados para la inferencia provienen de otro
2

conjunto mayor de datos sobre los cuales se hacen generalizaciones a partir de datos
muestrales. Sin embargo, estas generalizaciones, es decir, las extensiones de lo particular a
lo general no proporcionan certeza, pero el "riesgo" puede medirse en términos de
probabilidades.

Sin propósito de extendernos mucho sobre la Estadística Inferencial, diremos que para una
inferencia pueden emplearse ya sea, únicamente los datos suministrados por la observación
de una parte del total (datos de una muestra) o bien introducir al margen de los datos una
información a priori. En el primer caso la inferencia inductiva, y en el segundo, bayesiana.
La inferencia clásica se origina en los estudios de Fischer, Neyman y Pearson y está ligada
fundamentalmente a la concepción objetivista de la probabilidad, en cambio la inferencia
Bayesiana está basada en una información a priori a la vez que usa datos de una muestra.
Esto supone introducir hipótesis, formas de distribución, etc. que pueda tenerse a priori.

Puesto que la Inferencia Estadística se funda en el cálculo de probabilidades y éste tiene


que ver con lo que se llaman "eventos o sucesos aleatorios", empezaremos definiendo lo
que se entiende por tales, para luego abordar el concepto de Probabilidad y más adelante
estudiar algunos modelos matemáticos (probabilísticos) empleados frecuentemente en
Inferencia Estadística.

La inferencia estadística es una parte de la estadística matemática que nos proporciona toda
la teoría probabilística y de juegos que permite realizar inferencias a partir de indicadores
estadísticos muestrales, realizar conclusiones y generalizaciones válidas para toda una
población. La estadística inferencial se basa en las probabilidades, debido a que en muchos
procesos existe un riesgo o margen de error que se lo mide a través de probabilidades.

1.2 Algunos conceptos básicos de probabilidad

Probabilidad es la ocurrencia o no ocurrencia de un hecho, suceso o fenómeno dentro de un


momento de tiempo determinado y bajo ciertas condiciones.

Desde el punto de vista de la concesión clásica una probabilidad está definida como el
cociente entre el número de casos posibles o probables sobre el total de casos.

Sea “A” un suceso cualquiera que ocurre de n(A) formas y sea “N” el total de casos.

n A # de casos posibles
P A
 
N Total de casos
3

0  P A   1

Las probabilidades pueden expresarse de tres maneras: en tanto %, en tanto por uno y en
forma de quebrado. La probabilidad es siempre positiva, no puede ser menor a cero ni
mayor a la unidad.

Experimento: En sentido general un experimento es una acción, una prueba o ensayo para
obtener un resultado determinado.

Existen dos tipos de experimentos:

1) Cuando realizamos las mismas cosas y logramos lo mismo; son de tipo físico y químico
(son resultados que de antemano ya sabemos lo que se va a obtener).

2) Cuando realizamos las mismas cosas y los resultados son muy diferentes (no se puede
predecir). Se llaman experimentos aleatorios, del cual nos vamos a ocupar.

Experimento aleatorio.- Es aquel que no obstante de conocerse las formas en que se realiza
no se puede predecir con exactitud su posible resultado, aún cuando se repita una y otra
vez, lo único que se conoce es el conjunto total de posibles resultados, el cual siempre es
igual a la unidad.

Espacio muestral.- Es el conjunto total de todos los posibles resultados de un experimento


aleatorio, la probabilidad de todo el espacio muestral es siempre igual a la unidad. No
todos los espacios muestrales pueden ser construidos fácilmente.

Suceso o evento.- Es un subconjunto o parte componente de un espacio muestral. Los


sucesos pueden ser simples o compuestos.

Son simples o elementales si únicamente son indivisibles, es decir no pueden ser más
descompuestos en más sencillos.

Será suceso o evento compuesto si únicamente está conformado por dos o más eventos
elementales. La probabilidad de que ocurra un evento compuesto será igual a la sumatoria
de la probabilidad de los eventos elementales.

1.3. Enfoques objetivos de probabilidad

1. Enfoque de Frecuencia Relativa.- Sostiene que la única forma válida para el


cálculo de probabilidades es mediante el ensayo o pruebas repetidas “n” veces en
donde la frecuencia relativa después de un gran número de repeticiones tiende a
estabilizarse y a constituir un valor fijo el cual será la probabilidad buscada.
4

2. Enfoque Clásico.- Sostiene que todos los sucesos sin excepción alguna son
probables en un momento de tiempo determinado. El cuestionamiento que se hace a
este enfoque, es que sólo determinados sucesos tienen igual posibilidad de
ocurrencia debido a que existen diferentes tipos de sucesos que pueden ser
dependiente, independiente, excluyente, solapados, complementarios,
condicionales, etc. (Regla de Laplace)

Este proceso depende de la regularidad estadística en los sucesos, el


cuestionamiento a este enfoque radica que en los procesos aleatorios no existe
ninguna regularidad ya que en ellos predomina el azar.

El matemático ruso Kolmogorov quién precisó este término dando lugar a:

La definición axiomática de la probabilidad.- Sostiene que el cálculo de


probabilidad se basa en la teoría de conjuntos en base a tres axiomas:

3.1 Axioma de la posibilidad.- Sostiene que toda probabilidad es siempre


positiva y sus valores están comprendidos entre cero y la unidad.

3.2 Axioma de la Certidumbre.- Sostiene que la probabilidad de un suceso


cierto es igual a uno y la probabilidad de un suceso imposible es igual a
cero.

3.3 Axioma de los sucesos compuestos.- Sostiene que la probabilidad de un


suceso compuesto es igual a la sumatoria de probabilidades de los sucesos
elementales, siempre y cuando sean incompatibles (intersección igual al
conjunto vacío)

1.4 Operaciones con sucesos o eventos

a) Regla de la Suma:

1. Sucesos o eventos mutuamente excluyentes.- A y B son sucesos mutuamente


excluyentes si la ocurrencia de uno de ellos anula automáticamente la ocurrencia
del otro. Se dice que dos sucesos son mutuamente excluyentes si entre ellos no
existe ningún punto en común en el espacio muestral, es decir que la intersección
entre ambos es igual al conjunto vacío (  ).

P( A  B)  
P( AoB )  P( A)  P( B)
P( AoBoC )  P( A)  P( B)  P(C )
5

2. Sucesos o eventos Solapados (no mutuamente excluyentes).- A y B son dos


sucesos solapados si entre ellos existen puntos en común en el espacio muestral, es
decir que la intersección entre ambos es diferente del conjunto vacío.

P( A  B)  
P( AoB )  P( A)  P( B)  P( A  B)
P( AoBoC )  P( A)  P( B)  P(C )  P( A  B)  P( B  C )  P( A  C )  P( A  B  C )

3. Sucesos o eventos complementarios. - Ay B son sucesos que ocurren dentro de un


mismo espacio muestral, serán complementarios si uno de ellos es un subconjunto
que contiene todos los demás puntos del espacio muestral.

P( A )  P( A)  1  P( A)
c

b) Reglas de la multiplicación:

4. Sucesos o eventos independientes.- A y B son dos sucesos independientes si la


ocurrencia de uno de ellos no depende de ninguna manera o forma de la ocurrencia
del otro.

Se dice que dos o más sucesos son independientes cuando el proceso de selección o
extracción de las unidades de observación se las realiza con reemplazo o con
reposición de la unidad extraída, su regla axiomática es el producto de
probabilidades.

P( AyB )  P( A) * P( B)
P( AyByC )  P( A) * P( B) * P(C )

5. Sucesos o eventos dependientes. - A y B son dos sucesos dependientes si la


ocurrencia de uno de ellos depende en alguna medida de la ocurrencia del otro.

Dos o más sucesos son dependientes cuando el proceso de selección o extracción al


azar se realiza sin reemplazo, es decir sin reposición.

P( AyB )  P( A) * P( B )
A
P( AyByC )  P( A) * P( B ) * P(C )
A AyB

1.5 Revisión de las estimaciones anteriores de probabilidades

6. Probabilidad Condicional.- P( A )  A y B son dos sucesos que se producen


B
dentro de un mismo espacio muestral, entonces la probabilidad de que ocurra el
6

suceso A dado que primero ha ocurrido el suceso B como condición es igual a la


intersección entre A y B sobre la probabilidad de la condición.

P( A  B)
P( A ) 
B P( B)
; si P(B) > 0
P( A * B)
P( A ) 
B P( B)

7. Probabilidad Total [ P(B) ].- Sea A1, A2, A3,…..An “n” sucesos mutuamente
excluyentes que ocurren dentro del mismo espacio muestral y cada uno de ellos
tienen probabilidad positiva.

P( A1 ) > 0; P( A2 ) > 0; P( A3 ) > 0 ………. P( An ) > 0; en general P(A) > 0

Si “B” es un suceso arbitrario que ocurre con uno de los eventos mutuamente
excluyentes entonces la probabilidad total es igual a asociar cada suceso
mutuamente excluyente con el elemento arbitrario.

P( B)  P( A1) * P( B )  P( A2) * P( B )  P( A3) * P( B )  ..........  P( An) * P( B )


A
1 A 2 A 3 A
n

8. Teorema de Bayes.- Es la fusión de dos teoremas que son el de la probabilidad


total y el de la probabilidad condicional, este teorema permite averiguar de donde
probablemente viene el elemento arbitrario.

Si al teorema de la probabilidad total le adicionamos que la probabilidad que ocurra


el evento arbitrario P(B) > 0 entonces tenemos el teorema de Bayes denotado por:

P( Ai ) * P( B )
P( A i ) A
i
B n

 P( A ) * P( B A )
i 1
i
i

P( Ai ) * P( B )
P( Ai ) A i ; P B  > 0
B P B 
7

P( A1) * P( B )
P( A 1 ) A 1
B P( A1) * P( B )  P( A2) * P( B )  P( A3) * P( B )  ..........  P( An) * P( B )
A
1 A 2 A
3 A
n

1.6 Combinaciones y Permutaciones. La probabilidad en un espacio muestral grande.

Combinaciones [ Crn ].- Son aquellos arreglos lineales de los “n” elementos de un conjunto
en los cuales no interesa el orden.

Sean “n” el total de elementos de un conjunto y sea “r” el número de elementos que se
toman de una vez de modo que r  n  se tienen combinaciones de:

n!
Crn 
r!n  r !

Factorial de un número [ n! ó x! ].-

5! = 5*4*3*2*1 = 120

Algunas propiedades. -

1) C0n = 1 2) C1n = n 3) Cnn = 1 4) Cnn1 = n 5) Cnn1 = 0

Permutaciones.- Son arreglos lineales de los “n” elementos de un conjunto en los cuales
interesa el orden, es decir que debe existir un elemento o característica que haga referencia
a un cierto orden dado.

Las permutaciones se las utiliza para formar grupos o equipos de trabajo en los cuales
interesa el orden como así también el cálculo de probabilidades. Existen cinco casos de
permutaciones los mismos que ha diferencia de los primeros a los demás se los llama
variaciones.

Caso I.- El número de permutaciones de “n” elementos distintos tomados todos a la vez es
igual a permutaciones de:

Pnn = n!

Caso II.- El número de permutaciones de “n” elementos distintos tomados de “r” en “r” a
la vez de modo que “r” < n únicamente es igual a permutaciones de n en r.

n!
Prn 
n  r !
8

Caso III.- El número de permutaciones distintas de “n” elementos distintos y que están
distribuidos en varias clases de modo que los elementos que pertenecen a una misma clase
son iguales y los de clase distinta son distintos, si se los toma todos a la vez se tiene:

Sea “n” el total de elementos de un conjunto dividido en: n1, n2, n3, …..nk clases.

n! n!
Pnn1  n2  n3 .....nk  Pnn 
n1!n2!n3!....nk ! n1!n2!n3!....nk !

Caso IV.- El número de permutaciones distintas de “n” elementos distintos tomados de “r”
en “r” con repetición en donde r < n es igual:

Prn  n 
r

Caso V.- El número de permutaciones distintas de “n” elementos distintos distribuidos en


forma de círculos y tomados todos a la vez e igual a permutaciones de “n” en “n”.

Pnn  n  1 !

También podría gustarte