Trabajo Indibidual N 2 Economicas 2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 27

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO

ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

TRABAJO
N°2
ALUMNA:
DIANA JACKELINE NAVARRO
ALBITES
PROFESORA:
ING. ROCIO DEL PILAR BLAS
REBAZA
CURSO:
ECONOMICAS II
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

INDICE
ANALISIS DE RIESGO..............................................................................................................................3
Tipos de riesgos.................................................................................................................................3
1. Riesgo Financiero o Financial Risk..........................................................................................3
2. Riesgo Crediticio....................................................................................................................3
3. Riesgo Bancario......................................................................................................................4
Pasos para realizar un análisis de riesgos financieros:.......................................................................6
1. Identificar los principales riesgos...........................................................................................6
2. Calcular la importancia de cada riesgo..................................................................................6
3. Concretar acciones para el plan de contingencia...................................................................6
4. Delegación de responsabilidades...........................................................................................6
5. Asignación de fechas de vencimiento....................................................................................7
DISTRIBUCIONES DE PROBABILIDAD MAS UTILIZADAS EN ANALISIS DE RIESGO...................................8
1. Normal – O “curva de campana”...............................................................................................8
2. Lognormal –...............................................................................................................................8
3. Uniform......................................................................................................................................8
4. Triangular...................................................................................................................................8
5. PERT-..........................................................................................................................................8
6. Discrete......................................................................................................................................8
TEOREMA DE LIMITE CENTRAL..............................................................................................................9
Principales propiedades del teorema central del límite....................................................................9
Ejemplo del teorema central del límite.............................................................................................9
DISTIBUCION DE PROBABILIDAD.........................................................................................................11
División de distribuciones................................................................................................................11
1. Distribuciones discretas.......................................................................................................11
2. Distribuciones continuas......................................................................................................17
LINCOGRAFIA.......................................................................................................................................27

P á g i n a 2 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

ANALISIS DE RIESGO

El análisis de riesgo es una de las actividades más importantes en el mundo financiero y tecnológico
en la actualidad. Es difícil pensar que se desarrolle un proyecto sin realizar la correspondiente
valoración de los riesgos que enfrentará.
El análisis de riesgos es el estudio sistematizado de los riesgos, coyunturas y circunstancias que
pueden afectar el desarrollo de una actividad, abordándose una clasificación de los mismos y
dotándose unas provisiones para su cobertura. El estudio y análisis de riesgos resulta de obligada
necesidad en los más diversos ámbitos de la actividad económico-financiera.
En primer lugar para entender la necesidad de analizar el riesgo en un proyecto o actividad,
cualquiera que sea su origen, debemos conocer primero que es el riesgo. El Riesgo es una variable
impredecible y que esta presente en cualquier tipo de actividad. Esta se refiere a la probabilidad de
que algún proceso, paso o tarea salga mal. En un sentido amplio el riesgo representa una probabilidad
de fallo dentro de la planificación o expectativa de un proyecto.
Los métodos de análisis de riesgo entonces son aquellas técnicas que permiten comprender la
interacción de las diferentes variables que tienen relación en un proyecto y/o actividad determinada
para estimar la probabilidad de que ocurra algún problema. Los métodos de análisis de riesgo por lo
general están compuestos por técnicas cualitativas y cuantitativas que responden de forma
especializada a cada tipo de riesgo.

Tipos de riesgos

1. Riesgo Financiero o Financial Risk


El Riesgo Financiero es una de las variables de estudio constante más importante para todas
las empresas. Su cálculo depende de diferentes variables que nos permiten entender desde una
perspectiva estadística la probabilidad de que ocurra algún evento que pueda ser diferente a
los planificados por la gerencia financiera de una empresa.
Los indicadores de riesgo financiero nos ayudan a conocer la probabilidad de que nuestros
resultados e inversiones no se correspondan con la planificación. Este tipo de análisis es de
especial importancia para empresas que poseen un alto nivel de actividad con cotizaciones
públicas y herramientas financieras de endeudamiento con terceros.
Algunos ejemplos del riesgo financiero podrían ser los daños sufridos a los activos, fallas
tecnológicas, fraude tanto externo como interno, entre otros.

2. Riesgo Crediticio
El riesgo crediticio es una variable de análisis de riesgo que nos permite estimar la posibilidad
de que se genere una perdida debido al incumplimiento de pagos en operaciones de
financiamiento o emisión de crédito. En esta materia se pueden generar perdidas por
diferentes vías de incumplimiento que abordan desde el cese total de pagos, como pagos fuera
de los lapsos acordados. En este tipo de análisis se evalúan criterios de solvencia para
determinar los diferentes tipos de riesgo crediticio.
Un ejemplo, es cuando un comprador obtiene un préstamo para la compra de un automóvil y
se compromete a devolver dicho dinero más los intereses. Entonces el riesgo de crédito está
ligado con la posibilidad de que se produzca un impago de la deuda.

P á g i n a 3 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

 Riesgo de impago. Alude a que la contraparte de la operación no paga en la fecha


acordada. Al respecto, debemos considerar que, en 2019, la morosidad alcanzó el
3,1% de la facturación total de las empresas españolas.
 Riesgo de exposición. Se refiere a la incertidumbre sobre los pagos futuros del
cliente, y está asociada a la actitud del deudor o a las variables del mercado.
 Riesgo de colateral o de la tasa de recuperación. Depende las garantías de deuda
existentes.
 Riesgo de concentración. Surge cuando se entregan montos excesivos a pocos
deudores, aumentando las pérdidas en caso de que se presenten morosidades.

3. Riesgo Bancario
El riesgo bancario debe ser entendido como la combinación de diferentes niveles de riesgo
que pueden afectar las operaciones realizadas por las entidades bancarias y sus afiliados. Este
tipo de riesgo es ligeramente más complejo de analizar debido a que son diversos indicadores
que deben observarse. En el riesgo financiero confluyen los criterios y estudios que realizan
los expertos sobre la reputación de las instituciones, su margen de operatividad, índice de
recuperación de fondos en préstamo y los índices de liquidez.
Ante la problemática de los riesgos en el mercado bancario, es fundamental “identificar” los
riesgos que pueden existir antes de una toma de decisión, para luego “ponderar” la incidencia
que pueden tener los riesgos identificados, a los efectos de “asumir” esos riesgos
procurándolos minimizarlos; de lo contrario, habrá que transferirlos en el supuesto de
considerar dificultosa su neutralización.
La ausencia de riesgos no existe; solo existe su minimización. Bajo este apotegma, la empresa
bancaria debe gestionar diversos riesgos. Entre los principales y más sensibles que afectan al
negocio bancario, pueden mencionarse:
3.1. El riesgo de liquidez.
Tal riesgo se advierte cuando el flujo de fondos originados en los activos y los pasivos del
banco, no coincide, en virtud de existir dificultades para obtener fondos que permita cumplir
en tiempo y forma, con los compromisos asumidos, principalmente ante las solicitudes de
retiro de los ahorristas por encima de las proyecciones evaluadas.
Los ingresos de recursos no se sincronizan con los egresos de recursos, provocando el
desequilibrio funcional.
3.2. El riesgo de tasas de interés.
Este riesgo suele considerarse de alta sensibilidad, puesto que los bancos procuran obtener
fondos a una tasa y a un plazo corto para prestarlos a otra más alta (“spread”) y a plazos más
largos, lo que queda expuesto a los descalces entre ahorros y préstamos y a los vaivenes de la
inflación, donde es necesario pagar más a los ahorristas para obtener fondos, pero ello tiene
como contrapartida la dificultad para colocar esos fondos, por el lógico encarecimiento del
costo financiero.
El riesgo de tasas de interés gira alrededor de:

 Volatilidad de las tasas de interés.


 Correcta ponderación de los componentes de las tasas activas y su comparación con
las tasas pasivas, de modo que el “Spreads” resultante permita obtener una ganancia.

P á g i n a 4 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
 Adecuada evaluación de los plazos de las operaciones pasivas y activas, en función
del descalce entre ambas.
 Posibilidades de regulación o limitación de las tasas activas.
3.3. El riesgo de moneda.
Ello deviene de un desajuste entre los activos y los pasivos del banco en moneda extranjera,
como consecuencia de la volatilidad de los tipos de cambio y de la capacidad de generar
recursos en moneda extranjera por parte de los tomadores de préstamos.
El riesgo de moneda es el riesgo de tener que soportar una pérdida originada en un
movimiento negativo en los tipos de cambio, para lo cual es preciso prevenirse:

 De la volatilidad de las paridades de cambio, en un régimen de tipo de cambio


flexible y administrado, como el vigente en nuestro país.
 De las exposiciones significativas de las carteras de préstamos en moneda extranjera.
En este sentido el Banco Central del Paraguay debe velar y fijar relaciones técnicas con el
propósito de que las asistencias crediticias en moneda extranjera tengan proporcionalidad con
los recursos captados en la misma moneda, de modo de prevenir descalces de moneda entre
ahorros y créditos.
3.4. El riesgo de mercado.
Consistente en la dependencia de las inversiones que hacen los bancos en activos financieros
y la exposición que pueden tener ante las variaciones de los precios que se vayan produciendo
en el mercado.
Incide en ello alguno de los factores siguientes:

 Políticas comerciales delineadas.


 Estabilidad monetaria, financiera y cambiaria.
 Ponderación del riesgo país.
 Seguridad institucional y jurídica.
3.5 El riesgo operativo.
Es el proveniente de las fallas, errores, omisiones o fraudes en los procesos operacionales, en
el personal, en los sistemas internos y/o eventos externos, que generan pérdidas, las que
pueden llegar a ser relevantes en función del volumen y la complejidad de las transacciones
bancarias.
El riesgo operativo está vinculado íntimamente vinculado a los controles internos y a los
procesos de control, aspectos que se encuentran supeditados al funcionamiento de la gerencia
o área responsable de ellos.
En este sentido, condicionantes del riesgo operativo son:

 Correcta ejecución de las políticas comerciales y financieras.


 Volumen y magnitud de las transacciones.
 Complejidad de las mismas.
 Diseño y aplicación de nuevos negocios.
 Comportamiento y motivación del personal, en sus respectivos cargos y roles
funcionales.
 Debido cumplimiento de las normas legales y correcto encuadramiento de las
operaciones activas y pasivas, de modo de evitar sanciones de los órganos
administrativos competentes.

P á g i n a 5 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
3.6. El riesgo legal.
Forma parte sustancial del riesgo operativo, que se manifiesta en omisiones o incumplimiento
de las normas legales o reglamentarias como en la displicencia para verificar la correcta y
oportuna implementación de los requerimientos documentales que correspondieren o en la
deficiente instrumentación de las operaciones, compromisos y garantías del banco.
Asimismo, el riesgo legal tiene primordial importancia en la evaluación de los riesgos
crediticios, ya que, si está mal gestionado, genera pérdidas y, por lo tanto, el riesgo legal
(muchas veces subestimado) forma parte del riesgo crediticio.
Recuérdese que el otorgamiento de créditos y su devenir en el tiempo constituye una situación
de “riesgo” para las entidades financieras, porque nunca se tiene la seguridad absoluta sobre
el desenvolvimiento futuro de los deudores, una vez asistidos. De allí la relevancia que se le
asigna a la eficiente evaluación del riesgo crediticio, la ponderación de la capacidad de pago
del potencial cliente y la adecuada instrumentación de las operaciones que se realicen.
No debe olvidarse que la morosidad es el “talón de Aquiles” de las entidades financieras,
puesto que el no pago en tiempo y forma debe ser contrapuesto con los resultados operativos,
atento la obligación de constituir provisiones que impone la autoridad de aplicación y
supervisión, conforme un modelo tarifado, con el lógico costo que ello implica (se traslada a
la tasa de interés).
La problemática de los diversos riesgos que permanentemente acosan la actividad bancaria,
exige una mayor y constante especialización en la administración de riesgos y una eficaz
como persistente tarea de contralor operativo, tanto interna como externamente.

Pasos para realizar un análisis de riesgos financieros:

1. Identificar los principales riesgos


En esta primera etapa del análisis de riesgos financieros, se identifican todos aquellos factores de
riesgo, tanto internos como externos, que deberá enfrentar la empresa. Es decir, tendremos en cuenta
todos aquellos cambios en el sector al que pertenece la compañía, cambios en las políticas
gubernamentales, innovaciones tecnológicas, etc.

2. Calcular la importancia de cada riesgo


Aquí se deberán analizar los riesgos y señalar cuáles serán los más perjudiciales para la empresa. De
este modo, se podrá realizar una previsión de recursos de esfuerzos, así como elaborar un plan para
hacer frente a este tipo de eventualidades.

3. Concretar acciones para el plan de contingencia


En este mundo debemos crear tareas concretas para mitigar el impacto negativo que puedan tener los
riesgos. Estableceremos un plan de contingencia en el que se incluya una acción por cada uno de los
riesgos, ya que debemos recordar que no se puede enfrentar de la misma manera a todos los riesgos.
De ahí que debamos tener en cuenta el nivel de tolerancia ante el riesgo que la organización haya
establecido.

4. Delegación de responsabilidades
Es imposible tener una previsión para todos los tipos de riesgo, siempre puede haber alguno que se no
se haya contemplado. Pero sí podemos establecer cuáles son los riesgos principales y asignar a una
persona para que monitorice esas posibles amenazas. Se debe evitar asignar la vigilancia de esos
puntos críticos a una sola persona, ya que es importante que se vaya realizando un seguimiento de los

P á g i n a 6 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
más importantes. Es aconsejable que se asigne a la persona más adecuada para cada punto crítico
detectado.

5. Asignación de fechas de vencimiento


Al igual que los riesgos no son estables a lo largo del tiempo, tampoco puede asignarse un mismo
plan indefinidamente. La razón es que las amenazas pueden incrementarse y afectar a procesos de la
propia empresa que no teníamos previstos con anterioridad. Por eso, es aconsejable calendarizar las
acciones a llevar a cabo.
Siguiendo estos pasos podrás llegar a hacer el análisis de riesgos de tu empresa, con el que podrás
detectar cuáles son las amenazas que afectan a tu empresa y minimizar el impacto que puedan llegar a
tener. Cabe destacar la importancia que posee el cálculo de la importancia de cada riesgo con el
objetivo de no infravalorar riesgos importantes o, por el contrario, no destinar recursos a mitigar
riesgos cuya influencia es mínima.

P á g i n a 7 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
DISTRIBUCIONES DE PROBABILIDAD MAS UTILIZADAS
EN ANALISIS DE RIESGO
Mediante el uso de distribuciones de probabilidad, las variables pueden tener diferentes
probabilidades de producir diferentes resultados. Las distribuciones de probabilidad son una forma
mucho más realista de describir la incertidumbre en las variables de un análisis de riesgo. Las
distribuciones de probabilidad más comunes son:

1. Normal – O “curva de campana”. El usuario simplemente define la media o valor


esperado y una desviación estándar para describir la variación con respecto a la media. Los
valores intermedios cercanos a la media tienen mayor probabilidad de producirse. Es una
distribución simétrica y describe muchos fenómenos naturales, como puede ser la estatura
de una población.
 Ejemplos de variables que se pueden describir con distribuciones normales son los
índices de inflación y los precios de la energía.

2. Lognormal – Los valores muestran una clara desviación; no son simétricos como en la
distribución normal. Se utiliza para representar valores que no bajan por debajo del cero,
pero tienen un potencial positivo ilimitado.
 Ejemplos de variables descritas por la distribución lognormal son los valores de las
propiedades inmobiliarias y bienes raíces, los precios de las acciones de bolsa y las
reservas de petróleo.

3. Uniform – Todos los valores tienen las mismas probabilidades de producirse; el usuario
sólo tiene que definir el mínimo y el máximo.
 Ejemplos de variables que se distribuyen de forma uniforme son los costos de
manufacturación o los ingresos por las ventas futuras de un nuevo producto.

4. Triangular – El usuario define los valores mínimo, más probable y máximo. Los valores
situados alrededor del valor más probable tienen más probabilidades de producirse.
 Las variables que se pueden describir con una distribución triangular son el historial
de ventas pasadas por unidad de tiempo y los niveles de inventario.

5. PERT- El usuario define los valores mínimo, más probable y máximo, como en la
distribución triangular. Los valores situados alrededor del más probable tienen más
probabilidades de producirse. Sin embargo, los valores situados entre el más probable y los
extremos tienen más probabilidades de producirse que en la distribución triangular; es decir,
los extremos no tienen tanto peso.
 Un ejemplo de uso de la distribución PERT es la descripción de la duración de una
tarea en un modelo de gestión de un proyecto.

6. Discrete – El usuario define los valores específicos que pueden ocurrir y la probabilidad de
cada uno.
 Un ejemplo podría ser los resultados de una demanda legal: 20% de posibilidades de
obtener un veredicto positivo, 30% de posibilidades de obtener un veredicto
negativo, 40% de posibilidades de llegar a un acuerdo, y 10% de posibilidades de que
se repita el juicio.

P á g i n a 8 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
TEOREMA DE LIMITE CENTRAL
El teorema central del límite (TCL) es una teoría estadística que establece que, dada una muestra
aleatoria suficientemente grande de la población, la distribución de las medias muestrales seguirá
una distribución normal.

Además, el TCL afirma que a medida que el tamaño de la muestra se incrementa, la media muestral
se acercará a la media de la población. Por tanto, mediante el TCL podemos definir la distribución de
la media muestral de una determinada población con una varianza conocida. De manera que la
distribución seguirá una distribución normal si el tamaño de la muestra es lo suficientemente
grande.

Principales propiedades del teorema central del límite

El teorema central del límite tiene una serie de propiedades de gran utilidad en el ámbito estadístico
y probabilístico. Las principales son:

 Si el tamaño de la muestra es suficientemente grande, la distribución de las medias


muestrales seguirá aproximadamente una distribución normal. El TCL considera una
muestra como grande cuando el tamaño de la misma es superior a 30. Por tanto, si
la muestra es superior a 30, la media muestral tendrá una función de distribución
próxima a una normal. Y esto se cumple independientemente de la forma de la
distribución con la que estamos trabajando.
 La media poblacional y la media muestral serán iguales. Es decir, la media de la
distribución de todas las medias muestrales será igual a la media del total de la
población.
 La varianza de la distribución de las medias muestrales será σ²/n. Que es la varianza
de la población dividido entre el tamaño de la muestra.

Que la distribución de las medias muestrales se parezca a una normal es tremendamente útil.
Porque la distribución normal es muy fácil de aplicar para realizar contrastes de hipótesis y
construcción de intervalos de confianza. En estadística que una distribución sea normal es bastante
importante, dado que muchos estadísticos requieren este tipo de distribución. Además, el TCL nos
permitirá hacer inferencia sobre la media poblacional a través de la media muestral. Y esto es de
gran utilidad cuando por falta de medios no podemos recolectar datos de toda una población.

Ejemplo del teorema central del límite

Imaginemos que queremos analizar las rentabilidades medias históricas del índice S&P 500, que
como sabemos, tiene unas 500 compañías dentro del mismo. Pero no tenemos suficiente
información como para analizar la totalidad de las 500 compañías del índice. En este caso la
rentabilidad media del S&P 500 sería la media poblacional.

Ahora bien, siguiendo al TCL podemos coger una muestra de estas 500 empresas para realizar el
análisis. La única limitación que tenemos es que en la muestra tiene que haber más de 30 compañías
para que se cumpla el teorema. Entonces imaginemos que cogemos 50 compañías del índice de
manera aleatoria y repetimos el proceso varias veces. Los pasos a seguir el ejemplo serían los
siguientes:

P á g i n a 9 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

 Elegimos la muestra de unas 50 compañías y obtenemos la rentabilidad media de la


totalidad de la muestra.
 De manera continuada seguimos escogiendo 50 compañías y obtenemos la rentabilidad
media.
 La distribución de todas las rentabilidades medias de todas las muestras escogidas se
aproximará a una distribución normal.
 Las rentabilidades medias de todas las muestras seleccionadas se aproximarán a la
rentabilidad media del total del índice. Tal y como demuestra el teorema Central del Límite.

Por tanto, mediante inferencia de la rentabilidad media de la muestra podemos acercarnos a la


rentabilidad media del índice.

P á g i n a 10 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
DISTIBUCION DE PROBABILIDAD
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es
una función que asigna a cada suceso definido sobre la variable la probabilidad de que dicho suceso
ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos y cada
uno de los sucesos es el rango de valores de la variable aleatoria. También puede decirse que tiene
una relación estrecha con las distribuciones de frecuencia. De hecho, una distribución de
probabilidades puede comprenderse como una frecuencia teórica, ya que describe cómo se espera
que varíen los resultados.

La distribución de probabilidad está completamente especificada por la función de distribución, cuyo


valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.

División de distribuciones

1. Distribuciones discretas Las distribuciones discretas incluidas en el módulo de “Cálculo de


probabilidades”

Distribución uniforme discreta (a,b)


La distribución uniforme discreta describe el comportamiento de una variable
discreta que puede tomar n valores distintos con la misma probabilidad cada uno de
ellos. Un caso particular de esta distribución, ocurre cuando los valores son enteros
consecutivos. Esta distribución asigna igual probabilidad a todos los valores enteros
entre el límite inferior y el límite superior que definen el recorrido de la variable. Si
la variable puede tomar valores entre a y b, debe ocurrir que b sea mayor que a, y la
variable toma los valores enteros empezando por a, a+1, a+2, etc. hasta el valor
máximo b. Por ejemplo, cuando se observa el número obtenido tras el lanzamiento
de un dado perfecto, los valores posibles siguen una distribución uniforme discreta
en {1, 2, 3, 4, 5, 6}, y la probabilidad de cada cara es 1/6.

Valores:

k: a, a+1, a+2, ..., b, números enteros

Parámetros:

a: mínimo, a entero

b: máximo, b entero con a < b

Ejemplo

El temario de un examen para un proceso selectivo contiene 50 temas, de los cuales


se elegirá uno por sorteo. Si una persona no ha estudiado los 15 últimos temas ¿cuál
es la probabilidad de que salga un tema que haya estudiado? La variable que
representa el número del tema seleccionado para el examen sigue una distribución
uniforme con parámetros a = 1 y b = 50. La persona ha estudiado los temas del 1 al
35; por tanto, la probabilidad que se pide es la cola a la izquierda de 35.

La persona tiene una probabilidad del 70% de que el tema elegido sea uno de los
que haya estudiado.

P á g i n a 11 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
Distribución binomial (n,p)
La distribución binomial es una distribución discreta muy importante que surge en
muchas aplicaciones bioestadísticas. Fue obtenida por Jakob Bernoulli (1654-1705) y
publicada en su obra póstuma Ars Conjectandi en 1713.

Esta distribución aparece de forma natural al realizar repeticiones independientes


de un experimento que tenga respuesta binaria, generalmente clasificada como
“éxito” o “fracaso”; este experimento recibe el nombre de experimento de
Bernoulli. Ejemplos de respuesta binaria pueden ser el hábito de fumar (sí/no), si un
paciente hospitalizado desarrolla o no una infección, o si un artículo de un lote es o
no defectuoso. La variable discreta que cuenta el número de éxitos en n pruebas
independientes de ese experimento, cada una de ellas con la misma probabilidad de
“éxito” igual a p, sigue una distribución binomial de parámetros n y p, que se denota
por (Bi(n,p)). Este modelo se aplica a poblaciones finitas de las que se toman
elementos al azar con reemplazo, y también a poblaciones conceptualmente
infinitas, como por ejemplo las piezas que produce una máquina, siempre que el
proceso de producción sea estable (la proporción de piezas defectuosas se mantiene
constante a largo plazo) y sin memoria (el resultado de cada pieza no depende de las
anteriores).

Un ejemplo de variable binomial puede ser el número de pacientes con cáncer de


pulmón ingresados en una unidad hospitalaria.

Valores:

k: 0, 1, 2, ..., n

Parámetros:

n: número de pruebas, n ≥ 1 entero

p: probabilidad de éxito, 0 < p < 1

Ejemplo

En un examen formado por 20 preguntas, cada una de las cuales se responde


declarando “verdadero” o “falso”, el alumno sabe que, históricamente, en el 75% de
los casos la respuesta correcta es “verdadero” y decide responder al examen tirando
dos monedas: pone “falso” si ambas monedas muestran una cara y “verdadero” si al
menos hay una cruz. Se desea saber cuál es la probabilidad de que tenga más de 14
aciertos.

En este caso n = 20, p = 0,75 y el punto k = 14.

La probabilidad de que el alumno tenga más de 14 aciertos es del 62%. En este


ejemplo, la media indica que 15 es el número medio de aciertos mediante la técnica
de tirar dos monedas.

Distribución hipergeométrica (N,R,n)


La distribución hipergeométrica suele aparecer en procesos muestrales sin
reemplazo, en los que se investiga la presencia o ausencia de cierta característica.
Piénsese, por ejemplo, en un procedimiento de control de calidad en una empresa
farmacéutica, durante el cual se extraen muestras de las cápsulas fabricadas y se

P á g i n a 12 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
someten a análisis para determinar su composición. Durante las pruebas, las
cápsulas son destruidas y no pueden ser devueltas al lote del que provienen. En esta
situación, la variable que cuenta el número de cápsulas que no cumplen los criterios
de calidad establecidos sigue una distribución hipergeométrica. Por tanto, esta
distribución es la equivalente a la binomial, pero cuando el muestreo se hace sin
reemplazo, de forma que la probabilidad de éxito no permanece constante a lo largo
de las n pruebas, a diferencia de la distribución binomial. Esta distribución se puede
ilustrar del modo siguiente: se tiene una población finita con N elementos, de los
cuales R tienen una determinada característica que se llama “éxito” (diabetes,
obesidad, hábito de fumar, etc.). El número de “éxitos” en una muestra aleatoria de
tamaño n, extraída sin reemplazo de la población, es una variable aleatoria con
distribución hipergeométrica de parámetros N, R y n. Cuando el tamaño de la
población es grande, los muestreos con y sin reemplazo son equivalentes, por lo que
la distribución hipergeométrica se aproxima en tal caso a la binomial.

Ejemplo

Se sabe que el 7% de los útiles quirúrgicos en un lote de 100 no cumplen ciertas


especificaciones de calidad. Tomada una muestra al azar de 10 unidades sin
reemplazo, interesa conocer la probabilidad de que no más de dos sean
defectuosas. El número de útiles defectuosos en el lote es R = 0,07100 = 7. Para un
tamaño muestral de n= 10, la probabilidad buscada es P{número de defectuosos 
2}.

La probabilidad de que, a lo sumo, haya dos útiles defectuosos en el lote es


aproximadamente 0,98. Además, puede decirse que la media y la varianza de la
distribución hipergeométrica (100, 7, 10) son 0,7 y 0,59, respectivamente; en este
caso, la media de útiles quirúrgicos defectuosos en 10 pruebas es de 0,7 y la varianza
de 0,59.

Distribución geométrica (p)


Supóngase que se efectúa repetidamente un experimento o prueba, que las
repeticiones son independientes y que se está interesado en la ocurrencia o no de
un suceso al que se refiere como “éxito”, siendo la probabilidad de este suceso p. La
distribución geométrica permite calcular la probabilidad de que tenga que realizarse
un número k de repeticiones antes de obtener un éxito por primera vez; esta
probabilidad decrece a medida que aumenta k con lo que la función de masa de
probabilidad es siempre decreciente. Así pues, se diferencia de la distribución
binomial en que el número de repeticiones no está predeterminado, sino que es la
variable aleatoria que se mide y, por otra parte, el conjunto de valores posibles de la
variable es ilimitado. Para ilustrar el empleo de esta distribución, se supone que
cierto medicamento opera exitosamente ante la enfermedad para la cual fue
concebido en el 80% de los casos a los que se aplica; la variable aleatoria “intentos
fallidos en la aplicación del medicamento antes del primer éxito” sigue una
distribución geométrica de parámetro p = 0,8. Otro ejemplo de variable geométrica
es el número de hijos hasta el nacimiento de la primera niña. La distribución
geométrica se utiliza en la distribución de tiempos de espera, de manera que, si los
ensayos se realizan a intervalos regulares de tiempo, esta variable aleatoria
proporciona el tiempo transcurrido hasta el primer éxito. Esta distribución presenta

P á g i n a 13 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
la propiedad denominada “falta de memoria”, que implica que la probabilidad de
tener que esperar un tiempo t no depende del tiempo que ya haya transcurrido.

Valores:

k: 0, 1, 2, ...

Parámetros:

p: probabilidad de éxito, 0 < p < 1

Ejemplo

La probabilidad de que cierto examen médico dé lugar a una reacción “positiva” es


igual a 0,8, ¿cuál es la probabilidad de que ocurran menos de 5 reacciones
“negativas” antes de la primera positiva? La variable aleatoria “número de
reacciones negativas antes de la primera positiva” sigue una distribución geométrica
con parámetro p = 0,8.

La probabilidad de que ocurran menos de 5 reacciones “negativas” antes de la


primera positiva es casi 1 (0,9997).

Distribución binomial negativa (r,p)


Una generalización obvia de la distribución geométrica aparece si se supone que un
experimento se continúa hasta que un determinado suceso, de probabilidad p,
ocurre por enésima vez. La variable aleatoria que proporciona la probabilidad de
que se produzcan k fracasos antes de obtener el r-ésimo éxito sigue una distribución
binomial negativa de parámetros r y p, BN(r,p). La distribución geométrica
corresponde al caso particular en que r= 1. Un ejemplo es el número de
lanzamientos fallidos de un dado antes de obtener un 6 en tres ocasiones, que sigue
una BN (3,1/6). En el caso de que los sucesos ocurran a intervalos regulares de
tiempo, esta variable proporciona el tiempo total hasta que ocurren r éxitos, por lo
que también se denomina “distribución binomial de tiempo de espera”. La
distribución binomial negativa aparece en un estudio de Pierre Rémond de
Montmort (1678-1719) sobre los juegos de azar en 1714, pero años antes ya había
sido descrita por Blaise Pascal (1623-1662). Más adelante, esta distribución fue
propuesta como una alternativa a la distribución de Poisson para modelar el número
de ocurrencias de un suceso cuando los datos presentan lo que se conoce como
variación extra-Poisson o sobre dispersión. En estas situaciones, la varianza es mayor
que la media, por lo que se incumple la propiedad que caracteriza a una distribución
de Poisson, según la cual la media es igual a la varianza. La primera aplicación en
bioestadística la realizó Student (William Sealy Gosset (1876-1937)) a principios de
siglo cuando propuso esta distribución para modelar el número de glóbulos rojos en
una gota de sangre. En este caso, la variabilidad extra se debe al hecho de que esas
células no están uniformemente distribuidas en la gota, es decir, la tasa de
intensidad no es homogénea. La distribución binomial negativa es más adecuada
que la de Poisson para modelar, por ejemplo, el número de accidentes laborales
ocurridos en un determinado lapso. La distribución de Poisson asume que todos los
individuos tienen la misma probabilidad de sufrir un accidente y que ésta
permanece constante durante el período de estudio; sin embargo, es más plausible
la hipótesis de que los individuos tienen probabilidades constantes en el tiempo,

P á g i n a 14 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
pero que varían de unos sujetos a otros; esto es lo que se conoce en la literatura
como la propensión a los accidentes (“accident proneness”) [9][10]. Esta hipótesis se
traduce en una distribución de Poisson mixta, o de efectos aleatorios, en la que se
supone que las probabilidades varían entre individuos de acuerdo a una distribución
gamma y esto resulta en una distribución binomial negativa para el número de
accidentes.

Valores:

k: 0, 1, 2, ...

Parámetros:

r: número de éxitos, r >= 1 entero

p: probabilidad de éxito, 0 < p < 1

Ejemplo

Se sabe que, en promedio, una de cada 100 placas de rayos X que se realizan es
defectuosa.

¿Cuál es el número medio de placas útiles que se producen entre 10 defectuosas?

Si se considera el primer fallo como punto de inicio, hay que considerar la variable
“número de placas útiles antes de 9 defectuosas”, que sigue una distribución
binomial negativa de parámetros r = 9 y p = 0,01.

Es necesario hacer notar que, cuando se está interesado en obtener alguno de los
valores característicos de la distribución objeto de estudio (en este ejemplo, número
medio de placas útiles), es indiferente calcular probabilidades o puntos, ya que el
programa presenta los valores característicos de la distribución en ambos casos. En
este ejemplo, se seleccionó la opción de calcular la probabilidad del punto 1, aunque
se trata de un dato irrelevante en el cálculo del número medio de placas útiles. Se
puede comprobar fácilmente que la modificación del punto o de la opción de cálculo
no influyen en los valores característicos.

Entre 10 placas defectuosas se producen, en promedio, unas 891 placas útiles.

Distribución Pascal (r,p)


La distribución de Pascal debe su nombre al matemático francés Blaise Pascal (1623-
1662), uno de los matemáticos que creó las bases de la teoría de la probabilidad. El
número de pruebas necesarias para obtener r éxitos, siendo p la probabilidad de
éxito, es una variable aleatoria que sigue una distribución Pascal de parámetros r y
p. Por tanto, esta distribución está relacionada con la binomial negativa de idénticos
parámetros del modo siguiente:

Pascal(r,p) = BN(r,p)+r

Teniendo en cuenta esta relación, podríamos decir que el número de lanzamientos


de un dado realizados antes de obtener un 6 en tres ocasiones sigue una Pascal
(3,1/6).

Valores:

P á g i n a 15 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
k: r, r+1, r+2, ...

Parámetros:

r: número de éxitos, r  1 entero

p: probabilidad de éxito, 0 < p < 1

Ejemplo

Siguiendo con el ejemplo de la distribución binomial negativa, si en promedio una de


cada 100 placas de rayos X que se realizan es defectuosa, ¿cuál es el número medio
de placas realizadas entre 10 defectuosas? Si se considera el primer fallo como
punto de inicio, hay que considerar la variable “número de placas realizadas antes
de 9 defectuosas”, que sigue una distribución de Pascal de parámetros r = 9 y p =
0,01.

El número medio de placas realizadas entre 10 defectuosas es de 900.

Distribución Poisson ()


La distribución de Poisson debe su nombre al matemático francés Simeón Denis
Poisson (1781-1840), aunque ya había sido introducida en 1718 por Abraham De
Moivre (1667-1754) como una forma límite de la distribución binomial que surge
cuando se observa un evento raro después de un número grande de repeticiones. En
general, la distribución de Poisson de parámetro  se puede utilizar como una
aproximación de la binomial, Bin(n, p), si el número de pruebas n es grande, pero la
probabilidad de éxito p es pequeña, siendo  = np; podemos considerar que la
aproximación Poisson-binomial es “buena” si n  20 y p  0,05 y “muy buena” si n 
100 y p  0,01. La distribución de Poisson también surge cuando un evento o suceso
“raro” ocurre aleatoriamente en el espacio o el tiempo. La variable asociada es el
número de ocurrencias del evento en un intervalo o espacio continuo, por tanto, es
una variable aleatoria discreta que toma valores enteros de 0 en adelante (0, 1,
2,...). Así, el número de pacientes que llegan a un consultorio en un lapso dado, el
número de llamadas que recibe un servicio de atención a urgencias durante 1 hora,
el número de células anormales en una superficie histológica o el número de
glóbulos blancos en un milímetro cúbico de sangre son ejemplos de variables que
siguen una distribución de Poisson. En general, es una distribución muy utilizada en
diversas áreas de la investigación médica y, en particular, en epidemiología. El
concepto de evento “raro” o poco frecuente debe ser entendido en el sentido de
que la probabilidad de observar k eventos decrece rápidamente a medida que k
aumenta. Supóngase, por ejemplo, que el número de reacciones adversas tras la
administración de un fármaco sigue una distribución de Poisson de media  = 2. Si se
administra este fármaco a 1.000 individuos, la probabilidad de que se produzca una
reacción adversa (k = 1) es 0,27; los valores de dicha probabilidad para k = 2, 3, 4, 5,
6 reacciones, respectivamente, son: 0,27; 0,18; 0,09; 0,03 y 0,01. Para k = 10 o
mayor, la probabilidad es virtualmente 0.

Valores:

k: 0, 1, 2, ...

Parámetros:

P á g i n a 16 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
: tasa de ocurrencia,  > 0

Ejemplo

El número de enfermos que solicitan atención de urgencia en un hospital durante un


periodo de 24 horas tiene una media de 43,2 pacientes. Se sabe que el servicio se
colapsará si el número de enfermos excede de 50. ¿Cuál es la probabilidad de que se
colapse el servicio de urgencias del hospital? Representar la función de masa de
probabilidad.

La probabilidad de que el servicio colapse está cerca de 0,13

2. Distribuciones continuas
Distribución uniforme o rectangular (a,b)
La distribución uniforme es útil para describir una variable aleatoria con
probabilidad constante sobre el intervalo (a,b) en el que está definida y se denota
por U(a,b). También es conocida con el nombre de distribución rectangular por el
aspecto de su función de densidad. Una peculiaridad importante de esta distribución
es que la probabilidad de un suceso depende exclusivamente de la amplitud del
intervalo considerado y no de su posición en el campo de variación de la variable.
Cualquiera que sea la distribución F de cierta variable X, la variable transformada Y =
F(X) sigue una distribución uniforme en el intervalo (0,1). Esta propiedad es
fundamental por ser la base para la generación de números aleatorios de cualquier
distribución en las técnicas de simulación, y recibe el nombre de método de
inversión.

Campo de variación:

a<x<b

Parámetros:

a: mínimo, -∞ < a < ∞

b: máximo, -∞ < b < ∞ con a < b

Ejemplo

Supóngase una variable que se distribuye uniformemente entre 380 y 1.200.


Determínese:

1. La probabilidad de que el valor de la variable sea superior a mil.

2. La media y la desviación estándar de dicha variable.

La probabilidad de que la variable sea superior a mil se sitúa en un entorno de 0,24,


la media es 790 y la desviación estándar, raíz cuadrada de la varianza, es
aproximadamente 237.

Distribución normal (, )


La distribución normal es, sin duda, la distribución de probabilidad más importante
del Cálculo de probabilidades y de la Estadística. Fue descubierta, como
aproximación de la distribución binomial, por Abraham De Moivre (1667-1754) y
publicada en 1733 en su libro The Doctrine of Chances; estos resultados fueron

P á g i n a 17 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
ampliados por Pierre-Simon Laplace (1749- 1827), quién también realizó
aportaciones importantes. En 1809, Carl Friedrich Gauss (1777- 1855) publicó un
libro sobre el movimiento de los cuerpos celestes donde asumía errores normales,
por este motivo esta distribución también es conocida como distribución Gaussiana.
La importancia de la distribución normal queda totalmente consolidada por ser la
distribución límite de numerosas variables aleatorias, discretas y continuas, como se
demuestra a través de los teoremas centrales del límite. Las consecuencias de estos
teoremas implican la casi universal presencia de la distribución normal en todos los
campos de las ciencias empíricas: biología, medicina, psicología, física, economía,
etc. En particular, muchas medidas de datos continuos en medicina y en biología
(talla, presión arterial, etc.) se aproximan a la distribución normal. Junto a lo
anterior, no es menos importante el interés que supone la simplicidad de sus
características y de que de ella derivan, entre otras, tres distribuciones (ji-cuadrado,
t de Student y F de Snedecor) que se mencionarán más adelante, de importancia
clave en el campo de la contrastación de hipótesis estadísticas. La distribución
normal queda totalmente definida mediante dos parámetros: la media () y la
desviación estándar o desviación típica (). Su función de densidad es simétrica
respecto a la media y la desviación estándar nos indica el mayor o menor grado de
apertura de la curva que, por su aspecto, se suele llamar campana de Gauss. Esta
distribución se denota por N (,). Cuando la distribución normal tiene como
parámetros  = 0 y  = 1 recibe el nombre de distribución normal estándar.
Cualquier variable X que siga una distribución normal de parámetros  y  se puede
transformar en otra variable Y= (X-)/ que sigue una distribución normal estándar;
este proceso se denomina estandarización, tipificación o normalización.

Campo de variación:

- < x < 

Parámetros:

: media, - <  < 

: desviación estándar,  > 0

Ejemplo

Se supone que el nivel de colesterol de los enfermos de un hospital sigue una


distribución normal con una media de 179,1 mg/dL y una desviación estándar de
28,2 mg/dL.

1. ¿Cuál es el porcentaje de enfermos con un nivel de colesterol inferior a 169


mg/dL?

2. ¿Cuál será el valor del nivel de colesterol a partir del cual se encuentra el 10% de
los enfermos del hospital con los niveles más altos?

1. El porcentaje de enfermos con un nivel de colesterol inferior a 169 mg/dL es 36%.

2. A partir de 215,24 mg/dL se encuentran los valores de colesterol del 10% de los
enfermos que tienen los valores más altos. Pierre François Verhulst (1804-1849)
describió por primera vez la curva logística en un trabajo, publicado en 1845, que

P á g i n a 18 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
versaba sobre las investigaciones matemáticas en las leyes que gobiernan el
crecimiento de la población. La distribución logística se utiliza en el estudio del
crecimiento temporal de variables, en particular, demográficas. En biología se ha
aplicado, por ejemplo, para modelar el crecimiento de células de levadura, y para
representar curvas de dosis-respuesta en bioensayos.Distribución log normal (, )

La variable resultante de aplicar la función exponencial a una variable que se


distribuye normal con media  y desviación estándar , sigue una distribución
lognormal con parámetros  (escala) y  (forma). Dicho de otro modo, si una
variable X sigue una distribución lognormal entonces la variable lnX se distribuye
normalmente. Esta variable aleatoria fue propuesta por Francis Galton (1822-1911)
en 1879, como consecuencia del estudio de la media geométrica de n variables
aleatorias independientes. La distribución lognormal es útil para modelar datos de
numerosos estudios médicos tales como el período de incubación de una
enfermedad, los títulos de anticuerpo a un virus, el tiempo de supervivencia en
pacientes con cáncer o SIDA, el tiempo hasta la seroconversión de VIH+, etc.

Campo de variación:

0<x<

Parámetros:

: escala, - <  < 

: forma,  > 0

Ejemplo

Supóngase que la supervivencia, en años, luego de una intervención quirúrgica


(tiempo que pasa hasta que ocurre la muerte del enfermo) en una cierta población
sigue una distribución lognormal de parámetro de escala 2,32 y de forma 0,20.
Calcular la probabilidad de supervivencia a los 12 años y la mediana de
supervivencia.

La probabilidad de supervivencia a los 12 años es próxima a 0,20. A la vista de los


resultados también se puede decir que el número medio de años de supervivencia
de un paciente tras una intervención quirúrgica es de, aproximadamente, 10 años y
medio.

Distribución logística (a, b)


Pierre François Verhulst (1804-1849) describió por primera vez la curva logística en
un trabajo, publicado en 1845, que versaba sobre las investigaciones matemáticas
en las leyes que gobiernan el crecimiento de la población. La distribución logística se
utiliza en el estudio del crecimiento temporal de variables, en particular,
demográficas. En biología se ha aplicado, por ejemplo, para modelar el crecimiento
de células de levadura, y para representar curvas de dosis-respuesta en bioensayos.

Los parámetros asociados a esta distribución son situación (a) y escala (b). Su
función de densidad es simétrica respecto al parámetro a y presenta un perfil más
apuntado que el de la distribución normal con la misma media y desviación estándar
(distribución leptocúrtica).

P á g i n a 19 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
Campo de variación: - < x < 

Parámetros:

a: situación, - < a < 

b: escala, b > 0

Ejemplo

El crecimiento relativo anual (%) de la población de un determinado país sigue una


distribución logística de parámetro de posición 1 y de escala 2. Calcular la
probabilidad de que el crecimiento en un año determinado sea superior al 5% y
representar la función de densidad.

La probabilidad de que la población tenga un crecimiento superior al 5% es del


orden de 0,12.

Distribución beta (p,q)


La distribución beta es adecuada para variables aleatorias continuas que toman
valores en el intervalo (0,1), lo que la hace muy apropiada para modelar
proporciones. En la inferencia bayesiana, por ejemplo, es muy utilizada como
distribución a priori cuando las observaciones tienen una distribución binomial. Uno
de los principales recursos de esta distribución es el ajuste a una gran variedad de
distribuciones empíricas, pues adopta formas muy diversas dependiendo de cuáles
sean los valores de los parámetros de forma p y q, mediante los que viene definida
la distribución, denotada por Beta(p,q).

Un caso particular de la distribución beta es la distribución uniforme en (0,1), que se


corresponde con una beta de parámetros p = 1 y q = 1.

Campo de variación: 0 < x < 1

Parámetros:

p: forma, p > 0

q: forma, q > 0

Ejemplo

En el presupuesto familiar, la porción que se dedica a salud sigue una distribución


beta (2,2).

1. ¿Cuál es la probabilidad de que se gaste más del 25% del presupuesto familiar en
salud?

2. ¿Cuál será el porcentaje medio que las familias dedican a la compra de productos
y servicios de salud?

Teniendo en cuenta la distribución beta, la probabilidad de que se gaste más de la


cuarta parte del presupuesto en salud será 0,84 y el porcentaje medio que las
familias dedican a la compra de productos y servicios de salud será el 50%

P á g i n a 20 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
Distribución gamma (a,p)
La distribución gamma se puede caracterizar del modo siguiente: si se está
interesado en la ocurrencia de un evento generado por un proceso de Poisson de
media , la variable que mide el tiempo transcurrido hasta obtener n ocurrencias del
evento sigue una distribución gamma con parámetros a = n (escala) y p = n (forma).
Se denota por Gamma(a,p). Por ejemplo, la distribución gamma aparece cuando se
realiza el estudio de la duración de elementos físicos (tiempo de vida).

Cuando p es un número entero positivo se tiene un caso particular de la distribución


gamma que se denomina distribución de Erlang. Otros casos particulares de la
distribución gamma, que se comentarán con detalle más adelante, son la
distribución exponencial (Gamma (,1)) y la distribución ji-cuadrado (Gamma (1/2,
n/2)). Según los valores que tome el parámetro de forma, p, la función de densidad
presenta perfiles muy diversos. Con valores de p menores o iguales que 1, la función
de densidad muestra un perfil decreciente; en cambio, si p es mayor que la unidad,
la función de densidad crece hasta el valor x= (p-1) /a y decrece a partir de este
valor.

Campo de variación:

0<x<

Parámetros:

a: escala, a > 0

p: forma, p > 0

Ejemplo

El número de pacientes que llegan a la consulta de un médico sigue una distribución


de Poisson de media 3 pacientes por hora. Calcular la probabilidad de que transcurra
menos de una hora hasta la llegada del segundo paciente.

Debe tenerse en cuenta que la variable aleatoria “tiempo que transcurre hasta la
llegada del segundo paciente” sigue una distribución Gamma (6, 2).

La probabilidad de que transcurra menos de una hora hasta que llegue el segundo
paciente es 0,98.

Distribución exponencial ()


La distribución exponencial es un caso particular de la distribución gamma y el
equivalente continuo de la distribución geométrica discreta. Esta ley de distribución
describe procesos en los que interesa saber el tiempo hasta que ocurre determinado
evento; en particular, se utiliza para modelar tiempos de supervivencia. Un ejemplo
es el tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de
la ley que sigue este evento se utiliza, por ejemplo, para la datación de fósiles o
cualquier materia orgánica mediante la técnica del carbono 14. Una característica
importante de esta distribución es la propiedad conocida como “falta de memoria”.
Esto significa, por ejemplo, que la probabilidad de que un individuo de edad t
sobreviva x años más, hasta la edad x+t, es la misma que tiene un recién nacido de
sobrevivir hasta la edad x. Dicho de manera más general, el tiempo transcurrido
desde cualquier instante dado t0 hasta que ocurre el evento, no depende de lo que

P á g i n a 21 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
haya ocurrido antes del instante t0. Se cumple que variable aleatoria que tome
valores positivos y que verifique la propiedad de “falta de memoria” sigue una
distribución exponencial [8]. Esta distribución se puede caracterizar como la
distribución del tiempo entre sucesos consecutivos generados por un proceso de
Poisson; por ejemplo, el tiempo que transcurre entre dos heridas graves sufridas por
una persona. La media de la distribución de Poisson, , que representa la tasa de
ocurrencia del evento por unidad de tiempo, es el parámetro de la distribución
exponencial, y su inversa es el valor medio de la distribución.

El uso de la distribución exponencial ha sido limitado en bioestadística, debido a que


la propiedad de falta de memoria la hace demasiado restrictiva para la mayoría de
los problemas.

Campo de variación:

0<x<

Parámetros:

: tasa,  > 0

Ejemplo

Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una


distribución exponencial con media de 14 años. ¿Cuál es la probabilidad de que a
una persona a la que se le ha implantado este marcapasos se le deba reimplantar
otro antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en
un paciente, ¿cuál es la probabilidad de que haya que cambiarlo antes de 25 años?
La variable aleatoria “tiempo de vida del marcapasos” sigue una distribución
exponencial de parámetro  = 1/14  0,07

La probabilidad de que se le tenga que implantar otro marcapasos antes de los 20


años se sitúa en un entorno de 0,75. Teniendo en cuenta la propiedad de “falta de
memoria” de la exponencial, la probabilidad de tener que cambiar antes de 25 años
un marcapasos que lleva funcionando 5 es igual a la probabilidad de cambio a los 20
años, es decir, P(X < 25/X > 5) = P(X < 20) = 0,75.

Distribución ji-cuadrado (n)


Un caso especial y muy importante de la distribución gamma se obtiene cuando a =
1/2 y p=n/2, y es conocida por el nombre de distribución ji-cuadrado de Pearson con
n grados de libertad (se denota por 2 n ). Es la distribución que sigue la suma de los
cuadrados de n variables independientes e idénticamente distribuidas según una
distribución normal estándar, N(0,1).

Esta distribución, que debe su nombre al matemático inglés Karl Pearson (1857-
1936), es fundamental en inferencia estadística y en los tests estadísticos de bondad
de ajuste. Se emplea, entre otras muchas aplicaciones, para realizar la prueba de
hipótesis de homogeneidad, de independencia o la prueba de bondad de ajuste
(todas ellas denominadas pruebas ji-cuadrado) y para determinar los límites de
confianza de la varianza muestral de una población normal. Si X sigue una
distribución ji-cuadrado con n grados de libertad, para valores de n grandes (n >

P á g i n a 22 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
100), entonces la variable Y  2X sigue aproximadamente una distribución normal de
media 2n 1 y desviación estándar 1.

Campo de variación:

0<x<

Parámetros: n: grados de libertad, n ≥ 1 entero

Ejemplo

Para estudiar la relación entre la edad de las mujeres y su aceptación de una ley
sobre interrupción del embarazo se ha llevado a cabo una encuesta sobre 400
mujeres cuyos resultados se recogen en la siguiente tabla:

Como resultado de aplicar la prueba ji-cuadrado de Pearson se obtuvo como valor


del estadístico 2=19,2828. Este valor por si solo no permite extraer ninguna
conclusión; debe compararse con el valor de la distribución ji-cuadrado de (5-1)*(3-
1)=8 grados de libertad que deja un 5% de probabilidad a su derecha, fijado un nivel
de significación del 5% o, equivalentemente, un nivel de confianza del 95%. Este
valor, llamado punto crítico, delimita la zona de rechazo de la hipótesis nula de no
asociación entre las variables.

1. Calcular el valor de la ji-cuadrado con 8 grados de libertad que deja a su derecha


un área bajo la curva igual a 0,05.

2. Representar la función de densidad y marcar en ella el valor del estadístico y el


punto crítico, ¿qué puede concluirse acerca de la relación entre las dos variables?

3. Calcular el valor p del estadístico, es decir, la probabilidad a la derecha del valor


del estadístico 2=19,2828.

1. El valor 15,5073 es el punto crítico del test para un nivel de significación del 5%,
ya que deja a su derecha una cola de probabilidad 0,05.
2.

P á g i n a 23 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

A la vista de este gráfico se puede observar como el valor del estadístico (línea
negra) es superior al punto crítico del test para un nivel de significación del 5% y, por
lo tanto, está en la zona de rechazo. Esto significa que hay evidencia de asociación
entre el grado de aceptación del aborto y la edad de las mujeres.

Distribución t de Student (n)


Esta distribución fue propuesta y tabulada por William Sealy Gosset (1876-1937),
más conocido por el seudónimo de Student, como resultado de un estudio sobre la
estimación de la media cuando el tamaño de muestra es pequeño, estos resultados
fueron publicados en 1908 en el artículo The Probable Error of a Mean [13]. La
distribución t de Student queda completamente definida por medio de sus grados
de libertad, n, y se denota por tn. Surge cuando se plantea estudiar el cociente entre
una variable aleatoria con distribución normal estándar y la raíz cuadrada del
cociente entre una variable aleatoria con distribución ji-cuadrado y sus grados de
libertad (n), siendo las dos variables independientes. Esta distribución desempeña
un papel muy importante en la inferencia estadística asociada a la teoría de
muestras pequeñas y es usada habitualmente en el contraste de hipótesis para la
media de una población o para comparar medias de dos poblaciones. En cuanto a la
forma que presenta su función de densidad cabe destacar las similitudes que
mantiene con la función de densidad de la distribución normal estándar: forma
acampanada, simétrica y centrada en el origen; la única diferencia existente entre
ambas distribuciones es que la función de densidad de la t de Student presenta unas
colas más pesadas (mayor dispersión) que la normal. Cabe destacar que el programa
sólo permite realizar el cálculo para una distribución t de Student con 150 grados de
libertad o menos. Esto no supone una limitación ya que, a medida que aumentan los
grados de libertad, esta distribución se va aproximando a la normal estándar, de
forma que a partir de ese valor de n pueden considerarse prácticamente idénticas.

P á g i n a 24 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
La distribución t de Student con 1 grado de libertad coincide con la distribución de
Cauchy estándar.

Campo de variación:

- < x < 

Parámetros:

n: grados de libertad, n ≥ 1 entero

Ejemplo

La distribución t de Student se aproxima a la normal a medida que aumentan los


grados de libertad.

1. Calcular, para una distribución N (0,1), el punto que deja a la derecha una cola de
probabilidad 0,05.

Para el primer apartado hay que seleccionar en la lista de distribuciones la normal


de parámetros  = 0 y  = 1.

1. En el segundo apartado se ejecutará dos veces Epidat 4: la primera vez para una
distribución t de Student con 10 grados de libertad y la segunda vez con 150
grados de libertad.

Distribución F de Snedecor (n,m)


Otra de las distribuciones importantes asociadas a la normal es la que se define
como el cociente de dos variables aleatorias independientes con distribución ji-
cuadrado divididas entre sus respectivos grados de libertad, n y m; la variable
aleatoria resultante sigue una distribución F de Snedecor de parámetros n y m
(denotada por Fn,m). Hay muchas aplicaciones de la F en estadística y, en particular,
tiene un papel importante en las técnicas del análisis de la varianza (ANOVA) y del
diseño de experimentos. Debe su nombre al matemático y estadístico americano
George Waddel Snedecor (1881-1974). Al igual que en la distribución ji-cuadrado y t
de Student, el programa limita los grados de libertad, tanto del numerador como del
denominador, no pudiendo exceder el valor 150 para poder realizar los cálculos.
Campo de variación:

0<x<

Parámetros:

n: grados de libertad del numerador, n ≥ 1 entero

m: grados de libertad del denominador, m ≥ 1 entero

Ejemplo

En un laboratorio se efectuaron ciertas mediciones y se comprobó que seguían una


distribución F con 10 grados de libertad en el numerador y 12 grados de libertad en
el denominador.

1. Calcule el valor que deja a la derecha el 5% del área bajo la curva de densidad.

2. ¿Cuál es la probabilidad de que la medición sea superior a 4,30?

P á g i n a 25 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS
3. Represente la función de distribución y de densidad de las medidas.

1. Resultados con Epidat 4:

El valor que deja a la derecha una probabilidad de 0,05 es 2,75.

2. Resultados con Epidat 4:

La probabilidad que deja a la derecha 4,30 es 0,01.

3. Las funciones de densidad y distribución de las medidas efectuadas se presentan


a continuación:

P á g i n a 26 | 27
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
ESCUELA DE INGENIERIA CIVIL, ARQUITECTURA Y SISTEMAS

LINCOGRAFIA

 https://www.grapheverywhere.com/analisis-de-riesgo-todo-lo-que-hay-que-saber/
 https://wikieconomica.com/riesgo-financiero/
 https://www.rankia.co/blog/analisis-colcap/3600744-riesgo-tipos-clases-ejemplos
 https://www.pj.gov.py/ebook/monografias/extranjero/economico/Marcelo-Camerini-
Eduardo-Barrera-La-Empresa-Bancaria.pdf
 https://www.palisade-lta.com/risk/analisis_de_riesgo.asp
 https://economipedia.com/definiciones/teorema-central-del-limite.html
 https://www.sergas.es/Saude-publica/Documents/1899/
Ayuda_Epidat_4_Distribuciones_de_probabilidad_Octubre2014.pdf

P á g i n a 27 | 27

También podría gustarte