SCDCap 2 Fund Probabilidad
SCDCap 2 Fund Probabilidad
SCDCap 2 Fund Probabilidad
− a2
z − a 2 γo − a 2 2 a1 − a 2
u= = = =
σo σo σo 2σo
La ecuación 2.28 se puede escribir como
∞ 1 u2 a1 − a 2
PB = ∫ u =( a1− a 2 ) / 2σo 2π
exp − du = Q
2 2σo
(2.29)
En donde Q(x), es conocida como la función de error complementario o función co-error, y esta
graficada en la figura 2.8.
Otra forma de función de co-error que es utilizada frecuentemente es
erfc( x ) =
2
π ∫
∞
x
[ ]
exp − u 2 du (2.30)
erfc( x ) = 2Q x π ( ) (2.31)
1 x
Q ( x ) = erfc (2.32)
2 2
0.9
0.8
0.7
0.6
0.5
Q(x)
0.4
0.3
0.2
0.1
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
x
1 u2 ∞
Figura 2.8. Función de error complementario Q ( x ) =
x 2π
exp − du
2
∫
La figura 2.8 fue graficada en Matlab usando las siguientes instrucciones
» x = -5:0.1:5;
» q = 0.5*erfc(x/sqrt(2));
» plot(x,q)
13 de 13
Por lo tanto la regla de decisión para el caso analizado compara la muestra recibida, z, con un
umbral de comparación óptimo γo.
S
s1 s2
H1
H2
Error=(H2∩s1)+ (H2∩s1)
PB=P(H2∩s1)+P(H1∩s2)
PB=P(H2s1)P(s1)+ P(H1s2)P(s2)
Esto es, dado que la clase de señal s1(t) fue transmitida, un error resulta si la hipótesis H2 es elegida;
o, dado que la clase s2(t) fue transmitida, un error resulta si se elige la hipótesis H1. Para el caso
especial de pdf’s simétricas y señales equiprobables P(s1)=P(s2)=0.5, podemos escribir
PB=P(H2s1)=P(H1s2)
Entonces PB es numéricamente igual al área debajo de la cola de cualquier pdf, p(zs1) o p(zs2),
evaluando en el lado incorrecto del umbral. Es decir
∞
PB = P(γo < z ≤ ∞) = ∫z =γo = ( a1+ a 2 ) / 2
p( z s 2)dz
∞ 1 1 z − a2 2
PB = ∫
z =γo = ( a1+ a 2 ) / 2 σo 2π
exp − dz
2 σo
(2.28)
z − a2
u= ; z = uσ o + a 2 ; dz = σodu
σo
y cambiando la variable del límite inferior de la integral
12 de 13
1 1 z − a1 2
exp −
σo 2π 2 σo
L( z ) =
1 1 z − a2 2
exp −
σo 2π 2 σo
z2 a1 2 2 za1
exp − 2
exp − 2
exp
2σo 2σo 2σo
2
L( z ) =
z2 a2 2 2 za 2
exp − 2
exp − 2
exp 2
2σo 2σo 2σo
H1
z ( a1 − a 2) a1 − a 2 > P ( s 2 )
2 2
L ( z ) = exp − (2.26)
σo
2
2σo 2 < P( s1)
H2
En donde a1 es la componente de la señal de salida en el receptor cuando s1(t) es enviada y a2 es la
componente de la señal de salida cuando s2(t) es enviada. La inecuación en 2.24 se mantiene al
aplicar transformaciones monótonamente ascendentes. Por lo tanto, tomando el logaritmo natural en
ambos lados de la inecuación 2.26
H1
z (a1 − a 2) a1 − a 2
2 2
> P ( s 2)
l ( z) = − ln
σo 2 2σo 2 < P( s1)
H2
Cuando las clases de señal son igualmente probables
P ( s 2)
ln = 0
P( s1)
así es que
H1
> a1 2 − a 2 2
z
< 2( a1 − a 2 )
H2
simplificando y definiendo el umbral óptimo γo
H1
> a1 + a 2
z = γo (2.27)
< 2
H2
11 de 13
Entonces ahora tenemos una regla de decisión en términos de las pdf’s. Si ordenamos la ecuación
2.23, tenemos la ecuación conocida como prueba de relación de probabilidades
H1
p ( z s1) > P ( s 2 )
(2.24)
p ( z s 2) < P ( s1)
H2
en donde
p ( z s1)
Relación de probabilidades .
p ( z s 2)
La ecuación 2.24 corresponde a hacer una decisión basada en la comparación de una medición de la
señal recibida contra un umbral. Ya que la prueba esta basada en la elección de una clase de señal
con máxima probabilidad a posteriori, el criterio de decisión es conocido como criterio máximo a
posteriori (MAP). También es conocido como criterio de mínimo error, ya que en el promedio,
este criterio proporciona el mínimo de errores en decisiones incorrectas.
1 1 no 2
p (no ) = exp − 2
(2.25)
σo 2π 2 σo
Probabilidad
p(zs2) p(zs1)
z(T)
a1 γo a2 Muestras recibidas
p ( z s1)
L( z ) =
p ( z s 2)
10 de 13
n(t)
Regla de decisión
(Hi z)
Decisión Hi
H 1 : s1
H 2 : s 2
.
M hipótesis M clases de señal
.
.
HM : sM
La muestra z(T) esta constituida de una componente de señal, ai(T), y una componente de ruido
no(T). El tiempo T es la duración del símbolo. En cada kT, en donde k es un entero, el receptor usa la
regla de decisión para decidir que clase de señal se recibió. Por simplicidad de notación,
normalizando T=1s, la ecuación 2.21 se puede escribir como z=ai+no.
Un punto razonable para establecer la regla de decisión en el receptor para el caso de dos clases de
señal se muestra a continuación
H1
>
P( s1 z ) P( s 2 z ) (2.22)
<
H2
La ecuación 2.22 muestra que debemos elegir la hipótesis H1 si la probabilidad a posteriori P(s1z)
es mayor que la probabilidad a posteriori P(s2z). De otra forma, debemos elegir H2.
Podemos reemplazar las probabilidades a posteriori de la ecuación 2.22 con sus expresiones
equivalentes del teorema de Bayes, ecuación 2.20
H1
>
p ( z s1) P ( s1) p ( z s 2) P ( s 2) (2.23)
<
H2
9 de 13
cualquier valor en el eje z. Si las pdf’s no se solapan, nosotros podemos clasificar la señal con
certeza. Para el ejemplo de la figura 2.4, necesitamos una regla que nos ayude a clasificar las
señales recibidas, ya que algunas señales caerán en la región en donde las dos pdf se solapan.
Consideremos una señal recibida za. Asumamos que las dos clases de señal s1 y s2, son igualmente
probables, y calculemos las dos probabilidades a posteriori alternativas. Además, sugiramos una
regla que el receptor pueda utilizar para decidir a que clase de señal pertenece za.
Probabilidad
p(zs2) p(zs1)
1
0.5
0.3
z
0 za
Muestras recibidas
Solución
De la figura podemos observar que p(zas1)=0.5 y p(zas2)=0.3. Sustituyendo en 2.20 con
P(s1)=P(s2)=0.5
(0.5)(0.5) 5
P( s1 za ) = =
(0.5)(0.5) + (0.3)(0.5) 8
(0.5)(0.5) 5
P( s1 za ) = =
(0.5)(0.5) + (0.3)(0.5) 8
Una regla es decidir que la señal recibida pertenece a la clase con máxima probabilidad a posteriori
(clase s1). Examine la figura 2.4 y notará que esta regla de máxima probabilidad va con el sentido
común.
z(T)=ai(T)+no(T) (2.21)
8 de 13
aleatoria, se especifica el ancho de su pdf. La varianza y el valor cuadrático medio están
relacionados por
σx2 =E(X2-2mxX+mx2)
σx2 =E(X2)-2mxE(X)+mx2
σx2 =E(X2)-mx2
P ( zj si ) P ( si )
P( si zj ) = M
i=1, ..., M (2.19)
∑ P ( z s ) P( s )
i =1
j i i
p ( z si ) P ( si )
P( si z ) = M
i=1, ..., M (2.20)
∑ p ( z s ) P( s )
i =1
i i
Ejemplo.
Consideremos las dos clases de señal s1 y s2, caracterizadas por sus pdf’s condicionales de forma
triangular p(zs1) y p(zs2), mostradas en la figura 2.4. Una señal se recibe; esta puede tener
7 de 13
dF ( x)
p( x) = (-∞≤x≤∞) (2.12)
dx
o en forma equivalente
x
F ( x) = ∫
−∞
p(u ) du (-∞≤x≤∞) (2.13)
P(X≤x2)=P(X≤x1)+P(x1<X≤x2)
F(x2)=F(x1)+P(x1<X≤x2)
x2
P(x1<X≤x2)=F(x2)-F(x1)= ∫ x1
p ( x )dx (2.14)
En otras palabras, la probabilidad del evento {x1<X≤x2} es simplemente el área debajo de la pdf en
el rango x1<X≤x2.
Promedios estadísticos
El valor medio, mx, o valor esperado de una variable aleatoria X esta definido por
∞
mx = E ( X ) = ∫ −∞
xp( x) dx (2.15)
∞
E( X n ) = ∫ −∞
x n p ( x )dx (2.16)
Para el propósito de análisis en los sistemas de comunicaciones, los momentos más importantes de
X son los dos primeros momentos. Entonces, n=1 en la ecuación 2.16 proporciona mx como en
2.15, y n=2 proporciona el valor cuadrático medio de X como en la siguiente ecuación
∞
E( X 2 ) = ∫ −∞
x 2 p ( x )dx (2.17)
En forma adicional se pueden definir los momentos centrales, que son los momentos de la
diferencia entre X y mx. El segundo momento central, conocido como la varianza de X, σx2, esta
definido por
∞
var( X ) = σx 2 = E (( X − mx) 2 ) = ∫−∞
( x − mx ) 2 p( x )dx (2.18)
6 de 13
Dada una variable aleatoria X=X(s), consideremos el evento {X≤x} en donde x es cualquier número
en el intervalo (-∞, ∞). Podemos escribir la probabilidad de este evento como P(X≤x) y su notación
simple como F(x)
6/6
5/6
4/6
3/6
2/6
1/6
x
0 1 2 3 4 5 6
Figura 2.2. Ejemplo de cdf para el experimento del dado.
La cdf de una variable aleatoria continua y típicamente aparece como en la figura 2.3. Esta es una
función de x lisa, no decreciente.
F(x)
5 de 13
P( B ∩ A) P( AB)
P( B A) = = (2.5)
P( A) P( A)
Escribiendo 2.4 y 2.5 de una forma diferente
P(AB)=P(AB)P(B)=P(BA)P(A) (2.6)
Una relación extremadamente útil para probabilidades condicionales es el teorema de Bayes que
muestra que la probabilidad para los eventos mutuamente exclusivos Ai, i=1, 2, …, n, es
P( AiB) P( B Ai ) P( Ai )
P( Ai B) = = n (2.7)
∑ P( B Aj) P( Aj )
P( B)
j =1
P(AiB)=P(BAi)P(Ai)
Para el denominador, de 2.2 y 2.6
n n
P( B) = ∑ P( AjB) = ∑ P( B Aj ) P( Aj )
j =1 j =1
P(AB)=P(A) (2.8)
Sustituyendo 2.8 en 2.6
P(AB)=P(A)P(B) (2.9)
Esto significa que la probabilidad conjunta de los eventos A y B se puede factorizar en el producto
de sus probabilidades marginales P(A), P(B) respectivamente. De esta forma, la expresión general
de 2.9 es
P I A = ∏ P( A )
i i (2.10)
i i
4 de 13
3
P( B) =
6
Entonces de 2.1, la probabilidad de la unión de estos dos eventos mutuamente exclusivos es
2 3 5
P( A ∪ B ) = P( A) + P( B) = + =
6 6 6
0≤ P(AiBj)≤1
Asumiendo que los resultados Ai, i=1, 2, …, n, son mutuamente exclusivos, es fácil mostrar de la
figura 2.1 que
n
P( Bj ) = ∑ P( AiBj ) (2.2)
i =1
A2 A3
A1
Bj
A4
A6
A5
m
P( Ai ) = ∑ P( AiBj ) (2.3)
j =1
P( A ∩ B) P( AB)
P( A B) = = (2.4)
P( B) P( B)
En donde A∩B=AB y P(B)≠0. En forma similar, la probabilidad condicional de un evento B
asumiendo A es
3 de 13
A ={1, 3, 5, 6}
Se dice que dos eventos son mutuamente exclusivos si ellos no tienen eventos elementales en
común. Por ejemplo, A y B son eventos mutuamente exclusivos y A y A también lo son.
La unión (suma) de dos eventos es un evento que consiste de todos los eventos elementales en los
dos eventos. Por ejemplo, la unión de B y C, denotada como B∪C, es el evento D
D=B∪C={1, 2, 3, 6}
Similarmente
A∪ A =S
Por otra parte, la intersección de dos eventos es un evento que consiste de los eventos elementales
que son comunes a ambos eventos. Entonces, si E=B∩C representa la intersección de los eventos B
y C, entonces
E=B∩C={1, 3}
Cuando dos eventos son mutuamente exclusivos, la intersección es el conjunto vacío. Por ejemplo,
A y B son eventos mutuamente exclusivos, y A A y también lo son ya que
A∩B=∅
A∩ A =∅
Las definiciones de unión e intersección se pueden extender a más de dos eventos de forma similar.
P(A)≥0
P(S)=1
Ai∩Aj=∅ i≠j=1, 2, …
Entonces la probabilidad de la unión de estos eventos mutuamente exclusivos es
P U Ai = ∑ P( Ai ) (2.1)
i i
2
P( A) =
6
2 de 13
Capítulo 2
Fundamentos de la teoría de decisión
Los fundamentos de la teoría de la decisión están construidos sobre las disciplinas matemáticas de
la probabilidad y las variables aleatorias.
Los elementos básicos del problema de la decisión son: 1) Un conjunto de hipótesis que
caractericen los posibles estados verdaderos por naturaleza, 2) Una prueba en dónde los datos se
obtienen a partir de aquellos que deseamos inferir la verdad, 3) Una regla de decisión que opera
sobre los datos para decidir, de forma óptima, cual hipótesis describe mejor el estado verdadero por
naturaleza, y 4) Un criterio de optimización. El criterio de optimización que eligiremos para la regla
de decisión es minimizar la probabilidad de hacer una decisión errónea.
S={1, 2, 3, 4, 5, 6}
En donde los enteros 1, ..., 6 representan el número de puntos en las seis caras del dado. Por otro
lado, se pueden definir los eventos A, B y C como
A={2, 4}
B={1, 3, 6}
C={1, 2, 3}
Adicionalmente, el complemento del evento A denotado como A , consiste de todos los eventos
elementales en el evento seguro S que no están en A
1 de 13