Cursor
Cursor
Cursor
Publicación 0.1
Saní
27 de June de 2017
Índice general
1. Introducción a R 3
1.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Instalación de R y RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Interfaz gráfica de RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Comparación con EXCEL, SAS, SPSS, Stata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Instalación de paquetes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4. Gestión de Datos 37
4.1. Datos crudos y datos ordenados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2. Gestión de archivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3. Lectura de datos desde distintos tipos de fuentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4. Herramientas básicas para limpiar y manipular datos . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5. Conectar con bases de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5. Probabilidad y Distribuciones 47
5.1. Conceptos de probabilidades basados en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2. Valores esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.3. Distribución de Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.4. Simulación de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.5. Errores de decisión, significación y confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
I
6.4. Enfoques de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.5. Repaso de diversos contrastes estadísticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
9. Modelos de Regresión 79
9.1. Conceptos de regresión basados en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2. Regresión lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.3. Regresión lineal múltiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
9.4. Relación entre dos variables numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.5. Regresión lineal con un predictor único . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.6. Inferencias mediante regresión lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.7. Regresión con múltiples predictores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.8. Selección de modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
II
Estadística Computacional en R, Publicación 0.1
El uso de R tiene dos puntos de vista, uno de computación dirigido hacia el uso de R como lenguaje de programación,
y otro estadístico, según el cual R sirve de herramienta para modelado estadístico.
Ambos enfoques son fundamentales para el correcto uso del entorno R, este taller pretende ofrecer un balance equili-
brado entre R como lenguaje de programación y como herramienta de modelado estadístico.
Contenidos:
Índice general 1
Estadística Computacional en R, Publicación 0.1
2 Índice general
CAPÍTULO 1
Introducción a R
Conceptos básicos
R es un dialecto del lenguaje S. Este último fue desarrollado en 1976 por John Chambers y sus colegas en Bell Labs,
como un entorno para análisis estadístico interno, y se implementó inicialmente como librerías de Fortran.
Los fundamentos básicos de S no han cambiado desde 1998, año en el cual, como lenguaje, ganó el Premio de la
Association for Computing Machinerys Software System.
Para ese mismo año, y habiéndose hecho público R como lenguaje en 1993, se forma el Core Group R a fin de controlar
el código fuente de R, integrado por varias personas asociadas con S-PLUS.
La versión más reciente de R es la 3.0.2 publicada en Diciembre del 2013.
El lenguaje R tiene como características básicas:
R es un Lenguaje y Entorno de programación dinámico para análisis estadístico y generación de gráficos.
Puede ser ejecutado en casi cualquier plataforma estándar de sistema operativo (aún PlayStation 3!!)
Puede utilizarse en modo interactivo o script.
Es Software Libre, con una amplia comunidad de desarrolladores, investigadores y usuarios.
Instalación de R y RStudio
Windows
3
Estadística Computacional en R, Publicación 0.1
Linux
Debian estable
Finalmente instalar
$ apt-get update
$ apt-get install r-base r-base-dev
Ubuntu o Mint
E instalar finalmente
$ sudo apt-get update
$ sudo apt-get install r-base r-base-dev
4 Capítulo 1. Introducción a R
Estadística Computacional en R, Publicación 0.1
El Editor por defecto está oculto y se activa cuando se crea un nuevo archivo que puede ser código R, R Markdown,
un archivo de texto u otros.
La Consola es el terminal interactivo de R donde se envían los comandos para ser ejecutados.
En el Entorno se encuentra tanto la información de los objetos de R en la memoria con funcionalidad para importar
datos, y existen pestañas para manejo del historial y del sistema de control de versiones.
Finalmente en el panel Ayuda, aparte de acceso integrado a la ayuda de R y los paquetes activos, se ofrece un explorador
de archivos, el gestor de paquetes y el gestor de gráficos.
En la actualidad, el SAS Institute e IBM SPSS, y otras compañías trabajan para extender sus sistemas usando R.
Al igual que hay complementos de EXCEL para integrarlo con las capacidades de R. En buena medida, R es una
alternativa para Stata como lenguaje de programación y modelado estadístico.
Entre los beneficios directos de usar R se tiene:
Acceso a una gran variedad de métodos de análisis.
Acceso temprano a nuevos métodos.
Muchos paquetes computacionales permiten ejecutar programas en R. Puede realizar el manejo de datos en el
sistema de su preferencia y después lanzar los análisis usando R.
La rápida difusión de R como lenguaje estadístico de referencia.
La gran calidad y flexibilidad de los gráficos generados por R.
La capacidad para analizar datos en una gran cantidad de formatos.
Cuenta con capacidades de orientación a objetos.
Facilidades para implantar sus propios métodos de análisis.
Posibilidad de revisar en detalle como están implantados los métodos de análisis.
Los métodos propios están desarrollados en el mismo lenguaje que la mayoría de los métodos del sistema.
Provee capacidades de álgebra matricial similares a Matlab.
Se ejecuta en prácticamente cualquier sistema operativo, ya sea Windows, Mac, Linux, o Unix.
R es libre.
El soporte que se espera de R se ofrece mediante las listas de discusión vía email, y foros como stackoverflow. Es-
tos espacios tienen dinámicas propias y demandan de los usuarios destrezas para plantear preguntas y entender las
respuestas, y desarrollar criterios para distinguir entre distintas opciones.
En sistemas como SAS y SPSS se distinguen 5 componentes tales como:
Gestión de datos, que permiten leer, transformar y organizar los datos.
Procedimientos estadísticos y gráficos.
Sistemas de extracción de salidas que permiten extraer salidas de unos procedimientos para utilizarlos como
entradas en otros: SAS Output Delivery System (ODS) y SPSS Output Management System (OMS).
Un lenguaje de macros que facilita el uso de los anteriores componentes.
Un lenguaje matricial para implantar nuevos métodos: SAS/IML y SPSS Matrix.
La diferencia es que R realiza estas funciones de una forma tal que las integra a todas. En particular facilita la gestión
de salidas, una característica poco utilizada por los usuarios de los otros sistemas.
Instalación de paquetes
Cuando se descarga R del Comprehensive Archive Network (CRAN), se obtiene el sistema base que ofrece la funcio-
nalidad básica del lenguaje R.
Se encuentra disponible una gran cantidad de paquetes que extienden la funcionalidad básica de R. Estos paquetes son
desarrollados y publicados por la comunidad de usuarios de R.
La principal ubicación para obtener paquetes de R es CRAN. Se dispone de muchos paquetes para aplicaciones de
bioinformática,del Proyecto Bioconductor.
Se puede obtener información de los paquetes disponibles en los repositorios configurados mediante la función
available_packages().
En la actualidad se dispone de caso 6 mil paquetes en CRAN que cubren una gran diversidad de temas. Una buena
orientación inicial se puede encontrar en el enlace Task Views (Vista por tareas) de la página principal de CRAN, que
agrupa los paquetes de R por área de aplicación.
Instalar paquetes de R
Los paquetes se pueden instalar con la función de R install.packages(). Para instalar un paquete se pasa su
nombre como primer argumento. El código a continuación instala el paquete knitr desde CRAN.
install.packages("knitr")
Este comando descarga el paquete knitr desde CRAN y lo instala en su computadora. De igual manera, se descargan
e instalan todas sus dependencias.
Si se introduce como parámetro un vector tipo carácter se pueden instalar varios paquetes en simultáneo.
Desde la interfaz de RStudio se pueden instalar desde el menu Tools>Install Packages..., o bien desde la
pestaña Packages del panel Ayuda.
En ambos casos se despliega un diálogo de instalación de paquetes que permite indicar el nombre del paquete en una
caja de texto. Si el paquete se encuentra en el repositorio después de escribir unas pocas letras del nombre debería
autocompletarse.
Para instalar un paquete desde Bioconductor se deben instalar las funciones básicas de este repositorio mediante las
instrucciones:
source("http://bioconductor.org/biocLite.R")
biocLite()
El primer comando carga funciones de R desde el script biocLite.R, el segundo ejecuta una función contenida en
este.
A partir de este momento, Bioconductor queda configurado como repositorio y es posible instalar paquetes del mismo
utilizando la función install_packages().
6 Capítulo 1. Introducción a R
Estadística Computacional en R, Publicación 0.1
Cargar paquetes
Para que las funcionalidades de los paquetes estén disponibles en la sesión de R tienen que ser cargados en la memoria.
Esto se realiza mediante la función library(). Por ejemplo, para cargar el paquete reshape:
library(reshape)
Nótese que a diferencia de la instalación, en este caso no son necesarias las comillas para introducir el nombre del
paquete.
Este comando carga tanto el paquete indicado como todas sus dependencias.
Al cargar un paquete, todos los objetos contenidos en el mismo quedan disponibles en el entorno, y su documentación
es incluida en el sistema de ayuda.
Desde la interfaz de RStudio en la pestaña Packages del Panel Ayuda, se pueden cargar paquetes haciendo clic en la
casilla de verificación que se encuentra a la izquierda del nombre correspondiente.
8 Capítulo 1. Introducción a R
CAPÍTULO 2
Objetos
Valores numéricos
En R los números se tratan por defecto como objetos numéricos (es decir, valores de punto flotante de doble precisión).
Si se desea establecer un valor numérico como entero se le debe agregar el sufijo L.
Por ejemplo: 1 denota a un objeto numérico; mediante 1L el usuario establece explícitamente un entero.
El valor numérico especial Inf denota simbólicamente al infinito. Por ejemplo:
> 1 / 0
[1] Inf
Atributos
9
Estadística Computacional en R, Publicación 0.1
Asignación
El operador de asignación requiere del valor a asignar. El símbolo # indica un comentario, es decir todo lo que se
encuentra a la derecha del símbolo es ignorado por R. Es el mecanismo empleado para añadir textos explicativos.
Evaluación
Cuando se introduce una sentencia completa en la consola, esta es evaluada. En la consola interactiva, el contenido de
los objetos de imprime directamente.
> N <- 6
> N # impresión automática.
[1] 6
> print(N) # impresión explícita.
[1] 6
Creación de vectores
Se puede utilizar la función vector() o una función de cuyo nombre sea clase del vector a crear:
> vector("character", 5)
[1] "" "" "" "" ""
> character(5)
[1] "" "" "" "" ""
Mezcla de objetos
Si se mezclan valores de distintas clases en un vector, estos se “coercen”. Es decir, se cambia la clase de los valores
para obligar que todos sean de la misma clase.
Funciones del tipo as.numeric() o as.logical se pueden utilizar para realizar una coerción explícita del vector.
Cuando los valores no pueden ser coercidos al tipo indicado devuelve valores especiales del tipo NA (No disponible,
“Not Available”).
> z <- as.numeric(x)
Mensajes de aviso perdidos
NAs introducidos por coerción
> z
[1] NA 4
Matrices
Son arreglos con un atributo de dimensión de dos valores enteros que hacen referencia al número de filas y columnas.
> A <- matrix(1:12, nrow = 3, ncol = 4)
> A
[,1] [,2] [,3] [,4]
[1,] 1 4 7 10
[2,] 2 5 8 11
[3,] 3 6 9 12
> dim(A)
[1] 3 4
Del ejemplo anterior, se puede observar que los valores se ordenan por defecto en la matriz por columnas. A menos
que se establezca lo contrario mediante el argumento byrow = TRUE.
Se puede crear una matriz añadiendo un atributo de dimensión a un vector.
> w <- 1:10
> dim(w) <- c(2,5)
> w
[,1] [,2] [,3] [,4] [,5]
[1,] 1 3 5 7 9
[2,] 2 4 6 8 10
También se pueden crear matrices uniendo vectores como filas (rbind(), row binding) o como columnas (cbind(),
column binding).
> x <- 3:5
> y <- 10:12
> rbind(x, y)
Listas
Las listas son objetos que contienen elementos de distintas clases. Son tipos de datos muy importantes en R, ya que
son la base de datos estructurados.
[[2]]
[1] 5
[[3]]
[1] TRUE
[[4]]
[1] 1+4i
Factores
Los factores se utilizan para representar datos categóricos ordenados o desordenados. Se pueden concebir como valores
enteros asociados a etiquetas. A diferencia de los enteros los factores son descriptivos.
Son especialmente importantes para especificar modelos estadísticos, ya sea en modelos de regresión, o para la gene-
ración de gráficos.
Los distintos valores de un factor se conocen como “niveles” (levels).
La función levels() puede utilizarse para especificar el orden de los niveles, y los posibles valores que puede tener
un factor.
Valores Faltantes
Son aquellos denotados por NA o NaN para los que se generan por operaciones matemáticas indefinidas.
Para verificar si los objetos son NA o NaN se pueden utilizar respectivamente las funciones is.na() o is.nan().
Los valores NA pertenecen a una clase, por esta razón se tienen valores NA enteros, NA lógicos, etc.
Un valor NaN es NA pero no a la inversa.
> s <- c(NA, 5, 0 / 0)
> s
[1] NA 5 NaN
> is.na(s)
[1] TRUE FALSE TRUE
> is.nan(s)
[1] FALSE FALSE TRUE
Data Frames
Los data frames tienen el atributo especial row.names() que permite asociar nombres a las filas.
Del mismo modo, se pueden asociar nombres a las filas y a las columnas de una matriz con las funciones
rownames() y colnames() respectivamente. O de forma simultánea con dimnames().
> f <- matrix(1:8, nrow = 2, ncol = 4,
+ dimnames = list(c("uno", "dos"),1:4))
> f
1 2 3 4
uno 1 3 5 7
dos 2 4 6 8
> colnames(f) <- c("I", "II", "III", "IV")
> f
I II III IV
uno 1 3 5 7
dos 2 4 6 8
Funciones básicas
La función read.table() es una de las mas utilizadas, entre sus argumentos mas importantes tenemos:
file, nombre de un archivo o conexión.
header, valor lógico que indica si el archivo tiene una línea de cabecera.
sep, la cadena de caracteres usada como separador de columnas.
colClasses, un vector clase carácter que indica la clase de cada columna.
nrows, el número de filas de un conjunto de datos.
comment.char, la cadena de caracteres usada como indicador de comentarios.
skip, el número de líneas a saltar al principio.
stringsAsFactors, valor lógico que indica si las columnas de tipo carácter serán codificadas como factores.
Para conjuntos de datos pequeños y medianos, se pueden ejecutar read.table() sin ningún otro argumento.
La función automáticamente:
Saltará todas las líneas que empiezan con #.
Determinará cuantas líneas son y cuanta memoria necesitará.
Determinará la clase mas conveniente para cada columna.
read.csv() es similar, pero asume que el separador es una coma.
Para conjuntos de datos mas grandes, las siguientes recomendaciones pueden ser útiles:
Leer la página de ayuda de help.table(), que contiene muchas pistas.
Hacer un cálculo grueso de la memoria requerida, si excede la cantidad de RAM disponible es hora de pensar
en otro método.
Establecer comment.char = "" si no hay líneas comentadas en el archivo.
Especificar el argumento colClasses, hará la lectura mucho mas rápida.
En este caso se utilizan las clases que el propio R estima leyendo las primeras 100 filas para leer el archivo completo.
Establecer el argumento nrows, lo que permite controlar el uso de memoria. Puede usarse para leer un archivo
muy grande por partes.
Todo pasa por conocer nuestro sistema, las especificaciones de hardware, la arquitectura del procesador, el sistema
operativo utilizado, las aplicaciones en memoria y los usuarios con sesiones abiertas.
Por ejemplo, un data.frame de millón y medio de filas y 120 columnas de datos numéricos (8 bytes por valor) requerirá
aproximadamente de:
> mem <- 1500000 * 120 * 8 # bytes
> mem <- mem / 2^20 # megabytes
> mem
[1] 1373.291
> mem <- mem / 1024 # gigabytes
> mem
[1] 1.341105
Representaciones de texto
Utilizando dput() se pueden obtener representaciones de los datos en archivos de texto, que se pueden editar y
recuperar.
Estas representaciones preservan los metadatos, y funcionan mejor con sistemas de control de versiones y la “filosofía
Unix” en general
Tienen el problema que pueden requerir un gran espacio de almacenamiento.
Se utiliza dump() para almacenar representaciones de texto de objetos como asignaciones que pueden ser cargados
en memoria por lotes con source().
> x <- pi
> y <- data.frame(a = c(1, 2), b = c("uno", "dos"))
> dump(c("x", "y"), file = "data.R")
> rm(x, y)
> source("data.R")
> x
[1] 3.141593
> y
a b
1 1 uno
2 2 dos
Se pueden obtener datos utilizando interfaces de conexión. La conexiones pueden ser archivos u otras cosas mas
exóticas:
file(), abre una conexión a un archivo.
gzfile(), abre una conexión a un archivo comprimido como gzip.
bzfile(), abre una conexión a un archivo comprimido como bzip2.
url(), abre una conexión a un recurso en Internet, usualmente un sitio web.
Las funciones de conexión en general tienen los argumentos:
description, para file() y otras conexiones a archivo es la ruta y nombre del archivo, para url() la
dirección web.
open, es el tipo de la conexión, "r" para solo lectura, "w" para iniciar un nuevo archivo y escribir, "a" para
añadir, y "rb", "wb" y "ab" los equivalentes en modo binario (Windows).
Las conexiones permiten leer archivos de forma secuencial. Por ejemplo, si tenemos el archivo de texto comprimido
"palabras.txt.gz". Se podría leer como sigue:
La función writeLines() toma como argumento un vector de clase carácter y escribe cada elemento como una
línea de una archivo de texto.
Se puede igualmente utilizar una conexión para obtener el código de una página web.
Estructuras de control
if
Esto es: si la condición x > 3 se satisface se ejecuta el código a continuación encerrado entre llaves. La siguientes
sentencias son opcionales, se pueden colocar tantos else if(<condición>) “de lo contrario si” como sean
necesarios, y de ser necesario una sentencia else final.
Debido a la naturaleza funcional de R, la siguiente expresión es equivalente:
y <- if (x > 3) {
10
} else if (x < -3) {
-10
} else {
0
}
for
En los bucles for a una variable iteradora le asignan valores sucesivos de un vector o secuencia.
Los siguientes bucles son equivalentes:
for (i in 1:4) {
print(x[i])
}
for (i in seq_along(x)) {
print(x[i])
}
for (letter in x) {
print(letter)
}
for (i in 1:4) print(x[i])
Funciones
Las funciones se utilizan para reorganizar el código, ya sea para contener secuencias de expresiones utilizadas de
forma reiterada, o para separar el código en componentes mas comprensibles.
Se crean utilizando la directiva function() y se almacenan como cualquier otro objeto. Son, de hecho, objetos de
la clase function.
Tienen la siguiente sintaxis básica:
function( arglist )
expr
return(value)
Argumentos
Las funciones tienen argumentos con nombre a los que pueden asignarse valores por defecto.
Los argumentos que aparecen en la definición de la función se denominan argumentos formales.
La función formals devuelve una lista con los argumentos formales de una función.
> f <- function(a, b) a + b
> formals(f)
$a
$b
Las llamadas a las funciones de R no tienen que utilizar todos los argumentos. Algunos pueden ser quedar
faltantes y otros tener valores por defecto.
Coincidencia de argumentos
Los argumentos pueden coincidir por posición o por el nombre. Todas las llamadas a continuación de la función sd
son equivalentes:
> midata <- rnorm(100)
> sd(midata)
> sd(x = midata)
> sd(x = midata, na.rm = FALSE)
> sd(na.rm = FALSE, x = midata)
> sd(na.rm = FALSE, midata)
Cuando un argumento coincide por nombre, se saca de la lista de argumentos. De manera que los restantes mantienen
el mismo orden.
Por ejemplo, en el caso de la función lm() que se utiliza para ajustar modelos lineales que tiene los siguientes
argumentos:
> args(lm)
function (formula, data, subset, weights, na.action, method = "qr",
model = TRUE, x = FALSE, y = FALSE, qr = TRUE, singular.ok = TRUE,
contrasts = NULL, offset, ...)
Los argumentos pueden tener una coincidencia parcial. Esto es, se pueden hacer coincidir los argumentos por nombre
sin tener que escribir el argumento completo siempre que no haya ambigüedad.
Los siguientes llamados son equivalentes:
seq.int(0, 1, len = 11)
seq.int(0, 1, length.out = 11)
ls(all = TRUE)
ls(all.names = TRUE)
Los argumentos de las funciones de R también emplean evaluación perezosa, esto implica que solamente se consideran
necesarias en la medida que se utilizan dentro de la función. Por ejemplo, el siguiente código corre sin problemas.
f <- function(a, b) {
a^2
}
f(2)
En este caso, como b nunca es utilizado, no genera error. De hecho, se ejecutarían todas las sentencias hasta encontrar
una referencia a b.
Se puede utilizar ... para indicar un número de argumentos variable, o el pase de argumentos de forma implícita.
Generalmente se utilizan para extender funciones.
Los argumentos formales que aparecen después de ... deben ser explícitos y no admiten coincidencias parciales.
2.4. Funciones 19
Estadística Computacional en R, Publicación 0.1
> args(paste)
function (..., sep = " ", collapse = NULL)
> paste("a", "b", sep = ":")
[1] "a:b"
> paste("a", "b", se = ":")
[1] "a b :"
Reglas de alcance
El entorno global o espacio de trabajo del usuario siempre es el primer elemento de la lista de búsqueda y el
paquete base siempre es el último.
Los objetos se buscan en el orden de la lista de búsqueda hasta que se encuentra una coincidencia.
Cuando se carga un usuario usando library() el espacio de nombres de ese paquete se sitúa en la segunda
posición y todos los demás quedan debajo.
Nótese que R tiene un espacio de nombres separado para funciones y no funciones por lo que es posible tener el
objeto de nombre “c” y una función de nombre “c”.
Las reglas de alcance determinan como un valor es asociado con una variable libre en una función.
Alcance léxico
Los valores de las variables libres se buscan en el entorno donde fue definido la variable.
Consideremos el siguiente ejemplo:
make.power <- function(n) {
pow <- function(x) {
x^n
}
pow
}
Como se ve, las funciones cube() y square() toman el valor de n de las asignación que se hace al llamar a
make.power().
Tener las variables en formato de fecha y tiempo facilita operaciones de sumar y sustraer fechas, y comparar fechas.
El tiempo se representa usando las clases POSIXct o POSIXlt. Y se almacenan internamente como el número de
segundos desde 1970-01-01.
POSIXct es un entero grande, útil para almacenar valores temporales en un data frame;
POSIXlt es una lista que almacena información adicional como el día de la semana, el día del año, mes, y día del
mes.
Hay funciones genéricas que funcionan en fechas y tiempos:
weekdays() : devuelve el día de la semana.
months() : devuelve el nombre del mes.
quarters() : devuelve el número del trimestre (“Q1”, “Q2”, “Q3”, or “Q4”)
Las funciones as.POSIXct() y as.POSIXlt() pueden utilizarse para coercer una cadena de carácter en un
objeto temporal.
Se utiliza la función strptime() para convertir cadenas de carácter que se encuentran en distintos formatos en
objetos de clase fecha o tiempo.
> datestring <- c("Enero 10, 2012 10:40", "Diciembre 9, 2011 9:10")
> x <- strptime(datestring, "%B %d, %Y %H:%M")
> x
[1] "2012-01-10 10:40:00 VET" "2011-12-09 09:10:00 VET"
Es importante notar que los nombres de los meses se indican en español porque R con la opción %B lee las nombres
de mes de acuerdo a la configuración local del sistema.
Los argumentos de strptime() indican de forma resumida el formato de los datos temporales, por ejemplo:
" %Y %H: %M" indica el año en cuatro dígitos, un espacio, la hora como número decimal, dos puntos y los minu-
tos como un número decimal.
Utilizando la función Sys.setlocale() se posible establecer la configuración local de la sesión de R según sea
necesario.
Hacer bucles for, while es muy útil cuando se programa, pero no resulta especialmente sencillo cuando se trabaja
interactivamente con la línea de comando. Es por ello que hay algunas funciones que implementan bucles para hacer
el trabajo más sencillo.
lapply: Bucle a lo largo de una lista que evalúa una función en cada elemento
sapply: Funciona del mismo modo que lapply pero trata de simplificar el resultado
apply: Aplica una función sobre los márgenes de un arreglo
tapply: Aplica una función sobre un subconjunto de un vector
mapply: Una versión multivariante de lapply
Existe una función auxiliar llamada split que resulta también útil particularmente de modo conjunto con lapply
lapply
lapply toma tres argumentos: (1) una lista d X; (2) una función (o el nombre de una función) FUN; (3) otros
argumentos a través de su ... argumento. Si X no es una lista, será forzado a serlo utilizando as.list.
lapply
23
Estadística Computacional en R, Publicación 0.1
## $a
## [1] 3
##
## $b
## [1] 0.4671
## $a
## [1] 2.5
##
## $b
## [1] 0.5261
##
## $c
## [1] 1.421
##
## $d
## [1] 4.927
[[2]]
[1] 0.2186453 0.5167968
[[3]]
[1] 0.2689506 0.1811683 0.5185761
[[4]]
[1] 0.5627829 0.1291569 0.2563676 0.7179353
[[2]]
[1] 6.848960 7.195282
[[3]]
[1] 3.5031416 0.8465707 9.7421014
[[4]]
[1] 1.195114 3.594027 2.930794 2.766946
[,1] [,2]
[1,] 1 3
[2,] 2 4
$b
[,1] [,2]
[1,] 1 4
[2,] 2 5
[3,] 3 6
$b
[1] 1 2 3
sapply
$b
[1] 0.06082667
$c
[1] 1.467083
$d
[1] 5.074749
> mean(x)
[1] NA
Warning message:
In mean.default(x) : argument is not numeric or logical: returning NA
Simulación
3.2. Simulación 25
Estadística Computacional en R, Publicación 0.1
rnorm: genera variables aleatorias de tipo Normal con una media y desviación estándar dadas.
dnorm: evalúa la densidad de probabilidad de una Normal (con una media y desviación estándar dadas) en un
punto (o vector de puntos)
pnorm: evalúa la función de la distribución acumulada para una distribución Normal
rpois: genera variables aleatorias Poisson con un índice dado.
Las funciones de distribución de probabilidad, generalmente tienen cuatro funciones asociadas a ellas. Estas son:
d para densidad
r para generación de número aleatorio
p para distribución acumulada
q para función cuantil.
El trabajo con distribuciones tipo Normal requiere el uso de estas cuatro funciones
dnorm(x, mean = 0, sd = 1, log = FALSE)
pnorm(q, mean = 0, sd = 1, lower.tail = TRUE, log.p = FALSE)
qnorm(p, mean = 0, sd = 1, lower.tail = TRUE, log.p = FALSE)
rnorm(n, mean = o, sd = 1)
If Φ es la función de distribución acumulada de una distribución Normal estandar, entonces pnorm(q) = Φ(𝑞) y
qnorm(p) = Φ−1 (𝑝)
> x <- rnorm(10)
> x
[1] 1.38380206 0.48772671 0.53403109 0.66721944
[5] 0.01585029 0.37945986 1.31096736 0.55330472
[9] 1.22090852 0.45236742
> x <- rnorm(10, 20, 2)
> x
[1] 23.38812 20.16846 21.87999 20.73813 19.59020
[6] 18.73439 18.31721 22.51748 20.36966 21.04371
> summary(x)
Min. 1st Qu. Median Mean 3rd Qu. Max.
18.32 19.73 20.55 20.67 21.67 23.39
¡Recuerde siempre establecer la semilla del número aleatorio cuando ejecuta una simulación!
Para generar datos Pisson
> rpois(10, 1)
[1] 3 1 0 1 0 0 1 0 1 1
> rpois(10, 2)
[1] 6 2 2 1 3 2 2 1 1 2
> rpois(10, 20)
[1] 20 11 21 20 20 21 17 15 24 20
Supongamos que queremos hacer una simulación a partir del siguiente modelo lineal
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝜖
donde 𝜖 ∼ 𝑁 (0, 22 ). Se asume 𝑥 𝑁 (0, 12 ), 𝛽0 = 0,5 y 𝛽1 = 2
> set.seed(20)
> x <- rnorm(100)
> e <- rnorm(100, 0, 2)
> y <- 0.5 + 2 * x + e
> summary(y)
Min. 1st Qu. Median
-6.4080 -1.5400 0.6789 0.6893 2.9300 6.5050
> plot(x, y)
Supongamos que queremos hacer una simulación a partir de un modelo Poisson donde
𝑌 ∼ 𝑃 𝑜𝑖𝑠𝑠𝑜𝑛(𝜇)
𝑙𝑜𝑔𝜇 = 𝛽0 + 𝛽1 𝑥
y 𝛽0 = 0,5 y 𝛽1 = 0,3
En ese caso, se requiere el uso de la función rpois
> set.seed(1)
> x <- rnorm(100)
> log.mu <- 0.5 + 0.3 * x
> y <- rpois(100, exp(log.mu))
> summary(y)
Min. 1st Qu. Median Mean 3rd Qu. Max.
3.2. Simulación 27
Estadística Computacional en R, Publicación 0.1
Muestreo Aleatorio
La función sample hace un gráfico aleatorio a partir de un conjunto específico de objetos (escalares) permitiéndole
hacer un muestreo a partir de distribuciones arbitrarias.
> set.seed(1)
> sample(1:10, 4)
[1] 3 4 5 7
> sample(1:10, 4)
[1] 3 9 8 5
> sample(letters, 5)
[1] "q" "b" "e" "x" "p"
> sample(1:10) ## permutation
[1] 4 710 6 9 2 8 3 1 5
> sample(1:10)
[1] 2 3 4 1 9 5 10 8 6 7
> sample(1:10, replace = TRUE) ## Sample w/replacement
[1] 2 9 7 8 2 8 5 9 7 8
Resumen
Para realizar gráficos de muestras para distribuciones específicas de probabilidad pueden utilizarse las funciones
r*
Las distribuciones estandar son: Normal, Poisson, Binomial, Exponencial, Gamma, etc.
La función sample puede utilizarse para graficar muestras aleatorias a partir de vectores arbitrarios
Para la replicación del modelo, resulta muy importante configurar el generador de números aleatorios a través
de set.seed
Herramientas de depuración
warning
log(-1)
## [1] NaN
printmessage(NA)
printmessage2(x)
Herramientas de depuración en R
traceback
> mean(x)
Error in mean(x) : object 'x' not found
> traceback()
1: mean(x)
>
> lm(y ~ x)
Error in eval(expr, envir, enclos) : object ’y’ not found
> traceback()
7: eval(expr, envir, enclos)
6: eval(predvars, data, env)
5: model.frame.default(formula = y ~ x, drop.unused.levels = TRUE)
4: model.frame(formula = y ~ x, drop.unused.levels = TRUE)
3: eval(expr, envir, enclos)
2: eval(mf, parent.frame())
1: lm(y ~ x)
debug
> debug(lm)
> lm(y ~ x)
debugging in: lm(y ~ x)
debug: {
ret.x <- x
ret.y <- y
cl <- match.call()
...
if (!qr)
z$qr <- NULL
z
}
Browse[2]>
Browse[2]> n
debug: ret.x <- x
Browse[2]> n
debug: ret.y <- y
Browse[2]> n
debug: cl <- match.call()
Browse[2]> n
debug: mf <- match.call(expand.dots = FALSE)
Browse[2]> n
debug: m <- match(c("formula", "data", "subconjunto", "pesos", "na.accion",
"offset"), names(mf), 0L)
recover
1: read.csv("nosuchfile")
2: read.table(file = file, header = header, sep = sep, quote = quote, dec =
3: file(file, "rt")
Selection:
Resumen
La refinación es una forma sistemática de examinar cuánto tiempo se demoran las distintas partes de un progra-
ma.
Es útil cuando se intenta optimizar el código
A menudo el código se ejecuta bien una vez, pero ¿qué ocurre cuando debe generarse un bucle para 1.000
iteraciones? ¿es lo suficientemente rápido?
La refinación es mejor que el tanteo.
Obtener el mayor impacto en la aceleración del código depende de conocer en dónde se demora el código más
tiempo.
No puede realizarse la optimización del código sin un analisis de desempeño o un refinamiento.
Debemos olvidarnos de las pequeñas eficiencias, casi un 97 % de las veces decir: optimización pre-
matura es la raíz de todos los males Donald Knuth
Utilizando system.time()
Tome una expresión arbitraria de R como entrada (puede estar encerrada entre llaves) y observe la cantidad de
tiempo que se toma en evaluar esa expresión.
Calcule, en segundos, el tiempo necesitado para ejecutar una expresión
• Si hay un error, de tiempo hasta que ocurra
Devuelva un objeto de clase proc_time
• user time: tiempo asignado al(os) CPU(s) para esta expresión
• elapsed time: tiempo de “reloj de pared”
Con frecuencia, el user time y el elapsed time, para tareas correctas de cómputo, tienen valores relati-
vamente similares.
elapsed time puede ser mayor que user time, si el CPU gasta mucho tiempo esperando.
elapsed time puede ser menor que user time si la máquina es multicore o multi procesador (y los
utiliza)
• Librerías BLAS multiciclo (vcLib/Accelerate, ATLAS, ACML, MKL)
system.time({
n <- 1000
r <- numeric(n)
for (i in 1:n) {
x <- rnorm(n)
r[i] <- mean(x)
}
})
Utilizar system.time() permite provar ciertas funciones o bloques de código para ver si toman excesivo
tiempo en su ejecución.
Si se conoce dónde está el problema, puede hacerse la llamada a la función system.time() en ese punto.
Pero ¿Qué pasa si no se sabe por dónde comenzar?
El refinador de R
## lm(y ~ x)
sample.interval=10000
"list" "eval" "eval" "model.frame.default" "model.frame" "eval" "eval" "lm"
"list" "eval" "eval" "model.frame.default" "model.frame" "eval" "eval" "lm"
"list" "eval" "eval" "model.frame.default" "model.frame" "eval" "eval" "lm"
"list" "eval" "eval" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"na.omit" "model.frame.default" "model.frame" "eval" "eval" "lm"
"lm.fit" "lm"
"lm.fit" "lm"
"lm.fit" "lm"
Utilizando summaryRprof()
La función summaryRprof() tabula la salida del refinador de R y calcula cuánto tiempo demora cada una de
las funciones
Hay dos métodos para normalizar los datos
by.total divide el tiempo utilizado en cada función entre el total del tiempo de ejecución.
by.self hacelo mismo pero primero sustrae el tiempo que es utilizado en funciones antes de la lista de
llamados.
By Total
$by.total
by self
$by.self
Salida de summaryRprof()
$sample.interval
[1] 0.02
$sampling.time
[1] 7.41
Resumen
Gestión de Datos
37
Estadística Computacional en R, Publicación 0.1
Gestión de archivos
Por defecto R trabaja con los archivos sobre el directorio de trabajo, los dos comandos básicos relacionados son:
getwd() que devuelve el directorio de trabajo (working directory) actual.
setwd(<ruta>) que establece el directorio de trabajo en la ruta indicada.
Considere la diferencia entre rutas relativas y absolutas.
Rutas relativas: setwd("./data"), setwd("../")
Rutas absolutas: setwd("/home/usuario/datos")
Nota: En Windows las rutas se escriben: setwd("C:\\Usuarios\\usuario\\descargas")
Es frecuente al automatizar procesos verificar si existe un archivo y crear carpetas, para esto se cuenta con las funcio-
nes:
file.exists() para verificar si un archivo o carpeta existe.
dir.create() creará una carpeta si no existe
Un uso frecuente de estas funciones es como sigue:
if !file.exists("datos") {
dir.create("datos")
}
Si la ruta empieza con http se puede utilizar download.file() con las opciones por defecto. Si la conexión
comienza en https en Mac o Linux puede necesitar method = "curl".
Registre la fecha de su descarga, tomando la fecha actual con la función date().
if (!file.exists("data")) {
dir.create("data")
}
fileUrl <- "https://data.baltimorecity.gov/api/views/dz54-2aru/rows.csv?accessType=DOWNLOAD"
download.file(fileUrl, destfile = "cameras.csv", method = "curl")
dateDownloaded <- date()
Para leer datos en texto plano la función básica es read_table(). Es la función mas flexible y robusta pero la que
requiere el mayor número de parámetros. Los datos se cargan a la memoria RAM, conjuntos grandes de datos pueden
ser problemáticos.
Parámetros importantes: file, header, sep, row.names, nrows.
Algunas funciones relacionadas son: read.csv(), read.csv2().
Archivos de Excel
if(!file.exists("data")){dir.create("data")}
fileUrl <- "http://www.ine.gov.ve/documentos/Demografia/EstadisticasVitales/xls/Nacimientos_Entidad.x
download.file(fileUrl, destfile="./data/nacimientos_entidad.xlsx", method="curl")
dateDownloaded <- date()
Para leer datos desde archivos de Excel es necesario instalar el paquete xlsx, el cual provee las funciones
read.xlsx() y read.xlsx2().
library(xlsx)
nacimientosData <- read.xlsx("./data/nacimientos_entidad.xlsx",
sheetIndex=1, header=TRUE)
head(cameraData)
La función write.xlsx() puede utilizarse para generar archivos de Excel con argumentos similares.
La función read.xlsx2() es mucho mas rápida que read.xlsx() pero puede ser inestable para leer de
subconjuntos de filas.
El paquete XLConnect tiene mas opciones para escribir y manipular archivos de Excel. La viñeta de XLConnect
es un buen lugar para empezar con ese paquete.
Importante: Se recomienda encarecidamente almacenar los datos ya sea en bases de datos o archivos separados por
comas (.csv) ya que permiten distribuir y procesar la información con mucha mayor facilidad.
La tarea de extraer datos mediante programas de computadora del código HTML de los sitios web se denomina
Webscraping
Hay muchos sitios web que publican periódicamente datos de interés que se pueden leer de forma automática.
Intentar leer muchas páginas en un corto período de tiempo puede ocasionar que su número IP sea bloqueado.
Por ejemplo, para descargar datos de páginas en Google Scholar. Se pueden descargar los datos de un sitio web
aplicando la función readLines() sobre una conexión a un sitio web.
con = url("http://scholar.google.com/citations?user=HI-I6C0AAAAJ&hl=en")
htmlCode = readLines(con)
close(con)
htmlCode
Como sabemos, HTML es un dialecto particular de XML, de manera que se pueden extraer elementos de un sitio web
con el paquete XML
library(XML)
url <- "http://scholar.google.com/citations?user=HI-I6C0AAAAJ&hl=en"
html <- htmlTreeParse(url, useInternalNodes=T)
la función xpathSApply() permiten extraer elementos de la estructura del código HTML del sitio web.
El paquete httr puede utilizarse de forma similar para extraer elementos desde las etiquetas de los sitios web. Este
paquete provee varias funciones útiles:
la función GET() realiza una solicitud al sitio web, lo cual incluye metadatos de la conexión.
la función content() toma el contenido de la solicitud
y finalmente, la función htmlParse() del paquete XML nos permite extraer datos de las etiquetas del código
HTML.
library(httr); html2 = GET(url)
content2 = content(html2, as="text")
parsedHtml = htmlParse(content2, asText=TRUE)
xpathSApply(parsedHtml, "//title", xmlValue)
Cuando se requiere autenticación para acceder a un sitio web se puede especificar el argumento authenticate de
la función GET().
pg1 = GET("http://httpbin.org/basic-auth/user/passwd")
pg1
pg2 = GET("http://httpbin.org/basic-auth/user/passwd",
authenticate("user","passwd"))
pg2
names(pg2)
Utilizando “manejadores”.
google = handle("http://google.com")
pg1 = GET(handle=google,path="/")
pg2 = GET(handle=google,path="search")
Los manejadores preservan las configuraciones y los “cookies” a los largo de solicitudes múltiples. Es la base de todas
las solicitudes hechas a través del paquete httr
El blog R Bloggers tiene una gran cantidad de ejemplos de webscraping. La ayuda del paquete httr ofrece muchos
ejemplos útiles.
Las interfaces de programación de aplicaciones (APIs por su acrónimo en inglés) ofrecen mecanismos potentes y
flexibles para acceder a los datos que subyacen en las aplicaciones web.
La gran ventaja es que permiten hacer solicitudes específicas en lugar de descargar conjuntos completos de datos, y
porque permite compartir datos entre sistemas distintos.
Es de particular interés extraer datos de las aplicaciones de las “redes sociales”. Para esto generalmente hay que crear
una aplicación en uno de estos sistemas y obtener las claves de autenticación de dicha aplicación.
El ejemplo de una conexión al API sería como sigue:
myapp = oauth_app("twitter",
key="yourConsumerKeyHere",
secret="yourConsumerSecretHere")
sig = sign_oauth1.0(myapp,
token = "yourTokenHere",
token_secret = "yourTokenSecretHere")
homeTL = GET("https://api.twitter.com/1.1/statuses/home_timeline.json", sig)
El estándar de facto de transferencia de información entre aplicaciones mediante sus APIs es JSON (Javascript Object
Notation), es una forma de expresar información como valores del lenguaje javascript.
El paquete jsonlite provee funciones para el manejo de información en formato JSON.
json1 = content(homeTL)
json2 = jsonlite::fromJSON(toJSON(json1))
json2[1,1:4]
Las solicitudes de httr, GET(), POST(), PUT(), DELETE() ofrecen opciones para conexiones con autenti-
cación.
La mayoría de los APIs actuales utilizan mecanismos estándares de autenticación como OAUTH.
httr funciona bien con Facebook, Google, Twitter, Github, etc.
set.seed(13435)
X <- data.frame("var1"=sample(1:5),"var2"=sample(6:10),"var3"=sample(11:15))
X <- X[sample(1:5),]; X$var2[c(1,3)] = NA
X
Se puede acceder a los datos de un data frame con una notación matricial data[num_fila,
num_col|nombre_col]. O bien de la forma data$nombre_col[num_fila].
Pasar un vector como índice permite reordenar o seleccionar (incluso repetidas) filas y/o columnas del data frame.
Las columnas se pueden acceder ya sea por posición o por nombre.
X[,1]
X[,"var1"]
X[1:2,"var2"]
También se pueden aplicar filtros como expresiones lógicas. Estas devuelven vectores lógicos.
X[(X$var1 <= 3 & X$var3 > 11), ]
X[(X$var1 <= 3 | X$var3 > 15), ]
La función which() devuelve los índices para los que se cumple una condición.
X[which(X$var2 > 8), ]
Para ordenar un vector se puede utilizar la función sort(). El argumento decreasing indica si se ordena en orden
decreciente, y na.last si los valores faltantes se colocan al final.
sort(X$var1)
sort(X$var1, decreasing=TRUE)
sort(X$var2, na.last=TRUE)
La función order() devuelve una lista con los índices que permiten reordenar una columna. Se pueden introducir
columnas adicionales para romper empates. Es útil para ordenar un data frame completo.
X[order(X$var1), ]
X[order(X$var1,X$var3), ]
El paquete plyr ofrece un conjunto de herramientas para facilitar tareas de separar, aplicar y combinar datos. La
función arrange() de plyr ofrece un mecanismo mas comprensible para ordenar datos.
library(plyr)
arrange(X, var1)
arrange(X, desc(var1))
Para añadir un nueva variable a un data frame simplemente se asigna un vector a un nuevo nombre de columna.
X$var4 <- rnorm(5)
X
Se pueden añadir las funciones cbind() y rbind() para unir vectores o data frames como columnas o filas res-
pectivamente. Las dimensiones de los objetos deben coincidir.
Y <- cbind(X,rnorm(5)) Y
Mas sobre este tema en la notas de Andrew Jaffe.
Para los siguientes ejemplos, empezar por descargar algunos datos de la web:
if(!file.exists("./data")){dir.create("./data")}
fileUrl <- "https://data.baltimorecity.gov/api/views/k5ry-ef3g/rows.csv?accessType=DOWNLOAD"
download.file(fileUrl,destfile="./data/restaurants.csv",method="curl")
restData <- read.csv("./data/restaurants.csv")
head(restData, n=3)
tail(restData, n=3)
table(restData$zipCode, useNA="ifany")
Tablas cruzadas
Se toma como ejemplo de referencia la tabla UCBAdmissions. Se convierte a data frame.
data(UCBAdmissions)
DF = as.data.frame(UCBAdmissions)
summary(DF)
Se crea una tabla de referencia cruzada, nótese como se utilizan los factores Gender y Admit.
xt <- xtabs(Freq ~ Gender + Admit, data=DF)
xt
Para crear tablas planas. Empezamos por crear una columna que nos permita tener observaciones únicas. Luego se
aplica la función ftable() (flat table)
Para obtener una medida del uso de memoria de cualquier objeto mediante la función object.size().
fakeData = rnorm(1e5)
object.size(fakeData)
print(object.size(fakeData),units="Mb")
MySQL
Instalación de RMySQL
dbListFields(hg19,"affyU133Plus2")
dbGetQuery(hg19, "select count(*) from affyU133Plus2")
query <- dbSendQuery(hg19, "select * from affyU133Plus2 where misMatches between 1 and 3")
affyMis <- fetch(query); quantile(affyMis$misMatches)
affyMisSmall <- fetch(query,n=10); dbClearResult(query);
dim(affyMisSmall)
Recursos adicionales:
RMySQL vignette http://cran.r-project.org/web/packages/RMySQL/RMySQL.pdf
Lista de comandos http://www.pantz.org/software/mysql/mysqlcommands.html
• En ningún caso borrar, añadir, o enlazar tablas desde ensembl. Solamente select.
• En general, tener cuidados con los comandos de MySQL
Un post con un buen resúmen de comandos http://www.r-bloggers.com/mysql-and-r/
Probabilidad y Distribuciones
Definición de probabilidad
Considerando un enfoque de probabilidad como proporción de ocurrencia de eventos, entonces es necesario definir un
conjunto de eventos posibles.
Sea Ω denominado espacio muestral.
Entonces, un evento 𝐸 se definiría como cualquier subconjunto de Ω.
Un evento simple o elemental 𝜔 es un elemento de Ω.
La no ocurrencia de ningún evento, se denomina evento nulo y se denota por ∅.
Si se realiza una serie de experimentos en cada uno de los cuales puede ocurrir algún evento elemental perteneciente
a Ω. Para un gran número de experimentos se define la probabilidad de 𝜔 como el cociente entre el número de veces
que ocurre dicho evento y el número total de experimentos.
Medida de probabilidad
Una, medida de probabilidad 𝑃 , es una función sobre un conjunto de eventos posibles tal que:
1. Para un evento 𝐸 ⊂ Ω, 0 ≤ 𝑃 (𝐸) ≤ 1
2. 𝑃 (Ω) = 1
3. Si 𝐸1 y 𝐸2 son eventos mutuamente excluyentes, 𝑃 (𝐸1 ∪ 𝐸2 ) = 𝑃 (𝐸1 ) + 𝑃 (𝐸2 ).
El punto 3 implica aditividad finita
𝑛
∑︁
𝑃 (∪𝑛𝑖=1 𝐴𝑖 ) = 𝑃 (𝐴𝑖 )
𝑖=1
Variable aleatoria
47
Estadística Computacional en R, Publicación 0.1
Una función de masa de probabilidad (FMP) evaluada en un valor corresponde a la probabilidad que una variable
aleatoria tome ese valor.
Un FMP válida debe satisfacer:
1. 𝑝(𝑥) ≥ 0, para todo valor posible de 𝑥
∑︀
2. 𝑥 𝑝(𝑥) = 1
El cuantil 𝑎𝑙𝑝ℎ𝑎𝑠𝑖𝑚𝑜 de una distribución con función de distribución 𝐹 es el punto 𝑥𝛼 tal que:
𝐹 (𝑥𝛼 ) = 𝛼
En consecuencia, alrededor de r sqrt(0.5) de las llamadas que se responden un día cualquiera es la mediana.
R puede aproximar cuantiles para las distribuciones mas comunes.
qbeta(0.5, 2, 1)
Notas
Cuando se refiere medidas de la población se trata de la mediana de los datos. La mediana de la población es
la que se obtiene integrando la función de densidad.
Un modelo de probabilidad conecta los datos a la población en base a supuestos.
La mediana de la que se habla es el estimando, la mediana de la muestra será el estimador
Valores esperados
Utilizando manipulate
library(manipulate)
myHist <- function(mu){
hist(galton$child,col="blue",breaks=100)
lines(c(mu, mu), c(0, 150),col="red",lwd=5)
mse <- mean((galton$child - mu)^2)
text(63, 150, paste("mu = ", mu))
Ejemplo, suponga que se lanza una moneda y 𝑋 se denota 0 o :math:‘1 que corresponden a cara y sello, respectiva-
mente.
¿Cuál es el valor esperado de 𝑋?
𝐸[𝑋] = ,5 × 0 + ,5 × 1 = ,5
Note, que si se piensa de forma geométrica, la respuesta es obvia; si se colocan dos pesos iguales en 0 y 1, el centro
de masa será 0,5.
barplot(height = c(.5, .5), names = c(0, 1),
border = "black",
col = "lightblue",
space = .75)
Ejemplo, suponga que se lanza un dado y 𝑋 es el número que queda boca arriba.
¿Cuál es el valor esperado de 𝑋?
1 1 1 1 1 1
𝐸[𝑋] = 1 × + 2 × + 3 × + 4 × + 5 × + 6 × = 3,5
6 6 6 6 6 6
De nuevo, el argumento geométrico hace que la respuesta sea obvia sin cálculos.
Para una variable aleatoria continua, 𝑋 con densidad 𝑓 , el valor esperado se define como:
Esta definición está derivada de la definición del centro de masa para un cuerpo continuo.
Ejemplo, considere una densidad donde 𝑓 (𝑥) = 1 para x entre cero y uno.
¿Es una densidad válida?
Suponga que 𝑋 sigue esta densidad; ¿Cuál es el valor esperado?
par(mfrow = c(1, 2))
plot(c(-0.25, 0, 0, 1, 1, 1.25), c(0, 0, 1, 1, 0, 0),
type = "l", lwd = 3, frame = FALSE, xlab="", ylab = "")
title('f(t)')
plot(c(-0.25, 0, 1, 1, 1.25), c(0, 0, 1, 0, 0),
type = "l", lwd = 3, frame = FALSE, xlab="", ylab = "")
title('t f(t)')
Otro ejemplo, si se lanza un dado dos veces. ¿Cuál es el valor esperado del promedio?
Sean 𝑋1 y 𝑋2 los resultados de los dos lanzamientos.
1 1
𝐸[(𝑋1 + 𝑋2 )/2] = (𝐸[𝑋1 ] + 𝐸[𝑋2 ]) = (3,5 + 3,5) = 3,5
2 2
Ejemplo,
1. Sea 𝑋𝑖 para 𝑖 = 1, . . . , 𝑛 sea una colección de variables aleatorias, cada una de una distribución con media 𝜇. 2.
Calcule el valor esperado del promedio muestral de 𝑋𝑖 .
𝑡𝑜
[︃ 𝑛
]︃
1 ∑︁
𝐸 𝑋𝑖 =
𝑛 𝑖=1
[︃ 𝑛 ]︃
1 ∑︁
𝐸 𝑋𝑖
𝑛 𝑖=1
=
𝑛
1 ∑︁
𝐸 [𝑋𝑖 ]
𝑛 𝑖=1
=
𝑛
1 ∑︁
𝜇 = 𝜇.
𝑛 𝑖=1
= [︃ 𝑛 ]︃
1 ∑︁
= 𝐸 𝑋𝑖
𝑛 𝑖=1
𝑛
1 ∑︁
= 𝐸 [𝑋𝑖 ]
𝑛 𝑖=1
𝑛
1 ∑︁
𝜇 = 𝜇.
𝑛 𝑖=1
Importante:
En consecuencia, el valor esperado de la media muestral es la media de la población que se está intentando
estimar.
Cuando el valor esperado de un estimador es lo que trata de estimar, se dice que el estimador es no sesgado.
La varianza
1
𝑃 (|𝑋 − 𝜇| ≥ 𝑘𝜎) ≤
𝑘2
Por ejemplo, la probabilidad que una variable aleatoria caiga más allá de 𝑘 desviaciones estándar desde la media es
menor que 1/𝑘 2
𝑡𝑜
2𝜎 →
25 %
3𝜎 →
11 %
4𝜎 →
6%
25 %3𝜎
11 %4𝜎
6%
Note que esto es solamente una cota, la probabilidad verdadera puede ser un poco menor.
Ejemplo:
Se dice que los CIs están distribuidos con una media de 100 y una desviación estándar de 15
¿Cuál es la probabilidad que una persona seleccionada aleatoriamente tenga un CI superior a 160 o inferior a
40?
Por lo tanto se quiere conocer la probabilidad que una persona tenga mas de 4 desviaciones estándar desde la
media.
La desigualdad de Chebyshev sugiere que no será superior a 6 %
Con frecuencia se cita que las distribuciones de los CIs tienen forma de campana, en este caso este límite es
muy conservador.
La probabilidad que obtener un valor aleatorio más allá de 4 desviaciones estándar desde la media está por el
orden de 10−5 (una milésima de uno por ciento)
Simulación de probabilidad
Cuando se cuenta con distribuciones de probabilidad que involucran parámetros y eventos (variables aleatorias), se
pueden calcular las probabilidades de ocurrencia de eventos determinados (valores dados de una variable aleatoria).
La Inferencia Estadística consiste en el proceso inverso: usar muestras para predecir con exactitud como es la pobla-
ción, es decir, cuales parámetros caracterizan sus distribuciones de probabilidad, y tener una idea de cuan confiable
serán estas predicciones.
Ejemplos de motivación
Objetivos
Herramientas de Ejemplo
55
Estadística Computacional en R, Publicación 0.1
Enfoques de probabilidad
Probabilidad de frecuencia: proporción en la ocurrencia de eventos. Inferencia de frecuencia -> qué niveles de toleran-
cia me indica la proporción
de eventos ocurridos.
Probabilidad bayesiana: cálculo probabilístico de creencias, suponiendo que las creencias siguen ciertas reglas. Infe-
rencia bayesiana
Teniendo en cuenta que el curso no es un curso de aprendizaje de estadística, sino más bien de aplicación de técnicas
estadísticas, que se suponen en general conocidas, utilizando un determinado paquete estadístico, no vamos a explicar
aquí los fundamentos de los contrastes, sino tan sólo vamos a dar algunas funciones útiles para realizar contrastes en
R.
Existe en R diversas funciones para realizar contrastes estadísticos que se encuentran incorporados al lenguaje. Por
esa razón, no es necesario cargar ningún paquete para utilizarlas.
R cuenta con bastantes funciones para el contraste de hipótesis, pero sólo nos vamos a fijar en algunas que implementan
contrastes muy comúnmente utilizados. Las funciones que vamos a ver son las siguientes:
Test Descripción
binom.test Test exacto sobre el parámetro de una binomial
cor.test Test de asociación entre muestras apareadas
wilcox.test Test de suma de rangos de Wilcoxon para una y dos muestras
prop.test Test de igualdad de proporciones
chisq.test Test de la chi-cuadrado para datos de conteo
fisher.test Test exacto de Fisher para datos de conteo
ks.test Test de Kolmogorov-Smirnov para ajuste de datos a distribuciones dadas
shapiro.test Test de Shapiro para comprobar ajuste de datos a una distribución normal
oneway.test Test para comprobar la igualdad de medias entre varios grupos de datos
var.test Test para comprobar la igualdad de varianzas entre dos grupos de datos
Se van a poner ejemplos de cada contraste, para ver qué tipo de problemas resuelven y tener una base para su aplica-
ción.
binom.test
Lleva a cabo un contraste exacto (no aproximado) sobre el valor de la probabilidad de éxito en un experimento de
Bernoulli. Por ejemplo, tiramos una moneda al aire 600 veces, y nos salen 300 caras. Y queremos contrastar la hipótesis
de que la moneda está equilibrada, esto es, la probabilidad de que p=0.5. Para ello diremos cuántas veces salió cara y
cuántas veces salió cruz:
> binom.test(c(300,300), p=0.5)
Como el p-valor ha salido 1 (es lo más alto posible), no se rechaza la hipótesis nula. Esto es, se da por bueno que la
moneda estaba equilibrada. Se observa que también se obtiene un intervalo de confianza al 95 % para el verdadero
valor de la probabilidad de obtener cara. Dicho intervalo es (0.459, 0.540) en nuestro ejemplo.
Otro ejemplo: tiramos la moneda al aire y obtenemos 30 caras y 100 cruces:
> binom.test(c(30,100), p=0.5)
En este caso, el p-valor es prácticamente cero, lo que quiere decir que se debe rechazar la hipótesis de que la moneda
está equilibrada. Como el intervalo de confianza resulta ser (0.16, 0.31), se concluye que la probabilidad de obtener
cara para la moneda utilizada está probablemente dentro de dicho intervalo.
prop.test
Con esta función se contrasta si las proporciones en varios grupos son las mismas, o bien que dichas proporciones
equivalen a unas determinadas. Para empezar, se tira una moneda al aire 100 veces, y se pregunta si la proporción de
caras puede ser considerada el 50 % :
Como el p-valor es alto, 0.76, no se rechaza la hipótesis nula de que p=0.5. En este caso, el test funciona como en el
caso de binom.test.
Se supone ahora que se quiere saber si dos muestras han salido de la misma población. Por ejemplo, se quiere saber si
las mujeres estudian un grupo de carreras diferentes en la misma proporcion. Para ello se mira la lista de matriculados
en cuatro carreras y se comprueba si las proporciones de mujeres en las mismas coinciden:
La conclusion es que no. Las mujeres, en este ejemplo, se matriculan de las carreras en distinta proporcion. Es aparente
que se matriculan menos en Matematicas, en este ejemplo, pero el uso del contraste nos asegura con un alto grado de
seguridad que esas diferencias observadas no son debidas al azar, sino que son estructurales.
chisq.test
Este contraste se utiliza para tablas de contingencia. El caso habitual será disponer de una tabla de contingencia que
cruza dos variables, contando el número de coincidencias según las categorías de ambas variables, y se trata de ver si
las variables son o no son independientes.
Para poner un ejemplo, se supone que se tiene una muestra de personas en las que hemos observado dos variables: el
color de ojos, que puede ser “claro” y “oscuro”, y el color de pelo, que puede ser “rubio” ó “moreno”. Entonces se
hace una tabla de contingencia para cruzar dichas características, y se aplica el test para ver si el “color de ojos” y el
“color de pelo” son variables independientes:
Se supone que los datos han sido recogidos previamente en una variable llamada ‘datos’:
> color.ojos <- sample(c("claro", "oscuro"), 50, replace = TRUE, prob = c(0.3, 0.7))
> color.pelo <- sample(c("rubio", "moreno"), 50, replace = TRUE, prob = c(0.6, 0.4))
> datos <- table(color.pelo, color.ojos)
> datos
color.ojos
color.pelo claro oscuro
moreno 4 16
rubio 14 16
> chisq.test(datos)
data: datos
X-squared = 2.6367, df = 1, p-value = 0.1044
Como el p-valor es relativamente alto (por encima de 0.05), se concluye que no se rechaza la hipótesis nula, que es
que hay independencia
entre las variables observadas: el color de ojos y el color de pelo no guardan correlación en estos datos.
cor.test / wilcox.test
Son dos tests para ver si hay asociación entre muestras de datos. Por ejemplo, una serie de alumnos pueden ser
sometidos a dos test de inteligencia distintos. Si hay 100 alumnos, tendríamos dos vectores de longitud 100: el primero
sería la puntuación alcanzada por los alumnos en el primer test, y el segundo la puntuación de dichos alumnos para el
segundo test. Los contrastes cor.test y wilcox.test servirían para ver si hay correlación entre ambos tests.
Como se advierte al principio del tema, se supone que el fundamento del contraste se conoce. De todos modos, se
recuerda que el test de Wilcoxon es no paramétrico, y tiene más en cuenta el orden correlativo de los datos que el valor
de los datos mismos. Para apreciar las diferencias, pongamos unos ejemplos:
Primero se genera una secuencia de datos, y a partir de la misma, otras dos, relacionadas de alguna manera, y veremos
qué dicen los tests al respecto:
> x <- seq(-5, 5)
> x
[1] -5 -4 -3 -2 -1 0 1 2 3 4 5
> y <- x^2
> y
[1] 25 16 9 4 1 0 1 4 9 16 25
data: x and y
t = 0, df = 9, p-value = 1
alternative hypothesis: true correlation is not equal to 0
sample estimates:
cor
0
data: x and y
W = 17.5, p-value = 0.005106
alternative hypothesis: true mu is not equal to 0
Warning message:
Cannot compute exact p-value with ties in: wilcox.test.default(x, y)
data: x and z
fisher.test
Este test tiene el mismo fin que el test chisq.test, pero otro fundamento, y es útil para muestras pequeñas, caso para el
cual chisq.test no es adecuado.
El ejemplo que trae la librería es muy adecuado. Cierta dama fina (inglesa, por supuesto), era aficionada a tomar te
con leche (¡cómo no!), y presumía de ser capaz de distinguir cuando su criada le echaba primero la leche y luego el té,
o bien echaba primero el té y después la leche. Tal habilidad era mirada con incredulidad por sus allegados. Para salir
de dudas, Fisher le dio a probar a la dama una serie de tazas de té, en las que unas veces se había echado primero la
leche y otras primero el té.
Fisher apuntó los aciertos de la dama y con la tabla de contingencia así construida, veamos lo que pasó....
> TeaTasting <-
matrix(c(3, 1, 1, 3),
nrow = 2,
dimnames = list(Guess = c("Milk", "Tea"),
Truth = c("Milk", "Tea")))
> fisher.test(TeaTasting, alternative = "greater")
data: TeaTasting
p-value = 0.2429
alternative hypothesis: true odds ratio is greater than 1
95 percent confidence interval:
0.3135693 Inf
sample estimates:
odds ratio
6.408309
Dado el p-valor obtenido, el test no mostró evidencia suficiente a favor de la habilidad de la dama. Sin embargo, vemos
que de 4 veces que se le dio primero la leche, acertó 3, y lo mismo para el té.
Otro ejemplo, con los datos de color de pelo y ojos que hemos utilizado más arriba:
> fisher.test(datos)
data: datos
p-value = 0.07425
alternative hypothesis: true odds ratio is not equal to 1
95 percent confidence interval:
0.05741048 1.20877599
sample estimates:
odds ratio
0.2929304
En este caso, no es concluyente (pero casi), como no se fue al utilizar la función chisq.test. A pesar de todo, para el
tamaño de la muestra, que es pequeño, este test es más fiable.
ks.test
Se utilizará este contraste para comprobar si dos conjuntos de datos siguen la misma distribución, o bien para ver si
un determinado conjunto de datos se ajusta a una distribución determinada. Las muestras no necesitan ser del mismo
tamaño.
Por ejemplo, se generan 50 datos de una distribución normal, y 30 de una uniforme, a ver si el test es capaz de advertir
que las distribuciones de origen no son las mismas:
> x <- rnorm(50)
> y <- runif(30)
> ks.test(x, y)
data: x and y
D = 0.58, p-value = 2.381e-06
alternative hypothesis: two-sided
Como el p-valor es prácticamente cero, se rechaza la hipótesis de que los datos vienen de la misma distribución.
shapiro.test
Es como ks.test, pero está especializado en la distribución normal. Por ejemplo, con los mismos datos x generados en
el ejemplo anterior, se comprueba si el test detecta que provienen de una distribución normal:
> shapiro.test(x)
data: x
W = 0.9851, p-value = 0.7767
En efecto, el p-valor es grande (0.78), y no se rechaza la hipótesis nula de que los datos x provienen de una normal.
oneway.test
Este es el contraste de igualdad de medias que se estudia en los modelos ANOVA. Se supone que hay varios grupos
de datos, que cada grupo sigue una distribución normal (no necesariamente con la misma varianza), y se trata de ver
si las medias son todas iguales o no. Este test aparece mucho en procesos de calidad, de diseño de experimentos, en
los que se fabrica un producto de varias maneras distintas, y se trata de ver si los procedimientos conducen al mismo
resultado o no.
Para poner un ejemplo, se consideran los datos de fabricación de camisas de trabajo sacados del libro de Diseño y
Analisis de Experimentos de Montgomery, del grupo Editorial Iberoamericana. Se trata de fabricar camisas de trabajo
que tengan la mayor resistencia posible a la rotura. Para ellos se fabrican 5 tipos de camisas, donde en cada grupo se
da una proporción determinada de algodón en la composición de la camisa. Las camisas del grupo 1 tienen un 15 %
de algodón, las del grupo 2 un 20 %, las del grupo 3 un 25 %, las del grupo 4 un 30 %, y las del grupo 5 un 35 % de
algodón. Se fabrican 5 camisas de cada tipo, se rompen y se mide su resistencia. Se trata de determinar si la resistencia
media de las camisas de cada grupo es la misma o no. Vamos allá:
> algodon = scan() # introducimos los datos por teclado
1: 7
2: 7
3: 15
4: 11
5: 9
6: 12
7: 17
8: 12
9: 18
10: 18
11: 14
12: 18
13: 18
14: 19
15: 19
16: 19
17: 25
18: 22
19: 19
20: 23
21: 7
22: 10
23: 11
24: 15
25: 11
26:
Read 25 items
Hasta aquí se tienen los datos de resistencia de las 25 camisas, junto con la proporción de algodón que hay en cada
una. Ahora se aplica el test de igualdad de medias. En la función se especifica como parámetro algodon ~ porcen-
taje.algodon lo que significa que estudiaremos la variable algodon (su resistencia), dividiendola en grupos según el
porcentaje de algodón presente.
> oneway.test(algodon ~ porcentaje.algodon,data=datos.algodon)
Como se ve, el p-valor es prácticamente cero. Se rechaza, pues, la hipótesis de que todos los grupos son similares.
Esto es, variar el porcentaje de algodón tiene consecuencias en la resistencia de la camisa. De hecho, se puede hacer
un diagrama de caja (un boxplot) por grupos, para ver cómo evoluciona la resistencia en función del porcentaje de
algodón:
> boxplot(algodon ~ porcentaje.algodon)
var.test
Este es un contraste para comprobar la igualdad de varianzas entre dos grupos de datos. Nos puede ser útil en multitud
de situaciones, por ejemplo, cuando se tienen dos máquinas que fabrican lo mismo (por ejemplo, rodamientos), y se
quiere saber si lo hacen con la misma variabilidad. Para poner un ejemplo, se generan datos de dos distribuciones
normales con distinta varianza y veamos si el test detecta esta situación:
> x <- rnorm(50, mean = 0, sd = 2)
> y <- rnorm(30, mean = 1, sd = 1)
> var.test(x, y)
data: x and y
F = 5.3488, num df = 49, denom df = 29, p-value = 7.546e-06
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
2.687373 10.063368
sample estimates:
ratio of variances
5.348825
Como se ve, el p-valor sale prácticamente cero: se rechaza la hipótesis de que los conjuntos de datos x e y provienen
de distribuciones con la misma varianza.
Datos apareados
Bootstrapping
65
Estadística Computacional en R, Publicación 0.1
El análisis exploratorio de datos a través de gráficos cumple con los siguientes principios:
Principio 1: muestra comparaciones
Principio 2: muestra causalidad, mecanismos y explicación
Principio 3: muestra datos multivariantes
Principio 4: integra múltiples nosod de evidencia
Principio 5: describe y documenta la evidencia
Principio 6: es el reino del contenido
Se hacen rápido.
Se hacen en gran cantidad.
El propósito es el entendimiento personal.
Los ejes y las leyendas generalmente son limpiadas (a posteriori).
El color y el tamaño se utilizan generalmente para obtener información.
Ejemplo:
67
Estadística Computacional en R, Publicación 0.1
La Agencia de Protección Medioambiental de Estados Unidos (EPA por sus siglas en inglés) establece estándares
nacionales ambientales de la calidad del aire para la contaminación del aire exterior
• Estándares Nacionales Ambientales de Calidad del Aire
Para contaminción de partícula fina (PM2.5), la “media anual, premediada durante 3 años” no puede exceder
12𝜇𝑔/𝑚3
Los datos de PM2.5 diarios están disponibles desde la página web del EPA
• Sistema de Calidad del Aire de EPA
Pregunta: ¿Hay lugares en Estados Unidos que superen ese estandar nacional de contaminación de partícula
fina?
Datos
summary(pollution$pm25)
Boxplot
Histograma
Características externas
Gráfico de barras
Boxplots múltiples
Múltiples histogramas
Diagrama de dispersión
Usando color
Resumen
lattice
Utilizando lattice:
Los gráficos se crean con un simple llamado a la función (xyplot, bwplot, etc.)
Son muy útiles para tipos de gráficos condicionados: observar como 𝑦 cambia con 𝑥 a través de niveles de 𝑧
Elementos como márgenes/espaciado se establecen automáticamente ya que todo el gráfico se especifica al
principio.
Es muy útil para colocar muchos, muchos gráficos juntos en una pantalla
Muchas veces resulta poco útil para especificar un gráfico completo en una única llamada de función
Los comentarios y anotaciones en el gráfico no son intuitivos
El uso de las funciones del panel y los subscripts se dificulta y requiere una preparación intensa.
No se puede añadir al gráfico una vez que se ha creado.
ggplot2
Elementos Básicos
qplot()
Ejemplo
library(ggplot2)
str(mpg)
Modificando la estética
Añadiendo geometría
Histogramas
Facetas
El análisis multivariante está relacionado con conjuntos de datos que involucran más de una variable para cada unidad
de observación. En general tales conjuntos de datos vienen representados por matrices de datos 𝑋 con 𝑛 filas y 𝑝 co-
lumnas, donde las filas representan los casos, y las columnas las variables. En cuanto al análisis de tales matrices, unas
veces estaremos interesados en estudiar las filas (casos), otras veces las relaciones entre las variables (las columnas) y
algunas veces en estudiar simultáneamente ambas cosas.
El primer comando que tenemos disponible para la tarea de explorar datos multivariantes es:
> pairs()
Vamos a ver cómo se puede utilizar para el conjunto de datos iris, que contiene una base de 4 medidas tomadas
sobre una muestra de 150 flores ornamentales (lirios). Las medidas tomadas son la longitud y anchura de pétalos y
sépalos. En el problema original, se trataba de clasificar las flores en tres especies predeterminadas, utilizando las
cuatro medidas mencionadas.
> data(iris) # Se carga el conjunto de datos iris
> iris[1:4,] # Se muestran 4 registros
Sepal.Length Sepal.Width Petal.Length Petal.Width Species
1 5.1 3.5 1.4 0.2 setosa
2 4.9 3.0 1.4 0.2 setosa
3 4.7 3.2 1.3 0.2 setosa
4 4.6 3.1 1.5 0.2 setosa
> pairs(iris[,1:4]) # Se muestran los gráficos de dispersion de las variables iris
El equivalente (mejorado) de este gráfico con el paquete ggplot2 se realizaba con la función plot.matrix().
Esta función ha quedado obsoleta como indica el siguiente mensaje:
> library(ggplot2)
> plotmatrix(iris[, 1:4])
Error: Please use GGally::ggpairs. (Defunct; last used in version 0.9.2)
De manera que, tal como nos indican, se instala el paquete GGally y se utiliza la función ggpairs()
> library(GGally)
> ggpairs(iris[, 1:4])
Ahora se van a dibujar los datos etiquetados por especie. Asi se podra ver si las flores de una misma especie aparecen
agrupadas. Las flores que aparezcan entre dos grupos corresponderán a flores difíciles de clasificar claramente en uno
de los grupos.
Debido a que las etiquetas son bastante largas (“setosa”, “virginica”, “versicolor”), se sustituyen por letras, para faci-
litar la visualización. Se usará la “s” para setosa, la “v” para virginica, y la “c” para versicolor:
El comando anterior dibujará las coordenadas de los datos, 2 a 2, etiquetando con la clase de cada flor.
Un modo alternativo de proceder es generarnos nosotros mismos gráficos similares. Podríamos hacer (entre otras
posibilidades), algo así como:
> par(mfrow=c(1,2))
> plot(iris[,1], iris[,2])
> points(iris[iris.especies=="s", 1], iris[iris.especies=="s", 2], col=2)
> points(iris[iris.especies=="c", 1], iris[iris.especies=="c", 2], col=3)
> points(iris[iris.especies=="v", 1], iris[iris.especies=="v", 2], col=4)
> plot(iris[,1], iris[, 3])
> points(iris[iris.especies=="s", 1], iris[iris.especies=="s", 3], col=2)
> points(iris[iris.especies=="c", 1], iris[iris.especies=="c", 3], col=3)
> points(iris[iris.especies=="v", 1], iris[iris.especies=="v", 3], col=4)
La primera orden hace que la pantalla de dibujo quede dividida como una matrix 1 x 2, esto es, una matriz con una
fila y dos columnas, por tanto, dos graficos en uno de esa manera. La segunda orden dibuja en el primer gráfico las
coordenadas 1 y 2 de los datos. La tercera orden y siguientes van repintando los puntos que corresponden a cada
especie. Obsérvese que al dar cada orden lo que sucede. El segundo bloque de ordenes pinta la coordenada 1 frente a
la dos y hace lo mismo.
Cuando los datos tienen más de 3 dimensiones, dibujar las coordenadas 2 a 2 puede ser interesante, pero cuando hay
muchas, puede ser más interesante hacer una proyección de los datos usando algún tipo de transformación lineal o no
linea, que nos permita resumir en un gráfico de dos dimensiones las características más importantes de los mismos en
cuanto a variabilidad, en cuanto a conservación de distancias en la proyección, o en cuanto a la representación gráfica
de los clusters hallados en el conjunto de datos.
A continuación pasamos a exponer las diversas técnicas, junto con los comandos en R que las implementan.
Esta técnica funciona construyendo automáticamente un conjunto de combinaciones lineales de las variables del con-
junto de datos, con la máxima variabilidad posible. Cada componente principal viene determinada por un vector propio
de la matriz de covarianzas o correlaciones de los datos, esto es, un vector propio de la matriz 𝑋 𝑇 𝑋.
Geométricamente, el primer vector propio de la matriz corresponde a la dirección de máxima variabilidad en el con-
junto de datos, que es la dirección sobre la que se proyectará. Por ejemplo, si tenemos datos sobre una elipse alargada,
y hacemos un análisis de componentes principales con una sola componente, la coordenada que representará nuestro
conjunto de datos corresponderá a la proyección de los datos sobre el eje principal de la elipse.
Se puede encontrar información más detallada de la teoría en cualquier libro de análisis multivariante, y en la red,
podéis acudir a los siguientes links, por ejemplo:
http://cran.r-project.org/doc/vignettes/HSAUR/Ch_principal_components_analysis.pdf (Análisis de componentes
principales, Proyecto R).
http://csnet.otago.ac.nz/cosc453/student_tutorials/principal_components.pdf (Lindsay I. Smith, Universidad de Otago,
Nueva Zelanda).
Para usar componentes principales hay que cargar una librería de las varias que hay con R para análisis multivariante
(mva, multiv y otras). Por ejemplo:
> data(iris) # Se cargan los datos de las flores
> iris.pca = prcomp(iris[,1:4]) # Se reliza el análisis de componentes principales
> attributes(iris.pca) # Se observa qué devuelve el análisis
$names
[1] "sdev" "rotation" "x"
$class
[1] "prcomp"
> plot(iris.pca$x[,1:2],type="n")
> text(iris.pca$x[iris$Species=="setosa",1:2],col=2,"s")
> text(iris.pca$x[iris$Species=="virginica",1:2],col=3,"v")
> text(iris.pca$x[iris$Species=="versicolor",1:2],col=4,"c")
La estructura iris.pca$x contiene las coordenadas de los puntos, luego al pedir que dibuja las 1:2 estamos pi-
diendo que dibuje las dos primeras componentes. El type="n" hace que dibuje pero que no se vea, esto es, marca
las dos primeras coordenadas. Las demás órdenes dibujan los puntos por clases con un color distinto para cada clase.
Como se puede apreciar en el gráfico, hemos conseguido representar un conjunto de dimensión 4 por un conjunto de
dimensión 2, y si se compara con los gráficos ya hechos de los datos iris, puede verse que la estructura se ha respetado
bastante fielmente. Puede concluirse que hay 3 grupos, uno bien separado y otros dos más juntos. Y en efecto, así es.
La técnicas de componentes principales se pueden emplear para cualquier conjunto de datos del cual se quiera tener
una idea de la estructura. También puede utilizarse para codificar información, en el sentido de sustituir la codificación
original de ciertos datos por otra que ocupe menos espacio. Así por ejemplo, si se dispone de imágenes de fotos (en
blanco y negro, representadas por niveles de gris), puede utilizarse la técnica de componentes principales para reducir
la dimensión de las imágenes. Se puede encontrar información más detallada a este respecto en:
http://www.willamette.edu/~gorr/classes/cs449/Unsupervised/pca.html (G. B. Orr, Willamette University, USA).
Para saber cúantas componentes son suficientes para representar fidedignamente un conjunto de datos (por ejemplo, si
el conjunto tiene dimensión 10, deberemos usar 2, 3, ¿cuántas componentes?) se miran los valores propios asociados
a la descomposición comentada más arriba. Tales valores se guardan en “sdev”, de manera que en el ejemplo del iris:
> iris.pca$sdev
[1] 2.0562689 0.4926162 0.2796596 0.1543862
Se observa que los valores se dan de mayor a menor. Tales valores corresponden a variabilidades a lo largo de los
ejes de proyección (esto es, las componentes principales). Para hacernos una idea de su importancia relativa, iremos
calculando la suma acumulada, dividida por la suma total para que resulte 1:
> cumsum(iris.pca$sdev^2)/sum(iris.pca$sdev^2)
[1] 0.9246187 0.9776852 0.9947878 1.0000000
Como seve, con 1 componente se recoge aproximadamente el 92 % de la variabilidad de los datos, lo que no es poco a
efectos de visualización. También se ve que con 3 componentes ya se explica el 99 % de la variabilidad. Esto es, una
componente no aporta casi nada de información a efectos de explicar la estructura de los datos. La razón de tomar los
cuadrados es porque la varianza es el cuadrado de la desviación típica.
Escalado multidimensional
La idea del escalado multidimensional es la misma que la del análisis de componentes principales: Se trata de repre-
sentar los datos en baja dimensión (usualmente 2), pero en este caso, en vez de utilizar las coordenadas de los datos
para llevar a cabo la transformación, se usará la información proporcionada por las distancias entre los datos.
Esta manera de proceder tiene mucho sentido para datos cuyas coordenadas no se conocen, pero de los cuales conoce-
mos las distancias entre ellos. Por ejemplo, en un mapa de carreteras vienen las distancias en kilometros entre diversas
ciudades españolas. Esta técnica permite reconstruir las coordenadas de los datos, conociendo las distancias entre los
mismos.
Podéis consultar ejemplos y la teoría más detallada en:
http://www.analytictech.com/networks/mds.htm (Analytic Technologies, USA)
Otro caso en el que el escalado multidimensional resulta útil se da cuando la información viene dada por matrices de
preferencias. Este es el caso cuando se pide a un grupo de alumnos que asignen preferencias al resto de sus compañeros.
Como primer ejemplo, consideraremos el que viene con la función cmdscale().
> data(eurodist) # Se cargan los datos en memoria
> attributes(eurodist)
$Size
[1] 21
$Labels
[1] "Athens" "Barcelona" "Brussels" "Calais"
[5] "Cherbourg" "Cologne" "Copenhagen" "Geneva"
[9] "Gibralta" "Hamburg" "Hook of Holland" "Lisbon"
[13] "Lyons" "Madrid" "Marseilles" "Milan"
[17] "Munich" "Paris" "Rome" "Stockholm"
[21] "Vienna"
$class
[1] "dist"
> x = eurodist.mds[,1]
> y = eurodist.mds[,2]
> plot(x, y, type="n", xlab="", ylab="")
Asi pues, eurodist es un objeto que guarda los nombres de las distancias, la matriz de distancias entre las ciudades,
asi como el numero de objetos, que se podría recuperar escribiendo:
> attr(eurodist,"Size")
[1] 21
El proceso de escalado se realiza con la función cmdscale y después se dibuja el mapa de las ciudades con sus nombres.
Podéis repetir el proceso con algunas ciudades españolas. El mapa que obtendréis puede aparecer rotado o invertido,
dado que el método garantiza la conservación de las distancias, pero eso no garantiza que la orientación en el plano
sea la correcta.
A continuación vamos a dibujar un mapa de preferencias entre un grupo de 8 personas. Cada persona asigna 1 a
las personas de su preferencia. Dicho mapa reflejará grupitos de amigos. Obsérvese que en la diagonal hay unos,
asumiendo que uno es amigo de sí mismo.
Los datos se pueden encontrar aquí:
amigos.txt
La matriz de datos presenta el siguiente aspecto:
X paco pepe lola juan carlos luis ana pedro
paco 1 1 0 0 0 0 0 1
pepe 1 1 0 0 0 1 0 1
lola 0 0 1 1 0 0 1 0
juan 0 0 1 1 0 0 1 1
carlos 0 1 0 0 1 0 0 1
luis 1 0 1 0 1 1 0 0
ana 1 1 0 0 0 0 1 0
pedro 1 1 0 0 0 0 0 1
Para leer dicha matriz de un archivo, se puede leer directamente, como hago yo a continuación, o de otra forma que
prefiráis. El directorio que pongo yo en la orden scan es el mío. En vuestro caso, podrá variar.
El comando rownames asigna nombres a las filas, y colnames hace lo propio con las columnas. El gráfico final muestra
una imagen bidimensional de las preferencias de esas personas
Análisis de cluster
El análisis de cluster, denominado en español a veces análisis de conglomerados, es una técnica no supervisada para
descubrir la estructura de datos de un conjunto. Entra en el apartado de técnicas gráficas para datos multivariantes por
el siguiente motivo: Cuando unos datos son de alta dimensión, es bastante dificil descubrir cuántos grupos hay en el
conjunto de datos, y qué dato pertenece a cada grupo, en su caso. El análisis de cluster engloba una serie de técnicas
para dividir el conjunto de datos en una serie de grupos, y frecuentemente se apoya en métodos de visualización
propios para la visualización de tales grupos.
La información que se usa para llevar a cabo la mayoría de los procedimientos de análisis de cluster es la proporcionada
por las distancias entre los datos, al igual que en el caso del escalado. Aunque hay varias maneras de llevar a cabo la
construcción de los grupos, hay dos grandes grupos de técnicas: las técnicas jerárquicas y las técnicas no jerárquicas.
Las técnicas jerárquicas proceden por niveles a la hora de construir los grupos. En un caso se procede de abajo hacia
arriba, considerando tantos grupos como datos hay en el conjunto, y agrupando sucesivamente hasta que solo queda
un grupo. La visualización del procedimiento utilizando una herramienta gráfica denominada dendrograma, ayudará a
descubrir la estructura de grupos en los datos. Para ir agrupando los datos, primero se buscan los datos más cercanos
entre sí. En el segundo nivel se agrupan los grupos más cercanos entre si, y asi sucesivamente. El otro caso frecuente
es partir de un sólo grupo e ir partiendolo en grupos más pequeños hasta llegar al nivel de los datos individuales. Para
todas estas técnicas jerárquicas hay librerías en R. Aquí Se utilizará la función hclust().
Para ilustrar el funcionamiento, vamos a utilizar una base de animales descritos por algunas características. Los datos
están en:
animal.txt
animal.des
anima2.des
Hasta aqui se tiene la matrix animal como una matriz de 16 animales por 13 características. Ahora se leen los nombres
de los animales y de las características:
animal.nombres <-
c("paloma","gallina","pato","ganso","lechuza","halcon",
"aguila","zorro","perro","lobo","gato","tigre","leon",
"caballo","cebra","vaca")
> animal.nombres
[1] "paloma" "gallina" "pato" "ganso" "lechuza" "halcon" "aguila" "zorro"
[9] "perro" "lobo" "gato" "tigre" "leon" "caballo" "cebra" "vaca"
animal.carac <-
c("peque","mediano","grande","bipedo","cuadrupedo","pelo","pezunas",
"melena","plumas","caza","corre","vuela","nada")
> animal[1:5,1:10]
peque mediano grande bipedo cuadrupedo pelo pezuñas melena plumas caza
paloma 1 0 0 1 0 0 0 0 1 0
gallina 1 0 0 1 0 0 0 0 1 0
pato 1 0 0 1 0 0 0 0 1 0
ganso 1 0 0 1 0 0 0 0 1 0
lechuza 1 0 0 1 0 0 0 0 1 1
Se puede revisar toda la matriz, y ver que las descripciones son correctas, aunque algo simples, por supuesto.
Ahora el objetivo en un análisis de cluster sería visualizar de alguna manera la estructura de los datos, y descubrir qué
grupos de animales pueden existir.
Con este fin se calcula la matriz de distancias entre los animales, descritos por sus características, se realiza el análisis
de cluster sobre los grupos usando la función hclust, y después se visualizan los grupos utilizando el dendrograma:
> animal.dist <- dist(animal)
> animal.hclust <- hclust(animal.dist)
> plot(animal.hclust)
Como se puede ver al repetir estos comandos, salen dos grandes grupos, uno con las aves, y otro con los mamiferos.
Dentro de las aves, se verá un grupo formado por las rapaces y otro por las demás, y dentro de los mamíferos, una
distinción entre mamíferos grandes y menos grandes, distinguiendo los cazadores de los que no lo son. ¿Qué tal queda?
Esta técnica aplicada a datos menos evidentes, puede ayudarnos a descubrir grupos interesantes en los datos bajo
estudio.
Modelos de Regresión
El análisis de regresión se utiliza para explicar una determinada variable, digamos Y, en función de una variable 𝑋,
o bien en función de varias variables 𝑋1 , 𝑋2 , ..., 𝑋𝑘 . En el primer caso se tratará de regresión univariante, y en el
segundo caso, de regresión multivariante. El modelo de explicación en ambos casos es lineal, esto es, se asume que la
dependencia entre 𝑌 y las variable explicativa 𝑋 adopta la forma:
𝑌 = 𝑎 + 𝑏𝑋 + 𝑒𝑟𝑟𝑜𝑟
O, en el caso multivariante:
𝑌 = 𝑎 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + ... + 𝑏𝑘 𝑋𝑘 + 𝑒𝑟𝑟𝑜𝑟
El término de error aparece porque cada vez que observamos una 𝑋, no siempre observaremos la misma 𝑌 .
Por ejemplo si 𝑋 es la estatura de una persona, e 𝑌 el peso, cada vez que observemos una estatura, no siempre
obtendremos el mismo peso en 𝑌 .
Los que hayan estudiado estadística, conocen el modelo perfectamente. Los que no, simplemente deben saber que el
modelo es útil para predecir relaciones lineales, y para un estudio más profundo, cualquier libro de estadística con un
capítulo de regresión sirve.
En caso de querer leer un buen libro on-line con muchos ejemplos programados en R, se puede acudir a:
http://cran.r-project.org/doc/contrib/Faraway-PRA.pdf (Proyecto R, Julian Faraway, Bath University, Reino Unido).
> sueldos <- scan("datos//sueldos.txt") # variará según donde se guarden los datos
Read 40 items
> sueldos <- structure(sueldos, dim=c(2,20), byrow=T)
> sueldos <- t(sueldos)
> colnames(sueldos) = c("antiguedad","sueldo")
79
Estadística Computacional en R, Publicación 0.1
> sueldos
antiguedad sueldo
[1,] 0 4.61
[2,] 2 6.97
[3,] 2 6.36
[4,] 2 6.61
[5,] 1 3.61
[6,] 5 10.15
[7,] 0 4.00
[8,] 3 8.63
[9,] 3 9.34
[10,] 0 3.86
[11,] 5 12.62
[12,] 4 9.42
[13,] 3 7.63
[14,] 4 9.97
[15,] 2 6.33
[16,] 0 3.19
[17,] 1 5.62
[18,] 2 7.98
[19,] 4 10.49
[20,] 4 8.54
attr(,"byrow")
[1] TRUE
El primer paso será observar el aspecto de los datos, para ver si es correcto intentar ajustar una recta a los mismos:
> plot(sueldos)
Una vez hecho eso, para ajustar la recta, se usa la función lm(). lm significa “linear model”, y su uso es muy sencillo:
Se convierten los sueldos a data frame para usar con comodidad los nombres de las variables:
> sueldos <- data.frame(sueldos) # Convierte la matriz sueldos a data frame
> attach(sueldos) # Permite que las variables de "sueldos" se puedan llamar directamente
> sueldos.lm <- lm(sueldo ~ antiguedad) # Realiza la regresión
$class
[1] "lm"
Los que hayan estudiado regresión con anterioridad reconocerán varios de los nombres de la estructura anterior. Para
explicar los más importantes, se procede a visualizar un sumario del proceso de regresión:
> summary(sueldos.lm)
Call:
lm(formula = sueldo ~ antiguedad)
Residuals:
Min 1Q Median 3Q Max
-1.6538 -0.4717 0.1455 0.4444 1.3334
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 3.7581 0.3324 11.31 1.31e-09 ***
antiguedad 1.5057 0.1164 12.93 1.50e-10 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
Lo primero es localizar la ecuación de la recta de regresión. Esta viene dada por los coeficientes, que en este caso son
3.7581 y 1.5057, lo que quiere decir que la recta de regresión viene dada por:
𝑆𝑢𝑒𝑙𝑑𝑜 = 1,5057 + 3,7581𝐴𝑛𝑡𝑖𝑔𝑢𝑒𝑑𝑎𝑑
Naturalmente para cada dato concreto se comete un error. Dichos errores son los residuos. Si se quiere ver para los
datos de nuestro problema, se escribe:
> sueldos.lm$residuals
1 2 3 4 5 6 7
0.8518934 0.2004948 -0.4095052 -0.1595052 -1.6538059 -1.1366032 0.2418934
8 9 10 11 12 13 14
0.3547954 1.0647954 0.1018934 1.3333968 -0.3609039 -0.6452046 0.1890961
15 16 17 18 19 20
-0.4395052 -0.5681066 0.3561941 1.2104948 0.7090961 -1.2409039
Si se quiere dibujar:
> plot(sueldos.lm$residuals)
> abline(h=0)
Dibujamos una línea horizontal en 𝑦 = 0 porque los residuos cumplen la propiedad de estar centrados alrededor de
dicha linea. Si en el gráfico se observa algún dato que se aleja mucho por arriba o por abajo, eso quiere decir que para
ese dato, el modelo de regresión no predijo bien, dado que su residuo es elevado. Eso quiere decir que tal dato no es
bien explicado por el modelo, y así tenemos una forma de detectar tal situación.
Por ejemplo, algo así podría pasar para el sueldo del director, tal vez.
Los valores predichos para los datos observados son los fitted values:
> sueldos.lm$fitted.values
1 2 3 4 5 6 7 8
3.758107 6.769505 6.769505 6.769505 5.263806 11.286603 3.758107 8.275205
9 10 11 12 13 14 15 16
8.275205 3.758107 11.286603 9.780904 8.275205 9.780904 6.769505 3.758107
17 18 19 20
5.263806 6.769505 9.780904 9.780904
La lista anterior muestra el sueldo predicho para cada individuo por el modelo de regresión ajustado.
Hay otras características de interés en el modelo, de naturaleza estadística. Por ejemplo, el valor R-Squared mide la
variabilidad de los datos explicada por el modelo. En el ejemplo anterior es aproximadamente 0.90 lo que quiere decir
que más del 90 % de la variabilidad de los datos fue recogida por el modelo: esto es, es un buen modelo.
En cuanto al uso del modelo para predecir, si se quiere predecir el sueldo de un directivo recién entrado en la empresa
(0 años de antigüedad), se escribiría:
Luego la predicción es 3.75 u.m. Si se quiere predecir los sueldos esperables de directivos que lleven año y medio, 2
y 3.5 años, se escribiría:
> predict.lm(sueldos.lm, data.frame(antiguedad=c(1.5,2,3.5)))
1 2 3
6.016656 6.769505 9.028054
Funciona de forma similar al modelo de regresión lineal simple, con la diferencia de que lo que se estima es un plano
de regresión.
Vamos a cargar unos datos de R de nombre cars:
> data(mtcars)
> attach(mtcars)
Observemos que 𝑚𝑝𝑔 es la variable que se explica, y el signo más + indica sólo yuxtaposición, esto es, que las
variables que explican con ℎ𝑝 y 𝑤𝑡:
Se observa el resultado:
> summary(cars.lm)
Call:
lm(formula = mpg ~ hp + wt)
Residuals:
Min 1Q Median 3Q Max
-3.941 -1.600 -0.182 1.050 5.854
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 37.22727 1.59879 23.285 < 2e-16 ***
hp -0.03177 0.00903 -3.519 0.00145 **
wt -3.87783 0.63273 -6.129 1.12e-06 ***
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
Esto es, cuanto más potente es el carro, menos millas recorre (de ahí el signo negativo de su coeficiente), y cuanto más
pesa, menos millas recorre.
El R-squared es del 83 %, lo que quiere decir que esas dos variables explican bastante bien el consumo.
Se pueden dibujar los residuos para ver si hay algún carro que se comporta de modo muy distinto a los demás:
> plot(cars.lm$residuals)
> abline(h=0)
Si se quiere predecir las millas recorridas por galón por un carro con 150 caballos y peso 2.5:
> predict.lm(cars.lm, data.frame(hp=150, wt=2.5))
[1] 22.76675
Selección de modelos
Investigación Reproducible
85
Estadística Computacional en R, Publicación 0.1
Figuras finales
Usualmente un pequeño conjunto de las figuras originales
Ejes/colores configurados para hacer la figura clara
Posiblemente múltiples paneles
Scripts crudos
Pueden estar menos comentados (¡pero los comentarios le ayudarán!)
Pueden haber múltiples versiones
Pueden incluir análisis que serán descartados
Scripts definitivos
Claramente comentados
• Pequeños comentarios con generosidad - qué, cuándo, porqué, cómo
• Los bloques de comentarios mas grandes para secciones completas
Incluyen detalles de procesamiento
Solamente análisis que aparecen en el escrito final
Archivos R markdown
Los archivos R markdown pueden usarse para generar reportes reproducibles
Integra texto y código R
Son fáciles de crear en RStudio
Archivos LEÁME
No es necesario si utiliza R markdown
Debe incluir instrucciones paso a paso para el análisis
Aquí hay un ejemplo https://github.com/jtleek/swfdr/blob/master/README
Texto del documento
Debe incluir: título, introducción (motivación), métodos (estadísticos que utilizó), resultados (incluyendo medi-
das de incertidumbre), y conclusiones (incluyendo problemas potenciales).
Debe contar una historia
No debe incluir todos los análisis que realizó
Deben incluirse las referencias para los métodos estadísticos
Recursos adicionales
Información sobre un estudio no reproducible que ocasionó que pacientes de cáncer no fueran atendidos ade-
cuadamente The Duke Saga Starter Set
Investigación reproducible y bioestadística
Buenas prácticas para el manejo de proyectos de análisis estadístico
Plantilla de proyecto un conjunto de archivos pre-organizados para analisis de datos.
¿Qué es Markdown?
Creado por John Gruber y Aaron Swartz.
Una versión simplificada de los lenguajes de “marcado”
Permite enfocarse en escribir en lugar de formatear
Elementos de formato simples/mínimos
Se pueden convertir fácilmente a HTML (y otros formatos) utilizando las herramientas existentes.
Complete information is available at http://daringfireball.net/projects/markdown/
Some background information at http://daringfireball.net/2004/03/dive_into_markdown
¿Qué es R Markdown?
R markdown es la integración de código R con markdown
Permite crear documentos que contienen código R “vivo”
El código R es evaluado como parte del procesamiento de markdown
Los resultado del código R se insertan en el documento markdown
Un herramienta fundamental de la programación estadística literal
¿Qué es R Markdown? (cont.)
R markdown puede convertirse en markdown estándar utilizando el paquete knitr.
Markdown puede convertirse a HTML utilizando el paquete markdown de R.
Cualquier editor básico de txto puede utilizarse para crear un dcumento markdown; no se requieren heramientas
especiales de edición.
El flujo de trabajo R markdown –> markdown –> HTML se puede gestionar con
facilidad usando RStudio.
Se pueden generar presentaciones con R markdown usando el paquete slidify
Problemas, problemas
Los autores deben realizar un esfuerzo considerable para poner datos / resultados en la web
Los lectores deben descargar datos / resultados individualmente y reconstruir los datos que van con secciones
que código, etc
Autores / lectores deben interactuar de forma manual con los sitios web
No existe un documento único para integrar el análisis de datos con representaciones textuales; es decir, datos,
código, y texto no están vinculados
Programación estadística literaria
La idea original proviene de Don Knuth
Nuevo archivo -> R markdown Dentro del archivo insertar “trozos de R” (R chunks) Para procesar hacer clic en “Knit
HTML”
Se podría hacer lo anterior por línea de comandos
library(knitr)
setwd(<working directory>)
knit2html(“document.Rmd”)
browseURL(“document.html”)
Salida HTML
Se puede observar la conversión a HTML del texto a Markdown Y el código y el resultado del código R convertido.
knitr produce Markdown a partir de los trozos de R
Notas
knitr llenará un nuevo documento con el texto de relleno; elimínelo
Los trozos de código empiezan con:
```{r} y terminan con```
Por defecto, el código en un trozo de código se reproduce, al igual que los resultados de la computación (si hay
resultados para imprimir)
Flujo de procesamiento con el documento en knitr
Usted escribe el documento RMarkdown (.Rmd)
knitr produce un documento Markdown (.md)
knitr convierte el documento Markdown a HTML (por defecto)
Investigación Reproducible
Muchos paquetes de análisis estadísticos/procesamiento de datos tienen interfaces gráficas de usuario (GUI)
Las GUIs son convenientes/intuitivas, pero las acciones que se realizan con una interfaz gráfica de usuario puede
ser difícil para que otros reproduzcan
Algunos GUIs producen un archivo de registro o script que incluye comandos equivalentes; se pueden guardar
para revisarse posteriormente
En general, tenga cuidado con el software de análisis de datos que es altamente interactivo; facilidad de
uso a veces puede conducir a análisis no-reproducible
Otro software interactivo, como editores de texto, por lo general están bien
Si algo hay que hacer como parte de su análisis/investigación, trate de enseñar a su equipo a hacerlo (incluso si
sólo tiene que hacerlo una vez)
Con el fin de dar instrucciones a su computadora, es necesario anotar exactamente lo que quiere decir que hacer
y cómo se debe hacer
Enseñar a un equipo casi garantiza que sea replicable “reproducible”
Por ejemplo, se puede hacer a mano:
1. Ir al repositorio de UCI Machine Learning en http://archive.ics.uci.edu/ml/
2. Descargar el ‘Conjunto de datos de intercambio de bicicletas‘_ haciendo clic en el enlace a la carpeta
de datos, a continuación, hacer clic en el enlace al archivo zip del conjunto de datos, y elegir “Guardar
enlace como ... ” y después guardarla en una carpeta de su computadora
O puede enseñar a su computadora a hacer lo mismo con el código de R:
download.file("http://archive.ics.uci.edu/ml/machine-learning-databases/00275/
Bike-Sharing-Dataset.zip", "ProjectData/Bike-Sharing-Dataset.zip")
Note que:
Se especifica la URL completa del archivo de base de datos (sin hacer clic a través de un serie de enlaces)
Se especifica el nombre del archivo guardado en el equipo local
Se escribe el directorio en el que se guardó el archivo especificado (“ProjectData”)
Código siempre se puede ejecutar en R (siempre y cuando el enlace esté disponible)
Si trabaja en un proyecto complejo que involucra muchas herramientas / conjuntos de datos, el software y el
entorno computacional informática puede ser fundamental para la reproducción de sus análisis
Arquitectura computacional: CPU (Intel, AMD, ARM), GPUs,
Sistema operativo: Windows, Mac OS, Linux / Unix
Cadena de herramientas: Compiladores, interpretes, línea de comandos, lenguajes de programación (C, Perl,
Python, etc.), bases de datos, software de análisis de datos
Software de soporte / Infraestructura: Bibliotecas, paquetes de R, dependencias
Dependencias externas: sitios web, repositorios de datos, bases de datos remotas, repositorios de software
Números de versión: Lo ideal, para todo (si está disponible)
—
## DO: Keep Track of Your Software Environment
> sessionInfo()
R version 3.1.1 (2014-07-10)
Platform: x86_64-pc-linux-gnu (64-bit)
locale:
[1] LC_CTYPE=es_VE.UTF-8 LC_NUMERIC=C
[3] LC_TIME=es_VE.UTF-8 LC_COLLATE=es_VE.UTF-8
[5] LC_MONETARY=es_VE.UTF-8 LC_MESSAGES=es_VE.UTF-8
[7] LC_PAPER=es_VE.UTF-8 LC_NAME=C
[9] LC_ADDRESS=C LC_TELEPHONE=C
[11] LC_MEASUREMENT=es_VE.UTF-8 LC_IDENTIFICATION=C
Evite guardar la salida de análisis de datos (tablas, figuras, resúmenes, datos procesados, etc), excepto tal vez
temporalmente con fines de eficiencia.
Si un archivo de salida “extraviado” no se puede conectar fácilmente con los medios con los que fue creado,
entonces no es reproducible.
Guarde código + datos que generaron la salida, en lugar de la misma salida
Los archivos intermedios están bien siempre y cuando exista una documentación clara de cómo fueron creados
Los generadores de números aleatorios generan números pseudo-aleatorios basados en un semilla inicial (nor-
malmente un número o conjunto de números)
• En R se puede utilizar la función set.seed () para establecer la semilla y para especificar el generador
de números aleatorios a usar
El ajuste de la semilla permite que el flujo de números aleatorios sea exactamente reproducible
Cada vez que se genera números aleatorios para un propósito no trivial, configure siempre la semilla
Cuanto más replicable se puede hacer la secuencia de análisis de los datos es mejor para todos
En resumen
Índices y tablas
genindex
search
95