Guia 3

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Nombre del Proceso:

CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

GUÍA DE LABORATORIO DE
ELECTIVA II
Unidad Didáctica 1: Introducción teórica y práctica de Machine Learning (ML)
Eje Temático 6: Tipos de aprendizaje en Machine Learning, Python, Librerías e inicio de sintaxis

No. Resultados de Aprendizaje de la Unidad Didáctica:


Guí 1
a Identificar cuáles son los requisitos necesarios para resolver un problema
estadístico por Machine Learning, desarrollando y ejecutando los códigos en
3 10 el lenguaje de programación Python e implementar Matplotlib para construir
sesion Seman gráficas que faciliten la interpretación de los estudios estadísticos.
es a
Horas de Reconocer la versatilidad de la superficie Anaconda que habilita el acceso
Trabajo de diferentes ambientes de los cuales se utilizaran Spyder y Jupyter Note
Book.
Trabaj Trabaj
o con o
Explorar las librerías IPython, Scikit-Learn y Scipy.
Docen Autón
te omo
Implementar estudios estadísticos que involucren aprendizaje automático
10 30
supervisado.
Tipo de trabajo
Gr Laboratorio Modo remoto sincrónico
In
up Requerido
d
al
Plan de acción
1. Implementación de distribuciones de datos, identificación de datos anómalos,
imputación o manejo de datos faltantes, correlación de Pearson, creación de mapas
de calor y regresión lineal.
2. Se inicia con un breve repaso de los tópicos estadísticos mencionados en el inciso 1 que
será mostrado en una presentación en Power point.
3. Programación y análisis estadístico de una muestra donde se implementen los tópicos
mencionados en el lenguaje de programación Python usando Jupyter Notebook.
4. Desarrollo teórico de dos modelos que impliquen el uso de Machine Learning
supervisado.

Subtemas: Álgebra lineal, diagonalización de matrices, eigenvalores y eigenfunciones,


operaciones matemáticas básicas, lógica matemática, conceptos básicos de estadística y
análisis gráfico estadístico.
Preguntas Orientadoras
Antes de iniciar a generar códigos es importante bosquejar ¿Si el problema a investigar es
soluble por los métodos numéricos seleccionados?, simultáneamente se debe diseñar un plan
que permita evaluar ¿Si la simulación computacional arroja resultados correctos?

Presaberes Requeridos
Python, Anaconda y Jupyter Notebook.
Construcción de gráficos usando la librería MatplotLib.
Carga de bases de datos y construcción de DataFrame
Conocimiento de comandos básicos para le ejecución de operaciones estadísticas.
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Interpretación de gráficos estadísticos.


Marco conceptual o referencial
El aprendizaje automático (Machine Learning) consiste en extraer conocimientos, patrones o
comportamientos de una colección de datos. Es un campo de investigación transversal a la
estadística, la inteligencia artificial y la informática (Andreas C. Muller & Sarah Guido). En los
últimos años, la aplicación de ML ha crecido exponencialmente y encuentra aplicaciones
inmediatas en la vida cotidiana que facilitan labores diarias, como la ubicación de direcciones,
eliminación de correos no deseados y selección de programas televisivos mediados por
plataformas de streaming. En contextos menos cotidianos como el campo de la medicina el ML
facilita la detección oportuna de tumores cancerígenos, por otra parte, en el campo de la
economía el ML predice movimientos que permiten anticiparse a futuras crisis económicas,
además los filtros de seguridad respecto a transacciones bancarias son muy bien controlados
por el aprendizaje automático.

Denominarlo aprendizaje automático anticipa que la máquina, de forma autónoma, pueda


tomar decisiones, lo que significa que cuando la máquina ha aprendido de forma óptima a
tomar decisiones puede prescindir de un humano. Esto asegura que las tareas sean exitosas, sin
embargo, en sentido metafórico siempre hay un precio a pagar y este escenario no es la
excepción. Para aplicar el aprendizaje automático es necesario programar algoritmos e ir
“enseñando” a la máquina por distintos métodos a tomar decisiones correctas. Grosso modo,
existen tres métodos de aprendizaje automático: Aprendizaje supervisado, aprendizaje no
supervisado y aprendizaje reforzado; los dos primeros aprendizajes mencionados son fáciles de
diferenciar, en el aprendizaje supervisado el humano etiqueta la información y de cierto modo
guía a la máquina en la toma de decisiones, caso opuesto es el aprendizaje no supervisado,
donde la información no es etiquetada. Finalmente, el aprendizaje reforzado tendrá más
posibilidad de éxito en cuanto más se equivoque la máquina, pues su “experiencia” le permitirá
por medio de algoritmos tomar las mejores decisiones que en todo momento serán premiadas.

Diferentes son los lenguajes de programación que se pueden emplear para Machine Learning.
No obstante, R, Julia, Python y Matlab son los preferidos donde el único lenguaje que exige una
licencia paga es Matlab y, por tanto, en la mayoría de casos resulta descartado; entre los tres
programas restantes R tiene un relación directa en el procesamiento de datos estadísticos, Julia
está teniendo un crecimiento interesante y resulta amigable en el momento de emplearlo. Sin
embargo, el más exitoso es Python resulta ser un lenguaje versátil con una amplia gama de
librerías y una economía en el recurso de tiempo complementado con un sinnúmero de blogs
que resuelven abundantes dudas respecto a su ejecución y, por tanto, es menester aprender
este lenguaje.

Actividad de Trabajo Guiado


Librerías imprescindibles para el desarrollo de Machine Learning

A lo largo de la cátedra se ha podido constatar que Python y sus múltiples librerías facilitan el
trabajo de programación y optimizan el análisis estadístico de, prácticamente, cualquier base
de datos. Cuando se trata de hacer Machine Learning además de las librerías ya expuesta, es
imprescindible utilizar las librerías IPython, SciPy y Scikit-Learn. IPython ofrece un soporte de
visualización robusto lo cual facilita el análisis gráfico a partir de instrucciones sencillas, SciPy
enfocado en algoritmos matemáticos principalmente diagonaliza matrices de n dimensiones lo
cual es necesario en la mayoría de estudios científicos y Scikit-Learn una amplia plataforma con
operaciones estadísticas y medios gráficos que permiten aplicar Machine Learning. A lo largo
de esta sesión se invocarán estas librerías con sus nickname asociados enfocándonos en
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Machine Learning, de modo que, autónomamente el estudioso podrá profundizar en todas las
virtudes que ofrecen cada una de las tres librerías en cuestión

Momento 1
Recordando las distribuciones estadísticas
A partir del debate se discute acerca de las principales distribuciones estadísticas cómo deben
ser utilizadas. Posterior al debate el docente sintetiza la información y complementa por medio
de una exposición relacionada con los tipos de distribución.

Practica computacional enfocada a desarrollar líneas de código en las que se visualicen las
distribuciones: Uniforme, Normal y exponencial.

En Jupyter Notebook el estudiante debe contestar las siguientes preguntas e incluir la gráfica
asociada a cada distribución.
1. Defina cada una de las distribuciones implementadas en la práctica computacional.
2. ¿Qué son los bins? ¿Qué utilidad tienen?
3. En una distribución uniforme la frecuencia es la misma para cualquier evento. No
obstante, al graficar la distribución no se observa una envolvente constante ¿A qué sed
debe ese comportamiento?
4. La distribución exponencial contiene el número de Euler 𝑒 al igual que la distribución
Gaussiana, pero está última mencionada no exhibe un crecimiento o decrecimiento
exponencial ¿Qué sugiere usted que ocurre para que no haya un comportamiento
exponencial en la distribución normal?
5. Señale por lo menos un ejemplo para cada una de las tres distribuciones estudiadas.

La actividad se debe desarrollar en la clase y entregarse al final de la clase.

Momentos 2
Datos anómalos y datos faltantes
De acuerdo con la experiencia de los estudiosos en el tratamiento de bases de datos que
contengan datos anómalos y/o faltantes se plantea una actividad computacional guiada por
el docente, en la que los estudiosos conocerán o reforzaran la prueba de Tukey que solo es
aplicable a distribuciones normales.

El docente desarrolla una actividad enfocada en los gráficos de caja, denominados


coloquialmente graficas de bigote. Con base en esta actividad guiada el estudiante debe
contestar las siguientes preguntas:
1. Describa las principales virtudes de usar el gráfico de caja.
2. ¿Qué comando permite identificar los datos nulos?
3. ¿Qué criterios se deben tener en cuenta para reemplazar un valor nulo y qué comando
se utiliza para dicha función?
4. ¿En una distribución normal cómo se pueden identificar los datos anómalos?
5. ¿La prueba de Tukey se puede aplicar a cualquier distribución? De ser negativa su
respuesta. Explique como la prueba de Tukey filtra los valores anómalos.

La actividad se debe desarrollar en la clase y entregarse al final de la clase.


Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Momento 3
Modelos de Machine Learning
Después de conocer y comprender los conceptos básicos que implican la aplicación de
aprendizaje de máquina, damos inicio a un modelo de Machine Learning planteado en el libro
de texto “Introduction to machine learning with Python, a guide for data scientists “.

Antes de iniciar el problema y el desarrollo del respectivo código verificamos las versiones de
Python y sus librerías asociados, con el fin de garantizar que el código será soportado.

import sys
print("Python version: {}".format(sys.version))

import pandas as pd
print("pandas version: {}".format(pd.__version__))

import matplotlib
print("matplotlib version: {}".format(matplotlib.__version__))

import numpy as np
print("NumPy version: {}".format(np.__version__))

import scipy as sp
print("SciPy version: {}".format(sp.__version__))

import IPython
print("IPython version: {}".format(IPython.__version__))

import sklearn
print("scikit-learn version: {}".format(sklearn.__version__))

Planteamiento del problema


Supongamos que una botánica aficionada está interesada en distinguir la especie de unas
flores de iris que ha encontrado. Ha recogido algunas medidas asociadas a cada iris: la longitud
y la anchura de los pétalos y la longitud y la anchura de los sépalos, todas ellas medidas en
centímetros (véase la figura). También tiene las medidas de algunos lirios que han sido
identificados previamente por un botánico experto como pertenecientes a las especies setosa,
versicolor o virginica. Con estas medidas, puede estar segura de a qué especie pertenece cada
iris. Supongamos que éstas son las únicas especies que nuestro botánico aficionado encontrará
en la naturaleza. Nuestro objetivo es construir un modelo de aprendizaje automático que pueda
aprender de las medidas de estos iris cuya especie se conoce, de modo que podamos predecir
la especie de un nuevo iris.
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Dado que disponemos de mediciones para las que conocemos la especie correcta de iris, se
trata de un problema de aprendizaje supervisado. En este problema, queremos predecir una de
varias opciones (la especie de iris). Es un ejemplo de problema de clasificación. Las posibles
salidas (diferentes especies de iris) se denominan clases. Cada iris del conjunto de datos
pertenece a una de las tres clases, por lo que este problema es un problema de clasificación
de tres clases. El resultado deseado para un único punto de datos (un iris) es la especie de esta
flor. Para un punto de datos concreto, la especie a la que pertenece se denomina etiqueta.

Conozcamos la data
La base de datos usada en este ejemplo es muy empleada en los inicios de Machine Learning
y e provista por Scikit-Learn en el módulo datasets. La data la cargamos invocando la función
load_iris, es decir,

from sklearn.datasets import load_iris


iris_dataset = load_iris()

El objeto iris devuelto por load_iris es un objeto Bunch, que es muy similar a un diccionario. a un
diccionario. Contiene claves y valores:

Digite la siguiente instrucción y describa que información proporciona

print("Keys of iris_dataset: \n{}".format(iris_dataset.keys()))

El valor de la clave DESCR es una breve descripción del conjunto de datos. Aquí mostramos el
principio de la descripción (siéntase libre de buscar el resto usted mismo):

print(iris_dataset['DESCR'][:193] + "\n...")

• ¿Qué indica el número 193 y el término después del signo más? Explore esta línea de código.

El valor del key target_names es una matriz, que contiene las especies de flor que queremos predecir.
Digite la siguiente línea de comando e indique que información especifica

Target names: ['setosa' 'versicolor' 'virginica']


Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

El valor de feature_names es una lista con la descripción de cada característica. Confírmelo


usted mismo con la siguiente instrucción:

print("Feature names: \n{}".format(iris_dataset['feature_names']))

Los datos propiamente dichos están contenidos en los campos target y data contiene las
medidas numéricas de la longitud del sépalo, la anchura del sépalo, la longitud del pétalo y la
anchura del pétalo en una matriz NumPy array, como se constata el digitar la siguiente
instrucción

print("Type of data: {}".format(type(iris_dataset['data'])))

Las filas en arreglo data corresponden a las flores, mientras las columnas representan
las cuatro medidas que fueron practicadas a cada flor.

print("Shape of data: {}".format(iris_dataset['data'].shape))

• ¿Qué información proporciona la última instrucción digitada?

Vemos que la matriz contiene medidas para 150 flores diferentes. En el aprendizaje
automático los elementos individuales se denominan muestras, y sus propiedades se
denominan características. La forma de la matriz de datos es el número de muestras
multiplicado por el número de características. Esta es una convención en scikit-learn,
y sus datos siempre se supone que tienen esta forma. Aquí están los valores de las
características de las cinco primeros muestras:

print("First five columns of data:\n{}".format(iris_dataset['data'][:5]))

• ¿Cuál es el valor del ancho del pétalo de las primeras cuatro flores?
• ¿Cuánto mide la longitud del sépalo de la primera flor?
• ¿En qué unidades se miden las longitudes y anchos?

El target array contiene las especies de cada unas de las flores que fueron medidas,
también con un arreglo en NumPy, como se puede verificar

print("Type of target: {}".format(type(iris_dataset['target'])))

En efecto, el target es un arreglo 1D, con una entrada por flor:

print("Shape of target: {}".format(iris_dataset['target'].shape))

Las especies están codificadas con los números enteros de 0 a 2:

print("Target:\n{}".format(iris_dataset['target']))

El significado de los números es dado por iris[‘target_names] array 0 indica setosa, 1


significa versicolor, y 2 se refiere a virginica.
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Medir el éxito: Datos de entrenamiento y pruebas


Medir el éxito: Datos de entrenamiento y prueba
Queremos construir un modelo de aprendizaje automático a partir de estos datos que pueda
predecir la especie de iris para un nuevo conjunto de mediciones. Pero antes de poder aplicar
nuestro modelo a nuevas mediciones, necesitamos saber si realmente funciona, es decir, si
debemos confiar en sus predicciones.

Desafortunadamente, no podemos utilizar los datos con los que hemos construido el modelo
para evaluarlo. Esto se debe a que nuestro modelo siempre puede simplemente recordar todo
el conjunto de entrenamiento y, por tanto, siempre predecirá la etiqueta correcta para
cualquier punto del conjunto de entrenamiento. Este "recuerdo" no nos indica si nuestro modelo
se generalizará bien (en otras palabras, si también funcionará bien con nuevos datos).

Para evaluar el rendimiento del modelo, le mostramos datos nuevos (datos que no ha visto
antes) para los que tenemos etiquetas. Esto suele hacerse dividiendo los datos etiquetados que
hemos recopilado (en este caso, nuestras 150 mediciones de flores) en dos partes. Una parte de
los datos se utiliza para construir nuestro modelo de aprendizaje automático, y se denomina
datos de entrenamiento o conjunto de entrenamiento. El resto de los datos se utilizarán para
evaluar qué tan bien funciona el modelo; esto se llama los datos de prueba, conjunto de
prueba, o conjunto de espera.

scikit-learn contiene una función que baraja el conjunto de datos y lo divide para usted: la
función train_test_split. Esta función extrae el 75% de las filas de los datos como conjunto de
entrenamiento, junto con las etiquetas correspondientes a estos datos. El 25% restante de los
datos, junto con las etiquetas restantes, se declara conjunto de prueba. Decidir cuántos datos
quieres poner en el conjunto de entrenamiento y en el de prueba respectivamente es algo
arbitrario, pero usar un conjunto de prueba que contenga el 25% de los datos es una buena
regla general. En scikit-learn, los datos se denotan normalmente con una X mayúscula, mientras
que las etiquetas se denotan con una y minúscula. Esto se inspira en la formulación estándar
𝑓(𝑥) = 𝑦 en matemáticas, donde x es la entrada a una función e y es la salida. Siguiendo más
convenciones de las matemáticas, utilizamos una X mayúscula porque los datos son un arreglo
bidimensional (una matriz) y una y minúscula porque el target es una matriz unidimensional (un
vector).

Invoquemos la función train_test_split sobre nuestros datos y asignemos las salidas usando esta
nomenclatura:
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(
iris_dataset['data'], iris_dataset['target'], random_state=0)

Antes de realizar la división, la función train_test_split baraja el conjunto de datos


utilizando un generador de números pseudoaleatorios. Si sólo tomáramos el último 25%
de los datos como conjunto de prueba, todos los puntos de datos tendrían la etiqueta
2, ya que los puntos de datos están ordenados por la etiqueta (véase la salida para
iris['target'] mostrada anteriormente). El uso de un conjunto de prueba que contenga
sólo una de las tres clases no nos dirá mucho sobre lo bien que nuestro modelo
generaliza, por lo que barajamos nuestros datos para asegurarnos de que los datos de
prueba contienen datos de todas las clases. Para asegurarnos de que obtendremos el
mismo resultado si ejecutamos la misma función varias veces, proporcionamos al
generador de números pseudoaleatorios una semilla fija utilizando el parámetro
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

random_state. Esto hará que el resultado sea determinista, por lo que esta línea
siempre tendrá el mismo resultado.

La salida de la función train_test_split es X_train, X_test, y_train, y y_test, que son matrices NumPy.
X_train contiene el 75% de las filas del conjunto de datos, y X_test contiene el 25% restante:

print("X_train shape: {}".format(X_train.shape))


print("y_train shape: {}".format(y_train.shape))

print("X_test shape: {}".format(X_test.shape))


print("y_test shape: {}".format(y_test.shape))

Analizando los datos


Antes de construir un modelo de aprendizaje automático, suele ser una buena idea
inspeccionar los datos, para ver si la tarea se puede resolver fácilmente sin aprendizaje
automático, o si la información deseada podría no estar contenida en los datos. Además,
inspeccionar los datos es una buena forma de encontrar anomalías y peculiaridades. Por
ejemplo, puede que algunos de sus iris se midieran en pulgadas y no en centímetros. En el mundo
real, las incoherencias en los datos y las mediciones inesperadas son muy comunes. Una de las
mejores formas de inspeccionar los datos es visualizarlos. Una forma de hacerlo es utilizando un
gráfico de dispersión. Un gráfico de dispersión de los datos coloca una característica a lo largo
del eje x y otra a lo largo del eje y, y dibuja un punto para cada punto de datos. Por desgracia,
las pantallas de ordenador sólo tienen dos dimensiones, lo que nos permite representar sólo dos
(o quizá tres) características a la vez. De este modo, es difícil representar conjuntos de datos con
más de tres características. Una forma de evitar este problema es realizar un gráfico de pares,
que examina todos los pares posibles de características. Si tiene un número pequeño de
características, como las cuatro que tenemos aquí, esto es bastante razonable. Debe tener en
cuenta, sin embargo, que un gráfico de pares no muestra la interacción de todas las
características a la vez, por lo que algunos aspectos interesantes de los datos pueden no ser
revelados al visualizarlos de esta manera.
Actividad de Comprobación del Trabajo Autónomo
Entrega del trabajo desarrollado a lo largo de la clase. El estudioso debe seguir explorando las
librerías y encontrar técnicas que le permitan usar Machine Learning de forma óptima.
Materiales, equipos e insumos a utilizar

Materiales, equipos e insumos proporcionados por la Universidad


Ítem Cantidad
Conexión sincrónica 1

Materiales del estudiante


Ítem Cantidad
Calculadora 1
Computador y los correspondientes softwares instalados 1

Precauciones, nivel de riesgo y recomendaciones a considerar


Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Muy alto Medio


CLASIFICACIÓN DEL RIESGO
Alto Bajo
FACTORES DE RIESGO CÓMO MINIMIZAR LOS FACTORES DE RIESGO
● No aplica ● No aplica

RECOMENDACIONES, CONSIDERACIONES PARA EL USO DE MATERIAL Y EPP


CONSIDERACIONES ÉTICAS
● No aplica.

Para el inicio de las actividades de la práctica de laboratorio de sistemas, recuerde las siguientes
indicaciones:
Indicaciones generales para manejo de riesgo eléctrico:
▪ Durante la permanencia en el laboratorio, el practicante debe certificar que se cumple
y se sigue con el Reglamento Técnico de Instalaciones Eléctricas (RETIE), Resolución 18
0398 de 7 de abril de 2004 y Resolución 18 1419 del 1 de noviembre de 2005 del Ministerio
de Minas y Energía. (artículo 5. Riesgos eléctricos) RETIE
▪ Revisar que el área de trabajo esté despejada sin elementos ajenos a la práctica,
disponer materiales de forma organizada.
▪ No ingresar líquidos o alimentos al área de laboratorio, que puedan causar riesgos de
cortocircuitos o afectar los resultados de la práctica.
▪ No ingresar al laboratorio bajo el efecto de sustancias psicoactivas o alcohólicas.

Indicaciones para manejo de los equipos de laboratorio de sistemas y materiales:


▪ Cumplir con el REGLAMENTO DE UTILIZACIÓN DE LOS LABORATORIOS DE SISTEMAS DE LA
UMB.
▪ Revise que los equipos en préstamo funcionen correctamente en el momento de
solicitarlos en el almacén, de lo contrario perderá tiempo en la realización de la práctica
o en caso más grave, hacer la reposición de un equipo que usted no averió.
▪ Mantenga el orden ubicándose exclusivamente en el banco de trabajo asignado por
los laboratoristas. No cambie el banco de trabajo sin la autorización de estos.
▪ Por su seguridad y la de sus compañeros, esté atento a los equipos tomados en
préstamo, así como sus propios materiales y objetos personales.
▪ Consulte con el docente cualquier duda que tenga respecto al uso correcto de los
equipos. Recuerde que deben ser manipulados adecuadamente para evitar daños y
fallas de funcionamiento.
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

▪ Concéntrese en el trabajo que esté realizando en la práctica de laboratorio. Las


distracciones pueden poner en riesgo su integridad física y la de sus compañeros.
▪ No ingresar a internet sin autorización del docente.
▪ No ejecutar programas en los equipos sin autorización del docente o un técnico de
laboratorio.
▪ No instalar en los equipos Software de ninguna índole.
▪ No trasladar equipos de cómputo de su módulo sin autorización del personal del área.
▪ No realizar actividades que afecten el buen desarrollo de la práctica de laboratorio.
Otros aspectos que se deben tomar en cuenta están regidos por el Reglamento Estudiantil y de
Laboratorios Vigentes.

Criterios de Entrega – Informe de Laboratorio

● Revisión del material trabajado durante la sesión de clase.


● Redactar un documento en el editor de texto de su preferencia, conservando un
formato y orden lógico.

Al finalizar la revisión, recolección y organización del material, se evaluará todo lo trabajado con
el cuestionario en Canvas.

Palabras Clave
Machine Learning
Bibliografía Recomendada

Tema Subtema Referente bibliográfico


Andras C. Müller & Sarah Guido, introduction to Machine
Learning with Python, Dawn Schanafelt, first edition (2016)
Aguilar, A., Altamira, J., García, O. (2010). Introducción a la inferencia
estadística. Pearson Educación. (Recuperado Base de datos ebooks
Machine Programación en 7/24)
Learning Python. Rudolph Rusell, Machine Learning (2018).
Nombre del Proceso:
CÓDIGO: PA-FM-004
PROGRAMAS ACADÉMICOS

Nombre del Documento: VERSIÓN: 1


FECHA: 2/Marzo
FORMATO PRÁCTICAS DE LABORATORIOS
/2023

Control de cambios
Fecha de Descripción Participantes
Actualización
Se ajustó el resultado de aprendizaje
y se actualizaron las actividades de
24 de febrero
trabajo autónomo para que el William Javier Rodríguez Cruz
de 2023
estudioso optimice su proceso.

También podría gustarte