Programa del Curso

1. Comprender la clasificación mediante el uso de los vecinos más cercanos

  • El algoritmokNN
  • Cálculo de la distancia
  • Elegir un kapropiado
  • Preparación de datos para su uso con kNN
  • ¿Por qué el algoritmo kNN es perezoso?

2. Entendiendo el Bayes ingenuo

  • Conceptos básicos de los métodos bayesianos
  • Probabilidad
  • Probabilidad conjunta
  • Probabilidad condicional con teoremade Bayes
  • El ingenuo algoritmode Bayes
  • La ingenua clasificaciónde Bayes
  • El estimador de Laplace
  • Uso de características numéricas con Bayes ingenuo

3. Comprender los árboles de decisión

  • Divide y vencerás
  • El algoritmodel árbol de decisión C5.0
  • Elegir la mejor división
  • Poda del árbol de decisión

4. Comprender las reglas de clasificación

  • Sepárate y conquista
  • El algoritmode la regla única
  • El algoritmoRIPPER
  • Reglas de los árboles de decisión

5. Comprender la regresión 

  • Regresiónlineal simple
  • Estimación demínimos cuadrados ordinarios
  • Correlaciones
  • Regresión lineal múltiple

6. Comprender los árboles de regresión y los árboles modelo

  • Adición de regresión a los árboles

7. Comprender las redes neuronales

  • De las neuronas biológicas a las artificiales
  • Funcionesde activación
  • Topología de red
  • El número de capas
  • La dirección de lainformación
  • El número de nodos de cada capa
  • Entrenamiento de redes neuronales con retropropagación

8. Comprensión de las máquinas de vectores de soporte

  • Clasificación con hiperplanos
  • Encontrar el máximo margen
  • El caso de los datoslinealmente separables
  • El caso de los datosno separables linealmente
  • Uso de kernels para espacios no lineales

9. Comprender las reglas de asociación

  • El algoritmo Apriori para el aprendizajede reglas de asociación
  • Medición del interés de las reglas: apoyo y confianza
  • Construyendo un conjunto de reglas con el principio Apriori

10. Descripción de la agrupación en clústeres

  • Agrupación en clústeres como tarea de aprendizaje automático
  • El algoritmo k-means para la agrupación en clústeres
  • Uso de la distancia para asignar y actualizar clústeres
  • Elección del número adecuado de clústeres

11. Medición del rendimiento para la clasificación 

  • Trabajar con datosde predicción de clasificación
  • Una mirada más cercana a las matricesde confusión
  • Uso de matrices de confusión para medir el rendimiento
  • Más allá de la precisión: otras medidas de rendimiento
  • La estadísticakappa
  • Sensibilidad y especificidad
  • Precisión y recuperación
  • La medida F
  • Visualización de las compensaciones derendimiento
  • CurvasROC
  • Estimación del rendimientofuturo
  • El métodode exclusión
  • Validacióncruzada
  • Bootstrap muestreo

12. Ajuste de los modelos de stock para un mejor rendimiento 

  • Uso del símbolo de intercalación para el ajuste automatizado deparámetros
  • Creación de un modeloajustado simple
  • Personalización del procesode ajuste
  • Mejora del rendimiento del modelo con metaaprendizaje
  • Comprensión de losconjuntos
  • Embolsado
  • Impulsar
  • Bosques aleatorios
  • Entrenamiento de bosques aleatorios
  • Evaluación del rendimiento aleatorio del bosque

13. Deep Learning

  • Tres clases de aprendizaje profundo
  • Autocodificadores profundos
  • Profundo preentrenado Neural Networks
  • Redes de apilamiento profundo

14. Discusión de áreas de aplicación específicas

  21 horas
 

Número de participantes


Comienza

Termina


Dates are subject to availability and take place between 09:30 and 16:30.
Los cursos de formación abiertos requieren más de 5 participantes.

Testimonios (1)

Cursos Relacionados

Torch: Introducción a Máquina y Aprendizaje Profundo

  21 horas

Categorías Relacionadas