Temario del curso

Introducción a los LLM de código abierto

  • ¿Qué son los modelos de peso abierto y por qué son importantes?
  • Visión general de LLaMA, Mistral, Qwen y otros modelos de la comunidad
  • Casos de uso para despliegues privados, en premises o seguros

Configuración del entorno y herramientas

  • Instalación y configuración de las bibliotecas Transformers, Datasets y PEFT
  • Elegir el hardware adecuado para el afinado fino (fine-tuning)
  • Carga de modelos preentrenados desde Hugging Face u otros repositorios

Preparación y preprocesamiento de datos

  • Formatos de conjuntos de datos (ajuste de instrucciones, datos de chat, texto solo)
  • Tokenización y gestión de secuencias
  • Creación de conjuntos de datos personalizados y cargadores de datos

Técnicas de afinado fino (fine-tuning)

  • Afinado completo estándar vs. métodos eficientes en parámetros
  • Aplicación de LoRA y QLoRA para un afinado fino eficiente
  • Uso de la API Trainer para experimentos rápidos

Evaluación y optimización del modelo

  • Evaluación de modelos afinados con métricas de generación y precisión
  • Gestión del overfitting, generalización y conjuntos de validación
  • Consejos de optimización de rendimiento y registro

Despliegue y uso privado

  • Guardado y carga de modelos para inferencia
  • Despliegue de modelos afinados en entornos empresariales seguros
  • Estrategias de despliegue en premises vs. en la nube

Casos de estudio y usos

  • Ejemplos de uso empresarial de LLaMA, Mistral y Qwen
  • Manejo del afinado fino multilingüe y específico del dominio
  • Discusión: compensaciones entre modelos abiertos y cerrados

Resumen y próximos pasos

Requerimientos

  • Una comprensión de los modelos de lenguaje grandes (LLMs) y su arquitectura
  • Experiencia con Python y PyTorch
  • Familiaridad básica con el ecosistema de Hugging Face

Audiencia

  • Practicantes de ML
  • Desarrolladores de IA
 14 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas