Curso de Fine-Tuning Modelos de Lenguaje Grandes Usando QLoRA
QLoRA es una técnica avanzada para el ajuste fino de modelos de lenguaje grandes (LLMs) mediante la utilización de métodos de cuantización, ofreciendo una forma más eficiente de ajustar estos modelos sin incurrir en costos computacionales masivos. Esta formación abordará tanto los fundamentos teóricos como la implementación práctica del ajuste fino de LLMs utilizando QLoRA.
Esta capacitación dirigida por instructores (en línea o presencial) está destinada a ingenieros de aprendizaje automático de nivel intermedio y avanzado, desarrolladores de IA y científicos de datos que desean aprender a utilizar QLoRA para ajustar eficientemente grandes modelos para tareas específicas y personalizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender la teoría detrás del QLoRA y las técnicas de cuantización para LLMs.
- Implementar QLoRA en el ajuste fino de modelos de lenguaje grandes para aplicaciones específicas de dominio.
- Optimizar el rendimiento del ajuste fino en recursos computacionales limitados utilizando cuantización.
- Deploy and evaluate fine-tuned models in real-world applications efficiently.
Formato del Curso
- Conferencia interactiva y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, por favor contáctenos para coordinar.
Programa del Curso
Introducción a QLoRA y la Cuantización
- Visión general de la cuantización y su papel en la optimización del modelo
- Introducción al marco QLoRA y sus beneficios
- Diferencias clave entre QLoRA y los métodos tradicionales de ajuste fino
Fundamentos de Large Language Models (LLMs)
- Introducción a los LLMs (Modelos de Lenguaje Grande) y su arquitectura
- Dificultades del ajuste fino de modelos grandes a gran escala
- Cómo la cuantización ayuda a superar las restricciones computacionales en el ajuste fino de LLMs
Implementando QLoRA para Fine-Tuning LLMs
- Configuración del marco y entorno QLoRA
- Preparación de conjuntos de datos para el ajuste fino con QLoRA
- Guía paso a paso para implementar QLoRA en LLMs utilizando Python y PyTorch/TensorFlow
Optimizando el Rendimiento de Fine-Tuning con QLoRA
- Cómo equilibrar la precisión del modelo y su rendimiento mediante cuantización
- Técnicas para reducir los costos computacionales y el uso de memoria durante el ajuste fino
- Estrategias para realizar el ajuste fino con requisitos mínimos de hardware
Evaluación de Modelos Ajustados Fino
- Cómo evaluar la efectividad de los modelos ajustados finamente
- Métricas comunes de evaluación para modelos de lenguaje
- Optimización del rendimiento del modelo después del ajuste y solución de problemas
Implementación y Escalado de Modelos Ajustados Fino
- Prácticas recomendadas para implementar LLMs cuantificados en entornos de producción
- Escalar la implementación para manejar solicitudes en tiempo real
- Herramientas y marcos para la implementación y monitoreo del modelo
Casos Reales Use Case y Estudios de Caso
- Estudio de caso: Ajuste fino de LLMs para soporte al cliente y tareas NLP
- Ejemplos de ajuste fino de LLMs en diversas industrias como la salud, finanzas y comercio electrónico
- Lecciones aprendidas de implementaciones reales de modelos basados en QLoRA
Resumen y Próximos Pasos
Requerimientos
- Comprensión de los fundamentos del aprendizaje automático y las redes neuronales
- Experiencia en el ajuste fino de modelos y el aprendizaje por transferencia
- Familiaridad con los grandes modelos de lenguaje (LLMs) y los marcos de aprendizaje profundo (por ejemplo, PyTorch, TensorFlow)
Publlico objetivo
- Ingenieros de aprendizaje automático
- Desarrolladores de IA
- Científicos de datos
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Fine-Tuning Modelos de Lenguaje Grandes Usando QLoRA - Booking
Curso de Fine-Tuning Modelos de Lenguaje Grandes Usando QLoRA - Enquiry
Fine-Tuning Modelos de Lenguaje Grandes Usando QLoRA - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Avanzado de LangGraph: Optimización, Depuración y Monitoreo de Grafos Complejos
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado, como gráficos componibles con estado persistente y control de ejecución.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a ingenieros avanzados de plataformas AI, DevOps para AI y arquitectos ML que desean optimizar, depurar, monitorear y operar sistemas LangGraph de grado de producción.
Al finalizar esta formación, los participantes serán capaces de:
- Diseñar y optimizar topologías complejas de LangGraph para velocidad, costo y escalabilidad.
- Diseñar confiabilidad con reintentos, tiempos de espera, idempotencia y recuperación basada en puntos de control.
- Depurar y rastrear ejecuciones del gráfico, inspeccionar el estado y reproducir sistemáticamente problemas de producción.
- Instrumentar gráficos con registros, métricas y trazas, implementar en producción y monitorear SLAs y costos.
Formato del Curso
- Sesión interactiva de lectura y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor póngase en contacto con nosotros para concertar la fecha.
Building Coding Agents with Devstral: From Agent Design to Tooling
14 HorasDevstral is an open-source framework designed for building and running coding agents that can interact with codebases, developer tools, and APIs to enhance engineering productivity.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level ML engineers, developer-tooling teams, and SREs who wish to design, implement, and optimize coding agents using Devstral.
By the end of this training, participants will be able to:
- Set up and configure Devstral for coding agent development.
- Design agentic workflows for codebase exploration and modification.
- Integrate coding agents with developer tools and APIs.
- Implement best practices for secure and efficient agent deployment.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Open-Source Model Ops: Self-Hosting, Fine-Tuning and Governance with Devstral & Mistral Models
14 HorasDevstral and Mistral models are open-source AI technologies designed for flexible deployment, fine-tuning, and scalable integration.
This instructor-led, live training (online or onsite) is aimed at intermediate–level to advanced–level ML engineers, platform teams, and research engineers who wish to self-host, fine-tune, and govern Mistral and Devstral models in production environments.
By the end of this training, participants will be able to:
- Set up and configure self-hosted environments for Mistral and Devstral models.
- Apply fine-tuning techniques for domain-specific performance.
- Implement versioning, monitoring, and lifecycle governance.
- Ensure security, compliance, and responsible usage of open-source models.
Format of the Course
- Interactive lecture and discussion.
- Hands-on exercises in self-hosting and fine-tuning.
- Live-lab implementation of governance and monitoring pipelines.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Aplicaciones de LangGraph en Finanzas
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado como gráficos componibles con estado persistente y control sobre la ejecución.
Esta formación en vivo (en línea u on-site) dirigida por instructores está destinada a profesionales de nivel intermedio a avanzado que desean diseñar, implementar y operar soluciones financieras basadas en LangGraph con una adecuada gobernanza, observabilidad y cumplimiento.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo específicos de finanzas de LangGraph alineados con requisitos regulatorios y de auditoría.
- Integrar estándares de datos financieros y ontologías en el estado del gráfico y las herramientas.
- Implementar confiabilidad, seguridad y controles human-in-the-loop para procesos críticos.
- Deploy, monitorizar y optimizar sistemas LangGraph para rendimiento, costo y SLAs.
Formato del Curso
- Conferencias interactivas y discusiones.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Fundamentos de LangGraph: Generación y Enlazado Basados en Grafos de LLM
14 HorasLangGraph es un marco para construir aplicaciones LLM estructuradas en grafos que admiten planificación, ramificación, uso de herramientas, memoria y ejecución controlada.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a desarrolladores principiantes, ingenieros de prompts y profesionales de datos que desean diseñar y construir flujos de trabajo LLM multi-etapas confiables utilizando LangGraph.
Al finalizar esta formación, los participantes podrán:
- Explicar conceptos básicos de LangGraph (nodos, bordes, estado) y cuándo utilizarlos.
- Construir cadenas de prompts que se ramifiquen, invoquen herramientas y mantengan la memoria.
- Integrar recuperaciones y APIs externas en los flujos de trabajo gráficos.
- Probar, depurar y evaluar aplicaciones LangGraph para confiabilidad y seguridad.
Formato del Curso
- Charla interactiva y discusión facilitada.
- Laboratorios guiados y revisión de código en un entorno de sandbox.
- Ejercicios basados en escenarios sobre diseño, prueba y evaluación.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
LangGraph en la Salud: Orquestación de Flujos de Trabajo para Entornos Regulados
35 HorasLangGraph habilita flujos de trabajo multiactor y con estado, impulsados por LLMs, con un control preciso sobre las rutas de ejecución y la persistencia del estado. En el ámbito de la salud, estas capacidades son cruciales para cumplir con los requisitos normativos, garantizar la interoperabilidad y desarrollar sistemas de apoyo a la toma de decisiones que se alineen con los flujos de trabajo médicos.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio a avanzado que deseen diseñar, implementar y gestionar soluciones basadas en LangGraph para la salud, abordando desafíos regulatorios, éticos y operativos.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo específicos del sector sanitario con LangGraph, teniendo en cuenta la conformidad y la auditoría.
- Integrar aplicaciones LangGraph con ontologías médicas y estándares (FHIR, SNOMED CT, ICD).
- Aplicar las mejores prácticas para confiabilidad, trazabilidad y explicabilidad en entornos sensibles.
- Distribuir, supervisar y validar aplicaciones LangGraph en entornos de producción sanitaria.
Formato del Curso
- Conferencias interactivas y discusiones.
- Ejercicios prácticos con estudios de casos reales.
- Ejercitación en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor póngase en contacto con nosotros para coordinar.
LangGraph para Aplicaciones Legales
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado, como gráficos componibles con un estado persistente y un control preciso sobre la ejecución.
Este entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel intermedio a avanzado que desean diseñar, implementar y operar soluciones legales basadas en LangGraph con los controles necesarios de cumplimiento, trazabilidad y gobernanza.
Al finalizar este entrenamiento, los participantes podrán:
- Diseñar flujos de trabajo específicos para la legalidad en LangGraph que preserven la auditoría y el cumplimiento.
- Integrar ontologías legales y estándares de documentos en el estado del gráfico y su procesamiento.
- Implementar barreras de seguridad, aprobaciones con intervención humana y caminos de decisiones trazables.
- Desplegar, monitorear y mantener servicios LangGraph en producción con observabilidad y controles de costos.
Formato del Curso
- Sesiones interactivas de lectura y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Creación de Flujos de Trabajo Dinámicos con LangGraph y Agentes LLM
14 HorasLangGraph es un marco para componer flujos de trabajo estructurados en gráficos que admiten ramificación, uso de herramientas, memoria y ejecución controlada.
Este entrenamiento en vivo guiado por instructores (en línea o presencial) está destinado a ingenieros de nivel intermedio y equipos de productos que desean combinar la lógica gráfica de LangGraph con los bucles de agentes LLM para construir aplicaciones dinámicas y conscientes del contexto, como agentes de soporte al cliente, árboles de decisiones y sistemas de recuperación de información.
Al finalizar este entrenamiento, los participantes podrán:
- Diseñar flujos de trabajo basados en gráficos que coordinen agentes LLM, herramientas y memoria.
- Implementar enrutamiento condicional, reintentos y respaldos para una ejecución robusta.
- Integrar la recuperación, APIs y salidas estructuradas en los bucles de agentes.
- Evaluar, monitorear y fortalecer el comportamiento del agente para mejorar la confiabilidad y seguridad.
Formato del Curso
- Conferencia interactiva y discusión facilitada.
- Laboratorios guiados y repaso de código en un entorno sandbox.
- Ejercicios de diseño basados en escenarios y revisiones entre pares.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
LangGraph para Automatización de Marketing
14 HorasLangGraph es un marco de orquestación basado en grafos que permite flujos de trabajo condicionales y multi-pasos para LLM y herramientas, ideal para automatizar y personalizar canales de contenido.
Esta formación en vivo dirigida por instructores (en línea o presencial) se dirige a marketers de nivel intermedio, estrategas de contenidos y desarrolladores de automatización que deseen implementar campañas de correo electrónico dinámicas y ramificadas y canales de generación de contenido utilizando LangGraph.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo de contenido y correo electrónico estructurados en grafos con lógica condicional.
- Integrar LLMs, APIs y fuentes de datos para personalización automatizada.
- Gestionar estado, memoria y contexto a lo largo de campañas multi-paso.
- Evaluar, monitorear y optimizar el rendimiento del flujo de trabajo y los resultados de entrega.
Formato del Curso
- Conferencias interactivas y discusiones grupales.
- Laboratorios prácticos implementando flujos de trabajo de correo electrónico y canales de contenido.
- Ejercicios basados en escenarios sobre personalización, segmentación y lógica ramificada.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Le Chat Enterprise: Private ChatOps, Integrations & Admin Controls
14 HorasLe Chat Enterprise is a private ChatOps solution that provides secure, customizable, and governed conversational AI capabilities for organizations, with support for RBAC, SSO, connectors, and enterprise app integrations.
This instructor-led, live training (online or onsite) is aimed at intermediate-level product managers, IT leads, solution engineers, and security/compliance teams who wish to deploy, configure, and govern Le Chat Enterprise in enterprise environments.
By the end of this training, participants will be able to:
- Set up and configure Le Chat Enterprise for secure deployments.
- Enable RBAC, SSO, and compliance-driven controls.
- Integrate Le Chat with enterprise applications and data stores.
- Design and implement governance and admin playbooks for ChatOps.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Cost-Effective LLM Architectures: Mistral at Scale (Performance / Cost Engineering)
14 HorasMistral is a high-performance family of large language models optimized for cost-effective production deployment at scale.
This instructor-led, live training (online or onsite) is aimed at advanced-level infrastructure engineers, cloud architects, and MLOps leads who wish to design, deploy, and optimize Mistral-based architectures for maximum throughput and minimum cost.
By the end of this training, participants will be able to:
- Implement scalable deployment patterns for Mistral Medium 3.
- Apply batching, quantization, and efficient serving strategies.
- Optimize inference costs while maintaining performance.
- Design production-ready serving topologies for enterprise workloads.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Productizing Conversational Assistants with Mistral Connectors & Integrations
14 HorasMistral AI is an open AI platform that enables teams to build and integrate conversational assistants into enterprise and customer-facing workflows.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level product managers, full-stack developers, and integration engineers who wish to design, integrate, and productize conversational assistants using Mistral connectors and integrations.
By the end of this training, participants will be able to:
- Integrate Mistral conversational models with enterprise and SaaS connectors.
- Implement retrieval-augmented generation (RAG) for grounded responses.
- Design UX patterns for internal and external chat assistants.
- Deploy assistants into product workflows for real-world use cases.
Format of the Course
- Interactive lecture and discussion.
- Hands-on integration exercises.
- Live-lab development of conversational assistants.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Enterprise-Grade Deployments with Mistral Medium 3
14 HorasMistral Medium 3 is a high-performance, multimodal large language model designed for production-grade deployment across enterprise environments.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level AI/ML engineers, platform architects, and MLOps teams who wish to deploy, optimize, and secure Mistral Medium 3 for enterprise use cases.
By the end of this training, participants will be able to:
- Deploy Mistral Medium 3 using API and self-hosted options.
- Optimize inference performance and costs.
- Implement multimodal use cases with Mistral Medium 3.
- Apply security and compliance best practices for enterprise environments.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Mistral for Responsible AI: Privacy, Data Residency & Enterprise Controls
14 HorasMistral AI is an open and enterprise-ready AI platform that provides features for secure, compliant, and responsible AI deployment.
This instructor-led, live training (online or onsite) is aimed at intermediate-level compliance leads, security architects, and legal/ops stakeholders who wish to implement responsible AI practices with Mistral by leveraging privacy, data residency, and enterprise control mechanisms.
By the end of this training, participants will be able to:
- Implement privacy-preserving techniques in Mistral deployments.
- Apply data residency strategies to meet regulatory requirements.
- Set up enterprise-grade controls such as RBAC, SSO, and audit logs.
- Evaluate vendor and deployment options for compliance alignment.
Format of the Course
- Interactive lecture and discussion.
- Compliance-focused case studies and exercises.
- Hands-on implementation of enterprise AI controls.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Multimodal Applications with Mistral Models (Vision, OCR, & Document Understanding)
14 HorasMistral models are open-source AI technologies that now extend into multimodal workflows, supporting both language and vision tasks for enterprise and research applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level ML researchers, applied engineers, and product teams who wish to build multimodal applications with Mistral models, including OCR and document understanding pipelines.
By the end of this training, participants will be able to:
- Set up and configure Mistral models for multimodal tasks.
- Implement OCR workflows and integrate them with NLP pipelines.
- Design document understanding applications for enterprise use cases.
- Develop vision-text search and assistive UI functionalities.
Format of the Course
- Interactive lecture and discussion.
- Hands-on coding exercises.
- Live-lab implementation of multimodal pipelines.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.