Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Temario del curso
Introducción a Ollama
- ¿Qué es Ollama y cómo funciona?
- Beneficios de ejecutar modelos de IA localmente
- Visión general de los LLMs soportados (Llama, DeepSeek, Mistral, etc.)
Instalación y Configuración de Ollama
- Requisitos del sistema y consideraciones de hardware
- Instalación de Ollama en diferentes sistemas operativos
- Configuración de dependencias y entorno
Ejecución de Modelos de IA Localmente
- Descarga y carga de modelos de IA en Ollama
- Interacción con los modelos a través de la línea de comandos
- Ingeniería básica de prompts para tareas de IA local
Optimización del Rendimiento y Uso de Recursos
- Gestión de recursos de hardware para la ejecución eficiente de IA
- Reducción de latencia y mejora del tiempo de respuesta del modelo
- Evaluación del rendimiento para diferentes modelos
Casos de Uso para la Implementación Local de IA
- Chatbots y asistentes virtuales basados en IA
- Tareas de procesamiento de datos y automatización
- Aplicaciones de IA enfocadas a la privacidad
Resumen y Pasos Siguientes
Requerimientos
- Comprensión básica de IA y conceptos de aprendizaje automático
- Familiaridad con interfaces de línea de comandos
Público Objetivo
- Desarrolladores que ejecutan modelos de IA sin dependencias de la nube
- Profesionales empresariales interesados en la privacidad y el despliegue coste-efectivo de IA
- Aficionados a la IA que exploran el despliegue local de modelos
7 Horas