Curso de MLL para la Educación Personalizada
Large Language Models (LLMs) se utilizan para procesar y generar texto similar al humano.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a educadores, profesionales de EdTech e investigadores con diferentes niveles de experiencia y conocimientos que deseen aprovechar los LLM para crear experiencias educativas personalizadas.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender la arquitectura y las capacidades de los LLM.
- Identificar oportunidades de personalización en el contenido educativo utilizando LLM.
- Diseñe plataformas de aprendizaje adaptativo que utilicen LLM para la personalización del contenido.
- Implementar estrategias impulsadas por LLM para mejorar la participación de los estudiantes y los resultados del aprendizaje.
- Evalúe la eficacia de los LLM en entornos educativos y tome decisiones basadas en datos para mejorar.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
Programa del Curso
Introducción a Large Language Models (LLMs)
- Descripción general de los LLM
- Evolución de los LLM en tecnología educativa
- Comprender la arquitectura de los LLM
Personalización en la educación
- La necesidad de un aprendizaje personalizado
- Enfoques actuales de la personalización
- Retos y oportunidades
LLMs y adaptación de contenidos
- Maestría en creación y curación de contenido
- Adaptar el contenido a los estilos y niveles de aprendizaje
- Multitarea con LLM para la adaptación de contenidos
LLMs en la práctica
- Casos de estudio: Aplicaciones exitosas de LLM en educación
- Sesión interactiva: LLMs en acción
Diseño de plataformas de aprendizaje adaptativo
- Principios del diseño de plataformas de aprendizaje adaptativo
- Incorporación de LLM en la arquitectura de la plataforma
- Consideraciones sobre la experiencia del usuario y la interfaz
Implementación y pruebas
- Desarrollo de un prototipo de plataforma de aprendizaje adaptativo
- Pruebas e iteración
- Recopilación y análisis de comentarios de los usuarios
Evaluación de la efectividad del LLM
- Métricas para medir el impacto del LLM en el aprendizaje
- Métodos de investigación para la tecnología educativa
- Análisis y discusión de estudios de caso
Consideraciones éticas y orientaciones futuras
- Implicaciones éticas de los LLM en la educación
- Garantizar la inclusión y la equidad
- Predicciones para el futuro de los LLM en el aprendizaje personalizado
Proyecto y Evaluación
- Diseño y presentación de una propuesta de plataforma de aprendizaje adaptativo basada en LLM
- Revisiones por pares y discusiones grupales
- Evaluación final y retroalimentación
Resumen y próximos pasos
Requerimientos
- Comprensión de los conceptos básicos de aprendizaje automático
- Se recomienda tener experiencia en programación en Python, pero no es obligatorio
- La familiaridad con la tecnología educativa es beneficiosa
Audiencia
- Educadores
- Desarrolladores de EdTech
- Investigadores en el campo de la tecnología educativa
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de MLL para la Educación Personalizada - Booking
Curso de MLL para la Educación Personalizada - Enquiry
MLL para la Educación Personalizada - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Avanzado de LangGraph: Optimización, Depuración y Monitoreo de Grafos Complejos
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado, como gráficos componibles con estado persistente y control de ejecución.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a ingenieros avanzados de plataformas AI, DevOps para AI y arquitectos ML que desean optimizar, depurar, monitorear y operar sistemas LangGraph de grado de producción.
Al finalizar esta formación, los participantes serán capaces de:
- Diseñar y optimizar topologías complejas de LangGraph para velocidad, costo y escalabilidad.
- Diseñar confiabilidad con reintentos, tiempos de espera, idempotencia y recuperación basada en puntos de control.
- Depurar y rastrear ejecuciones del gráfico, inspeccionar el estado y reproducir sistemáticamente problemas de producción.
- Instrumentar gráficos con registros, métricas y trazas, implementar en producción y monitorear SLAs y costos.
Formato del Curso
- Sesión interactiva de lectura y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor póngase en contacto con nosotros para concertar la fecha.
Depuración y Evaluación Avanzada de Modelos Ollama
35 HorasAdvanced Ollama Model Debugging & Evaluation es un curso detallado centrado en el diagnóstico, la prueba y la medición del comportamiento de los modelos al ejecutar implementaciones locales o privadas de Ollama.
Esta formación en vivo dirigida por instructores (en línea o presencial) se dirige a ingenieros de IA avanzados, profesionales de ML Ops y practicantes de QA que desean garantizar la fiabilidad, la fidelidad y la preparación operativa de los modelos basados en Ollama en producción.
Al final de esta formación, los participantes serán capaces de:
- Ejecutar un depurado sistemático de modelos alojados en Ollama y reproducir modos de fallo de manera confiable.
- Diseñar y ejecutar pipelines de evaluación robusta con métricas cuantitativas y cualitativas.
- Implementar la observabilidad (logs, trazas, métricas) para monitorear la salud del modelo y el deriva.
- Automatizar pruebas, validaciones y controles de regresión integrados en los pipelines CI/CD.
Formato del Curso
- Conferencia interactiva y discusión.
- Laboratorios prácticos y ejercicios de depuración utilizando implementaciones de Ollama.
- Casos de estudio, sesiones grupales de solución de problemas y talleres de automatización.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para arreglarlo.
Creando Flujos de Trabajo de IA Privada con Ollama
14 HorasEsta formación en vivo y presidida por un instructor (en línea o en el sitio) está dirigida a profesionales avanzados que desean implementar flujos de trabajo impulsados por IA seguros y eficientes utilizando Ollama.
Al finalizar esta formación, los participantes podrán:
- Implementar y configurar Ollama para el procesamiento de IA privada.
- Integrar modelos de IA en flujos de trabajo empresariales seguros.
- Optimizar el rendimiento de la IA mientras se mantiene la privacidad de los datos.
- Automatizar procesos de negocio con capacidades de IA alojadas localmente.
- Asegurar el cumplimiento con las políticas de seguridad y gobernanza empresariales.
Implementación y Optimización de Modelos de Lenguaje Grande (LLMs) con Ollama
14 HorasEste entrenamiento dirigido por un instructor, en vivo en Venezuela (en línea o presencial), está dirigido a profesionales de nivel intermedio que deseen implementar, optimizar e integrar LLMs utilizando Ollama.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar e implementar LLMs utilizando Ollama.
- Optimizar modelos de IA para mejorar el rendimiento y la eficiencia.
- Aprovechar la aceleración de GPU para mejorar la velocidad de inferencia.
- Integrar Ollama en flujos de trabajo y aplicaciones.
- Monitorear y mantener el rendimiento de los modelos de IA a lo largo del tiempo.
Fine-Tuning y Personalización de Modelos de IA en Ollama
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) en Venezuela está destinado a profesionales de nivel avanzado que desean afinar y personalizar modelos AI en Ollama para mejorar el rendimiento y aplicaciones específicas del dominio.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno eficiente para afinar modelos AI en Ollama.
- Preparar conjuntos de datos para el ajuste supervisado y el aprendizaje por refuerzo.
- Optimizar los modelos AI para rendimiento, precisión y eficiencia.
- Implementar modelos personalizados en entornos de producción.
- Evaluar mejoras del modelo y asegurar la robustez.
Aplicaciones de LangGraph en Finanzas
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado como gráficos componibles con estado persistente y control sobre la ejecución.
Esta formación en vivo (en línea u on-site) dirigida por instructores está destinada a profesionales de nivel intermedio a avanzado que desean diseñar, implementar y operar soluciones financieras basadas en LangGraph con una adecuada gobernanza, observabilidad y cumplimiento.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo específicos de finanzas de LangGraph alineados con requisitos regulatorios y de auditoría.
- Integrar estándares de datos financieros y ontologías en el estado del gráfico y las herramientas.
- Implementar confiabilidad, seguridad y controles human-in-the-loop para procesos críticos.
- Deploy, monitorizar y optimizar sistemas LangGraph para rendimiento, costo y SLAs.
Formato del Curso
- Conferencias interactivas y discusiones.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Fundamentos de LangGraph: Generación y Enlazado Basados en Grafos de LLM
14 HorasLangGraph es un marco para construir aplicaciones LLM estructuradas en grafos que admiten planificación, ramificación, uso de herramientas, memoria y ejecución controlada.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a desarrolladores principiantes, ingenieros de prompts y profesionales de datos que desean diseñar y construir flujos de trabajo LLM multi-etapas confiables utilizando LangGraph.
Al finalizar esta formación, los participantes podrán:
- Explicar conceptos básicos de LangGraph (nodos, bordes, estado) y cuándo utilizarlos.
- Construir cadenas de prompts que se ramifiquen, invoquen herramientas y mantengan la memoria.
- Integrar recuperaciones y APIs externas en los flujos de trabajo gráficos.
- Probar, depurar y evaluar aplicaciones LangGraph para confiabilidad y seguridad.
Formato del Curso
- Charla interactiva y discusión facilitada.
- Laboratorios guiados y revisión de código en un entorno de sandbox.
- Ejercicios basados en escenarios sobre diseño, prueba y evaluación.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
LangGraph en la Salud: Orquestación de Flujos de Trabajo para Entornos Regulados
35 HorasLangGraph habilita flujos de trabajo multiactor y con estado, impulsados por LLMs, con un control preciso sobre las rutas de ejecución y la persistencia del estado. En el ámbito de la salud, estas capacidades son cruciales para cumplir con los requisitos normativos, garantizar la interoperabilidad y desarrollar sistemas de apoyo a la toma de decisiones que se alineen con los flujos de trabajo médicos.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio a avanzado que deseen diseñar, implementar y gestionar soluciones basadas en LangGraph para la salud, abordando desafíos regulatorios, éticos y operativos.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo específicos del sector sanitario con LangGraph, teniendo en cuenta la conformidad y la auditoría.
- Integrar aplicaciones LangGraph con ontologías médicas y estándares (FHIR, SNOMED CT, ICD).
- Aplicar las mejores prácticas para confiabilidad, trazabilidad y explicabilidad en entornos sensibles.
- Distribuir, supervisar y validar aplicaciones LangGraph en entornos de producción sanitaria.
Formato del Curso
- Conferencias interactivas y discusiones.
- Ejercicios prácticos con estudios de casos reales.
- Ejercitación en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor póngase en contacto con nosotros para coordinar.
LangGraph para Aplicaciones Legales
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado, como gráficos componibles con un estado persistente y un control preciso sobre la ejecución.
Este entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel intermedio a avanzado que desean diseñar, implementar y operar soluciones legales basadas en LangGraph con los controles necesarios de cumplimiento, trazabilidad y gobernanza.
Al finalizar este entrenamiento, los participantes podrán:
- Diseñar flujos de trabajo específicos para la legalidad en LangGraph que preserven la auditoría y el cumplimiento.
- Integrar ontologías legales y estándares de documentos en el estado del gráfico y su procesamiento.
- Implementar barreras de seguridad, aprobaciones con intervención humana y caminos de decisiones trazables.
- Desplegar, monitorear y mantener servicios LangGraph en producción con observabilidad y controles de costos.
Formato del Curso
- Sesiones interactivas de lectura y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Creación de Flujos de Trabajo Dinámicos con LangGraph y Agentes LLM
14 HorasLangGraph es un marco para componer flujos de trabajo estructurados en gráficos que admiten ramificación, uso de herramientas, memoria y ejecución controlada.
Este entrenamiento en vivo guiado por instructores (en línea o presencial) está destinado a ingenieros de nivel intermedio y equipos de productos que desean combinar la lógica gráfica de LangGraph con los bucles de agentes LLM para construir aplicaciones dinámicas y conscientes del contexto, como agentes de soporte al cliente, árboles de decisiones y sistemas de recuperación de información.
Al finalizar este entrenamiento, los participantes podrán:
- Diseñar flujos de trabajo basados en gráficos que coordinen agentes LLM, herramientas y memoria.
- Implementar enrutamiento condicional, reintentos y respaldos para una ejecución robusta.
- Integrar la recuperación, APIs y salidas estructuradas en los bucles de agentes.
- Evaluar, monitorear y fortalecer el comportamiento del agente para mejorar la confiabilidad y seguridad.
Formato del Curso
- Conferencia interactiva y discusión facilitada.
- Laboratorios guiados y repaso de código en un entorno sandbox.
- Ejercicios de diseño basados en escenarios y revisiones entre pares.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
LangGraph para Automatización de Marketing
14 HorasLangGraph es un marco de orquestación basado en grafos que permite flujos de trabajo condicionales y multi-pasos para LLM y herramientas, ideal para automatizar y personalizar canales de contenido.
Esta formación en vivo dirigida por instructores (en línea o presencial) se dirige a marketers de nivel intermedio, estrategas de contenidos y desarrolladores de automatización que deseen implementar campañas de correo electrónico dinámicas y ramificadas y canales de generación de contenido utilizando LangGraph.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo de contenido y correo electrónico estructurados en grafos con lógica condicional.
- Integrar LLMs, APIs y fuentes de datos para personalización automatizada.
- Gestionar estado, memoria y contexto a lo largo de campañas multi-paso.
- Evaluar, monitorear y optimizar el rendimiento del flujo de trabajo y los resultados de entrega.
Formato del Curso
- Conferencias interactivas y discusiones grupales.
- Laboratorios prácticos implementando flujos de trabajo de correo electrónico y canales de contenido.
- Ejercicios basados en escenarios sobre personalización, segmentación y lógica ramificada.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Aplicaciones Multimodales con Ollama
21 HorasOllama es una plataforma que permite ejecutar y ajustar modelos de lenguaje grandes y multimodales localmente.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a ingenieros ML avanzados, investigadores de IA y desarrolladores de productos que desean construir y desplegar aplicaciones multimodales con Ollama.
Al finalizar esta formación, los participantes podrán:
- Configurar y ejecutar modelos multimodales con Ollama.
- Integrar entradas de texto, imagen y audio para aplicaciones del mundo real.
- Desarrollar sistemas de comprensión de documentos y QA visual.
- Crear agentes multimodales capaces de razonar entre modalidades.
Formato del Curso
- Conferencia interactiva y discusión.
- Ejercicios prácticos con conjuntos de datos multimodales reales.
- Implementación en laboratorio vivo de tuberías multimodales usando Ollama.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Introducción a Ollama: Ejecución de Modelos de IA Locales
7 HorasEsta formación en vivo, dirigida por un instructor (en línea u on-site), está orientada a profesionales principiantes que desean instalar, configurar y usar Ollama para ejecutar modelos de IA en sus máquinas locales.
Al finalizar esta formación, los participantes podrán:
- Comprender los fundamentos y capacidades de Ollama.
- Configurar Ollama para ejecutar modelos locales de IA.
- Implementar e interactuar con LLMs utilizando Ollama.
- Optimizar el rendimiento y el uso de recursos para cargas de trabajo de IA.
- Explorar casos de uso para la implementación local de IA en diversos sectores.
Escalado de Ollama y Optimización de la Infraestructura
21 HorasOllama es una plataforma para ejecutar modelos de lenguaje y multimodales a gran escala de manera local y escalable.
Este entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a ingenieros de nivel intermedio a avanzado que desean escalar las implementaciones de Ollama para entornos de múltiples usuarios, alta capacidad de procesamiento y eficiencia de costos.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar Ollama para cargas de trabajo multiusuario y distribuidas.
- Optimizar la asignación de recursos GPU y CPU.
- Implementar estrategias de escalado automático, batching y reducción de latencia.
- Monitorear y optimizar la infraestructura para el rendimiento y la eficiencia de costos.
Formato del Curso
- Conferencias interactivas y discusiones.
- Laboratorios prácticos de implementación y escalado.
- Ejercicios de optimización en entornos en vivo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para concertarlo.
Prompt Engineering Mastery with Ollama
14 HorasOllama is a platform that enables running large language and multimodal models locally.
This instructor-led, live training (online or onsite) is aimed at intermediate-level practitioners who wish to master prompt engineering techniques to optimize Ollama outputs.
By the end of this training, participants will be able to:
- Design effective prompts for diverse use cases.
- Apply techniques such as priming and chain-of-thought structuring.
- Implement prompt templates and context management strategies.
- Build multi-stage prompting pipelines for complex workflows.
Format of the Course
- Interactive lecture and discussion.
- Hands-on exercises with prompt design.
- Practical implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.