Temario del curso

Introducción a TinyML y AI embebida

  • Características de la implementación de modelos TinyML
  • Restricciones en entornos de microcontroladores
  • Visión general de las cadenas de herramientas de AI embebida

Fundamentos de la optimización de modelos

  • Comprensión de los cuellos de botella computacionales
  • Identificación de operaciones intensivas en memoria
  • Perfilado de rendimiento base

Técnicas de cuantización

  • Estrategias de cuantización post-entrenamiento
  • Cuantización consciente del entrenamiento
  • Evaluación de la precisión frente a los compromisos de recursos

Poda y compresión

  • Métodos estructurados y no estructurados de poda
  • Compartición de pesos y dispersidad del modelo
  • Algoritmos de compresión para inferencia ligera

Optimización orientada al hardware

  • Implementación de modelos en sistemas ARM Cortex-M
  • Optimización para extensiones DSP y aceleradores
  • Mapeo de memoria y consideraciones de flujo de datos

Benchmarking y validación

  • Análisis de latencia y rendimiento
  • Mediciones de consumo de energía y potencia
  • Pruebas de precisión y robustez

Flujos de trabajo y herramientas de implementación

  • Uso de TensorFlow Lite Micro para la implementación embebida
  • Integración de modelos TinyML con pipelines Edge Impulse
  • Pruebas y depuración en hardware real

Estrategias avanzadas de optimización

  • Búsqueda de arquitectura neuronal para TinyML
  • Enfoques híbridos de cuantización-poda
  • Destilación de modelos para inferencia embebida

Resumen y siguientes pasos

Requerimientos

  • Conocimiento de los flujos de trabajo de aprendizaje automático
  • Experiencia con sistemas embebidos o desarrollo basado en microcontroladores
  • Familiaridad con la programación en Python

Audiencia

  • Investigadores de IA
  • Ingenieros de ML embebido
  • Profesionales que trabajan en sistemas de inferencia con recursos limitados
 21 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas