Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida
Proteger la Inteligencia en el Borde (Edge AI) y la Inteligencia Embebida es la práctica de proteger los modelos de aprendizaje automático y los datos en entornos con recursos limitados, a menudo expuestos físicamente, como drones, sensores, cámaras inteligentes y sistemas autónomos.
Esta formación dirigida por un instructor (en línea o presencial) está destinada a ingenieros y profesionales de la seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como manipulaciones, filtraciones de datos, entradas adversarias y ataques físicos.
Al final de esta formación, los participantes serán capaces de:
- Identificar y evaluar los riesgos de seguridad en las implementaciones de IA en el borde.
- Aplicar técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalecer los modelos implementados en el borde y asegurar las pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con recursos limitados.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Temario del curso
Introducción a la IA en el Borde y los Sistemas Embebidos
- ¿Qué es la IA en el Borde? Casos de uso y restricciones
- Plataformas de hardware y software para el borde
- Desafíos de seguridad en entornos embebidos y descentralizados
Panorama de Amenazas para la IA en el Borde
- Riesgos de acceso físico y manipulación
- Ejemplos adversarios y manipulación del modelo
- Filtraciones de datos y amenazas de inversión del modelo
Protección del Modelo
- Estrategias de fortalecimiento y cuantización del modelo
- Marcado de agua y huellas digitales en modelos
- Destilación defensiva y poda
Inferencia Cifrada y Ejecución Segura
- Entornos de ejecución confiables (TEEs) para IA
- Enclaves seguros y computación confidencial
- Inferencia cifrada utilizando criptografía homomórfica o SMPC
Detección de Manipulación y Controles a Nivel de Dispositivo
- Arranque seguro y verificación de la integridad del firmware
- Validación de sensores y detección de anomalías
- Attestation remota y monitoreo de la salud del dispositivo
Integración de Seguridad de Borde a Nube
- Transmisión segura de datos y gestión de claves
- Cifrado de extremo a extremo y protección del ciclo de vida de los datos
- Orquestación de IA en la nube con restricciones de seguridad en el borde
Mejores Prácticas y Estrategia de Mitigación de Riesgos
- Modelado de amenazas para sistemas de IA en el borde
- Principios de diseño de seguridad para la inteligencia embebida
- Respuesta a incidentes y gestión de actualizaciones de firmware
Resumen y Próximos Pasos
Requerimientos
- Comprensión de sistemas embebidos o entornos de implementación de IA en el borde
- Experiencia con Python y marcos de aprendizaje automático (por ejemplo, TensorFlow Lite, PyTorch Mobile)
- Conocimientos básicos de ciberseguridad o modelos de amenazas IoT
Audiencia
- Desarrolladores de IA embebida
- Especialistas en seguridad IoT
- Ingenieros que implementan modelos de ML en dispositivos de borde o con recursos limitados
Los cursos públicos requieren más de 5 participantes.
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida - Reserva
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida - Consulta
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida - Solicitud de consultoría
Solicitud de consultoría
Próximos cursos
Cursos Relacionados
ISACA Avanzado en Gestión de Seguridad de IA (AAISM)
21 HorasAAISM es un marco avanzado para evaluar, gobernar y gestionar los riesgos de seguridad en sistemas de inteligencia artificial.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar controles de seguridad y prácticas de gobierno efectivas para entornos empresariales de IA.
Al finalizar este programa, los participantes estarán preparados para:
- Evaluar riesgos de seguridad en IA utilizando metodologías reconocidas en la industria.
- Implementar modelos de gobernanza para despliegues responsables de IA.
- Alinear políticas de seguridad de IA con los objetivos organizacionales y las expectativas regulatorias.
- Mejorar la resiliencia y la responsabilidad en operaciones impulsadas por IA.
Formato del Curso
- Conferencias facilitadas respaldadas por análisis de expertos.
- Talleres prácticos y actividades basadas en evaluaciones.
- Ejercicios aplicados utilizando escenarios reales de gobernanza de IA.
Opciones de Personalización del Curso
- Para un entrenamiento personalizado alineado con su estrategia de IA organizacional, póngase en contacto con nosotros para personalizar el curso.
Gobernanza, Cumplimiento y Seguridad de IA para Líderes Empresariales
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a líderes empresariales intermedios que desean comprender cómo gobernar y asegurar los sistemas de IA de manera responsable y en conformidad con marcos emergentes como el Reglamento de IA de la UE, el RGPD, ISO/IEC 42001 y la Orden Ejecutiva sobre IA de Estados Unidos.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento de IA de la UE, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para el despliegue de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y propios.
Gestión de Riesgos y Seguridad de la IA en el Sector Público
7 HorasLa Inteligencia Artificial (IA) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el lugar) está orientado a profesionales del sector público en TI y gestión de riesgos con experiencia limitada previa en IA que desean comprender cómo evaluar, monitorear y asegurar sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al final de este entrenamiento, los participantes serán capaces de:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y desviación del modelo.
- Aplicar marcos específicos de gobernanza y auditoría de IA como el NIST AI RMF y ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que se dirigen a modelos y pipelines de datos de IA.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión de casos de uso en el sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para organizarlo.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
21 HorasEsta formación en vivo dirigida por un instructor (online o presencial) está destinada a profesionales de TI principiantes y de nivel intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos clave y la importancia de la confianza, el manejo del riesgo y la seguridad en AI.
- Identificar y mitigar los riesgos asociados con los sistemas AI.
- Implementar las mejores prácticas de seguridad para AI.
- Entender la conformidad regulatoria y las consideraciones éticas para AI.
- Desarrollar estrategias efectivas para la gobernanza y gestión de AI.
Building Secure and Responsible LLM Applications
14 HorasEste curso de formación dirigido por un instructor en Venezuela (en línea o presencial) está destinado a desarrolladores, arquitectos y gerentes de productos de IA de nivel intermedio a avanzado que deseen identificar y mitigar riesgos asociados con aplicaciones impulsadas por modelos de lenguaje grandes (LLM), incluyendo inyección de prompts, fuga de datos y salida sin filtrar, mientras incorporan controles de seguridad como la validación de entrada, supervisión humana en el bucle y barreras de protección de la salida.
Al finalizar este curso, los participantes podrán:
- Comprender las vulnerabilidades principales de los sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como el uso de entornos aislados (sandboxing), equipos rojos (red teaming) y revisiones humanas en el bucle en pipelines de producción de grado empresarial.
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a la Seguridad y Gestión de Riesgos en IA
14 HorasEste entrenamiento dirigido por un instructor, en vivo (en línea o presencial) está destinado a profesionales de la seguridad de TI, gestión de riesgos y cumplimiento con nivel principiante que deseen comprender los conceptos fundamentales de seguridad en IA, vectores de amenaza y marcos globales como el NIST AI RMF y ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos e inversión de modelos.
- Aplicar modelos de gobernanza fundamentales como el Marco de Gestión de Riesgos de IA del NIST.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBasado en las últimas pautas del proyecto OWASP GenAI Security, los participantes aprenderán a identificar, evaluar y mitigar amenazas específicas de IA mediante ejercicios prácticos y escenarios del mundo real.
Aprendizaje Automático con Preservación de Privacidad
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar y evaluar técnicas como el aprendizaje federado, el cálculo seguro multipartidario, la cifrado homomórfico y la privacidad diferencial en pipelines de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar las técnicas clave de preservación de privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos y entrenar modelos de forma segura.
- Utilizar técnicas de cifrado y cálculo seguro para proteger las entradas y salidas del modelo.
Red Teaming de Sistemas de IA: Seguridad Ofensiva para Modelos de ML
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de seguridad avanzados y especialistas en ML que desean simular ataques a sistemas de IA, descubrir vulnerabilidades y mejorar la robustez de los modelos de IA implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de APIs y pipelines de IA.
- Diseñar estrategias de red teaming para entornos de implementación de IA.
Protección de Modelos de IA: Amenazas, Ataques y Defensas
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a profesionales intermedios de aprendizaje automático y ciberseguridad que deseen comprender y mitigar amenazas emergentes contra los modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y clasificar amenazas específicas de IA como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como la Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas, incluyendo entrenamiento adversario, inyección de ruido y técnicas que preservan la privacidad.
- Diseñar estrategias de evaluación del modelo conscientes de amenazas en entornos de producción.
Seguridad y Privacidad en Aplicaciones de TinyML
21 HorasTinyML es un enfoque para implementar modelos de aprendizaje automático en dispositivos de bajo consumo y recursos limitados que operan en el borde de la red.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen asegurar las pipelines de TinyML e implementar técnicas de protección de la privacidad en aplicaciones de IA en el borde.
Al finalizar este curso, los participantes podrán:
- Identificar riesgos de seguridad propios de la inferencia de TinyML en dispositivo.
- Implementar mecanismos de protección de la privacidad para implementaciones de IA en el borde.
- Fortalecer los modelos y sistemas embebidos de TinyML contra amenazas adversarias.
- Aplicar mejores prácticas para un manejo seguro de datos en entornos con recursos limitados.
Formato del Curso
- Conferencias atractivas respaldadas por discusiones dirigidas por expertos.
- Ejercicios prácticos que enfatizan escenarios de amenazas del mundo real.
- Implementación práctica utilizando herramientas de seguridad embebida y TinyML.
Opciones de Personalización del Curso
- Las organizaciones pueden solicitar una versión personalizada de este entrenamiento para alinearlo con sus necesidades específicas de seguridad y cumplimiento.
IA Segura y Confiable: Gobernanza, Identidad y Equipo Rojo
21 HorasEste curso cubre la gobernanza, gestión de identidad y pruebas adversarias para sistemas de IA agente, con enfoque en patrones de implementación seguros para empresas y técnicas prácticas de equipo rojo.
Esta capacitación dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel avanzado que deseen diseñar, asegurar y evaluar sistemas de IA basados en agentes en entornos de producción.
Al finalizar esta capacitación, los participantes podrán:
- Definir modelos y políticas de gobernanza para implementaciones seguras de IA agente.
- Diseñar flujos de identidad y autenticación no humanos para agentes con acceso de privilegios mínimos.
- Implementar controles de acceso, rastros de auditoría y observabilidad adaptados a agentes autónomos.
- Planificar y ejecutar ejercicios de equipo rojo para descubrir malos usos, caminos de escalada y riesgos de exfiltración de datos.
- Mitigar amenazas comunes a sistemas agente mediante políticas, controles de ingeniería y monitoreo.
Formato del Curso
- Conferencias interactivas y talleres de modelado de amenazas.
- Laboratorios prácticos: aprovisionamiento de identidad, aplicación de políticas y simulación de adversarios.
- Ejercicios de equipo rojo/equipo azul y evaluación final del curso.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, comuníquese con nosotros para realizar los arreglos necesarios.