Curso de Preservación de la Privacidad Machine Learning
Privacy-Preserving Machine Learning es un campo enfocado en proteger datos sensibles mientras se habilitan capacidades avanzadas de IA en entornos descentralizados o restringidos.
Esta formación dirigida por instructores (en línea u onsite) está destinada a profesionales avanzados que desean implementar y evaluar técnicas como el aprendizaje federado, cálculo seguro multiparte, cifrado homomórfico y privacidad diferencial en tuberías de machine learning reales.
Al finalizar esta formación, los participantes podrán:
- Comprender y comparar técnicas clave para preservar la privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar privacidad diferencial para compartir datos de manera segura y entrenar modelos.
- Utilizar técnicas de cifrado y cálculo seguro para proteger las entradas y salidas del modelo.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, contáctenos para coordinar.
Programa del Curso
Introducción a la ML de Preservación de Privacidad
- Motivaciones y riesgos en entornos de datos sensibles
- Visión general de técnicas de preservación de privacidad en ML
- Modelos de amenazas y consideraciones regulatorias (por ejemplo, GDPR, HIPAA)
Federated Learning
- Concepto e infraestructura del aprendizaje federado
- Sincronización y agregación de cliente-servidor
- Implementación usando PySyft y Flower
Privacidad Diferencial
- Matemáticas de la privacidad diferencial
- Aplicar DP en consultas de datos y entrenamiento de modelos
- Uso de Opacus y TensorFlow Privacy
Computación Multiparte Segura (SMPC)
- Protocolos de SMPC y casos de uso
- Enfoques basados en cifrado vs compartición de secretos
- Flujos de trabajo de cálculo seguro con CrypTen o PySyft
Cifrado Homomórfico
- Cifrado homomórfico total vs parcial
- Inferencia encriptada para cargas de trabajo sensibles
- Práctica con TenSEAL y Microsoft SEAL
Aplicaciones y Estudios de Caso de la Industria
- Privacidad en salud: aprendizaje federado para IA médica
- Colaboración segura en finanzas: modelos de riesgo y cumplimiento
- Casos de uso del gobierno y defensa
Resumen y Próximos Pasos
Requerimientos
- Comprender los principios de aprendizaje automático
- Experiencia con Python y bibliotecas ML (ej., PyTorch, TensorFlow)
- Conocimiento de conceptos de privacidad de datos o ciberseguridad es útil
audiencia
- Investigadores en IA
- Equipos de protección y cumplimiento de la privacidad de datos
- Ingenieros de seguridad que trabajan en industrias reguladas
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Preservación de la Privacidad Machine Learning - Booking
Curso de Preservación de la Privacidad Machine Learning - Enquiry
Preservación de la Privacidad Machine Learning - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Gobernanza de IA, Cumplimiento y Seguridad para Líderes Empresariales
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA de manera responsable y conforme a los marcos globales emergentes como la EU AI Act, GDPR, ISO/IEC 42001 y el Decreto Ejecutivo de EE.UU. sobre IA.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos legales, éticos y regulatorios de usar la IA en diferentes departamentos.
- Interpretar y aplicar marcos importantes de gobernanza de IA (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
Inteligencia Artificial Risk Management y Seguridad en el Sector Público
7 HorasArtificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el sitio) está orientado a profesionales IT y de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar este entrenamiento, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, impredecibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como NIST AI RMF e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que atacan modelos de IA y canales de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios con marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para coordinar.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
21 HorasEsta formación en vivo dirigida por un instructor (online o presencial) está destinada a profesionales de TI principiantes y de nivel intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos clave y la importancia de la confianza, el manejo del riesgo y la seguridad en AI.
- Identificar y mitigar los riesgos asociados con los sistemas AI.
- Implementar las mejores prácticas de seguridad para AI.
- Entender la conformidad regulatoria y las consideraciones éticas para AI.
- Desarrollar estrategias efectivas para la gobernanza y gestión de AI.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Venezuela (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a AI Security y Risk Management
14 HorasEste curso en vivo, impartido por un instructor (en línea o presencial) en Venezuela, está dirigido a profesionales de nivel principiante en seguridad informática, gestión de riesgos y cumplimiento que desean comprender los conceptos fundamentales de la seguridad de IA, vectores de amenaza y marcos globales como el NIST AI RMF e ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y reversión del modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
Red Teaming AI Systems: Offensive Security for ML Models
14 HorasEste entrenamiento en vivo dirigido por un instructor en Venezuela (en línea o presencial) está diseñado para profesionales avanzados de seguridad y especialistas en IA que desean simular ataques a sistemas de inteligencia artificial, descubrir vulnerabilidades e incrementar la robustez de los modelos AI implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a los modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de las API y los flujos de trabajo de AI.
- Diseñar estrategias de equipo rojo para entornos de implementación de AI.
Securing Edge AI y la Inteligencia Embebida
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea u onsite) está diseñado para ingenieros de nivel intermedio y profesionales de seguridad que desean proteger modelos de IA implementados en la edge contra amenazas como el manipulación, fuga de datos, entradas adversarias y ataques físicos.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y evaluar riesgos de seguridad en implementaciones edge AI.
- Aplicar técnicas de resistencia a la manipulación e inferencias cifradas.
- Fortalecer modelos desplegados en edge y proteger pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con restricciones.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está orientado a profesionales de nivel intermedio de aprendizaje automático y ciberseguridad que desean comprender y mitigar amenazas emergentes contra modelos AI, utilizando marcos conceptuales y defensas prácticas como entrenamiento robusto y privacidad diferencial.
Al finalizar este entrenamiento, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.