Programa del Curso
El curso se divide en tres días distintos, siendo el tercero opcional.
Día 1 - Machine Learning y Aprendizaje Profundo: conceptos teóricos
1. Introducción AI, Machine Learning y Aprendizaje Profundo
- Historia, conceptos básicos y aplicaciones comunes de la inteligencia artificial lejanos
fantasías transportadas por esta zona
Inteligencia Colectiva agregando las compartida por muchos agentes virtuales -
- Algoritmos genéticos: evolucionar una población de agentes virtuales de selección
- Máquina de aprendizaje habitual: definición.
- Los tipos de tareas: aprendizaje supervisado, no supervisado de aprendizaje, aprendizaje por refuerzo
- Tipo de acciones: clasificación, regresión, clustering, estimación de la densidad, la reducción
dimensionalidad
- Ejemplos de algoritmos de aprendizaje automático: regresión lineal, Naive Bayes, Árbol aleatoria
- Aprendizaje automático VS profundo de aprendizaje: los problemas que el resto de la máquina de aprendizaje
Hoy en día el estado de la técnica (por azar Bosques y XGBoosts)
2. Fundamentos de una red neural (Aplicación: Multi-Capa Perceptron)
- bases matemáticas recordatorio.
- Definición de una red neuronal: la arquitectura clásica, y la activación de funciones
ponderación activaciones precedentes profundidad de una red
- Definición de entrenamiento de una red neuronal: las funciones de costo, de back-propagación,
descenso de gradiente estocástico, de máxima verosimilitud.
- Modelado de una red neuronal: el modelado de datos de entrada y de salida de acuerdo
el tipo de problema (regresión, clasificación ...). La maldición de la dimensionalidad. distintiva
dado múltiples características y señales. La elección de una función de costos de acuerdo a los datos.
- Función aproximado por una red neuronal: presentación y ejemplos
- Distribución aproximada por una red neuronal: presentación y ejemplos
- Aumento de datos: cómo equilibrar un conjunto de datos
- La generalización de los resultados de una red neuronal.
- Inicialización y acumulaciones de una red neural: L1 / L2 regularización, Batch
La normalización ...
- optimizaciones y algoritmos de convergencia.
3. Herramientas de Standard ML / DL
está prevista una simple presentación con ventajas, desventajas, la posición en el ecosistema y el uso.
- Herramientas de Gestión de Datos: Spark Apache, Apache Hadoop
- Máquinas herramientas de aprendizaje habitual: Numpy, Scipy, Sci-kit
- Marcos DL alto: PyTorch, Keras, lasaña
- Marcos DL Bajo: Teano, la antorcha, Caffe, Tensorflow
Día 2 - Convolucionales y Recurrentes Redes
4. Redes Neuronales Convolucionales (CNN).
- Presentación de la CNN: principios y aplicaciones básicas
- operación fundamental de una capa convolucional CNN, el uso de un núcleo,
acolchado y zancada, mapas de características de generación, la puesta en común de tipo capas. Extensiones de 1D, 2D y
3D.
- Presentación de las diferentes arquitecturas con CNN llevó el estado de la técnica en la clasificación
Image: Lenet ACV Red de Redes en Red, Origen, Resnet. presentación de
innovaciones de cada arquitectura y aplicaciones más amplias (convolución
1x1 o conexiones residuales)
- El uso de un modelo de atención.
- Aplicación a un caso de la figura de clasificación habitual (texto o imagen)
- CNN para la generación de super-resolución, pixel para la segmentación de píxeles. presentación de
principales estrategias de característica cada vez más mapas para generar una imagen.
5. Las redes neuronales recurrentes (RNN).
- Presentación de RNNs: principios básicos y aplicaciones.
- Operación fundamental de la NNI: la activación oculta, de vuelta de propagación a través del tiempo,
Versión desplegó.
- Cambios en el GRU (Unidades recurrente cerrada) y MTSA (memoria a largo Corto Plazo).
Presentación de los diferentes estados y los cambios realizados por estas arquitecturas
- problemas de convergencia y vanising gradiente
- Tipos de arquitecturas convencionales: Serie de tiempo de predicción, clasificación ...
- Tipo de Arquitectura RNN Encoder Decoder. El uso de un modelo de atención.
- aplicaciones de PNL: Palabra / codificación de caracteres, de traducción.
- aplicaciones de vídeo: la predicción de la siguiente imagen generada a partir de una película.
Día 3 - Modelos Generacionales y Aprendizaje por Refuerzo
6. Modelos Generacionales: variacional AutoEncoder (VAE) y Generativos Acusatorios Networks (GAN).
- Presentación de los patrones generacionales, vínculos con la CNN ha visto el día 2
- Auto-codificación: reducción de la dimensionalidad y la generación limitada
- variacional Auto-encode: modelo generacional y aproximación de la distribución de una
dado. Definición y uso del espacio latente. truco reparametrización. y aplicaciones
límites observados
- Redes generativo Acusatorios: principios fundamentales. Arquitectura en dos redes
(Generador y discriminador) con el aprendizaje alternativo, funciones de coste.
- Convergencia de GAN y dificultades.
- Mejora de la Convergencia: Wasserstein GAN comenzó. Movimiento de tierras distancia.
- aplicaciones de generación de imágenes o fotografías, la generación de textos, super-
resolución.
7. profundo aprendizaje por refuerzo.
- Presentación de aprendizaje por refuerzo: un agente de control en un entorno definido
por las acciones del Estado y las posibles
- El uso de una red neural a la aproximación de la función de estado
- Deep Q-learning: la experiencia de reproducción, y la aplicación para controlar un videojuego.
- Optimización de la política de aprendizaje. Una política && fuera de la política. crítico Actor
la arquitectura. A3C.
- Aplicaciones: control de un videojuego simple o sistema digital.
Requerimientos
Ingeniero de nivel
Destinatarios: Ingenieros, Data-científicos que deseen aprender el neuronal redes / aprendizaje profundo