Programa del Curso

El curso se divide en tres días distintos, siendo el tercero opcional.

Día 1 - Machine Learning y Aprendizaje Profundo: conceptos teóricos

1. Introducción AI, Machine Learning y Aprendizaje Profundo

- Historia, conceptos básicos y aplicaciones comunes de la inteligencia artificial lejanos

fantasías transportadas por esta zona

Inteligencia Colectiva agregando las compartida por muchos agentes virtuales -

- Algoritmos genéticos: evolucionar una población de agentes virtuales de selección

- Máquina de aprendizaje habitual: definición.

- Los tipos de tareas: aprendizaje supervisado, no supervisado de aprendizaje, aprendizaje por refuerzo

- Tipo de acciones: clasificación, regresión, clustering, estimación de la densidad, la reducción

dimensionalidad

- Ejemplos de algoritmos de aprendizaje automático: regresión lineal, Naive Bayes, Árbol aleatoria

- Aprendizaje automático VS profundo de aprendizaje: los problemas que el resto de la máquina de aprendizaje

Hoy en día el estado de la técnica (por azar Bosques y XGBoosts)

2. Fundamentos de una red neural (Aplicación: Multi-Capa Perceptron)

- bases matemáticas recordatorio.

- Definición de una red neuronal: la arquitectura clásica, y la activación de funciones

ponderación activaciones precedentes profundidad de una red

- Definición de entrenamiento de una red neuronal: las funciones de costo, de back-propagación,

descenso de gradiente estocástico, de máxima verosimilitud.

- Modelado de una red neuronal: el modelado de datos de entrada y de salida de acuerdo

el tipo de problema (regresión, clasificación ...). La maldición de la dimensionalidad. distintiva

dado múltiples características y señales. La elección de una función de costos de acuerdo a los datos.

- Función aproximado por una red neuronal: presentación y ejemplos

- Distribución aproximada por una red neuronal: presentación y ejemplos

- Aumento de datos: cómo equilibrar un conjunto de datos

- La generalización de los resultados de una red neuronal.

- Inicialización y acumulaciones de una red neural: L1 / L2 regularización, Batch

La normalización ...

- optimizaciones y algoritmos de convergencia.

3. Herramientas de Standard ML / DL

está prevista una simple presentación con ventajas, desventajas, la posición en el ecosistema y el uso.

- Herramientas de Gestión de Datos: Spark Apache, Apache Hadoop

- Máquinas herramientas de aprendizaje habitual: Numpy, Scipy, Sci-kit

- Marcos DL alto: PyTorch, Keras, lasaña

- Marcos DL Bajo: Teano, la antorcha, Caffe, Tensorflow

Día 2 - Convolucionales y Recurrentes Redes

4. Redes Neuronales Convolucionales (CNN).

- Presentación de la CNN: principios y aplicaciones básicas

- operación fundamental de una capa convolucional CNN, el uso de un núcleo,

acolchado y zancada, mapas de características de generación, la puesta en común de tipo capas. Extensiones de 1D, 2D y

3D.

- Presentación de las diferentes arquitecturas con CNN llevó el estado de la técnica en la clasificación

Image: Lenet ACV Red de Redes en Red, Origen, Resnet. presentación de

innovaciones de cada arquitectura y aplicaciones más amplias (convolución

1x1 o conexiones residuales)

- El uso de un modelo de atención.

- Aplicación a un caso de la figura de clasificación habitual (texto o imagen)

- CNN para la generación de super-resolución, pixel para la segmentación de píxeles. presentación de

principales estrategias de característica cada vez más mapas para generar una imagen.

5. Las redes neuronales recurrentes (RNN).

- Presentación de RNNs: principios básicos y aplicaciones.

- Operación fundamental de la NNI: la activación oculta, de vuelta de propagación a través del tiempo,

Versión desplegó.

- Cambios en el GRU (Unidades recurrente cerrada) y MTSA (memoria a largo Corto Plazo).

Presentación de los diferentes estados y los cambios realizados por estas arquitecturas

- problemas de convergencia y vanising gradiente

- Tipos de arquitecturas convencionales: Serie de tiempo de predicción, clasificación ...

- Tipo de Arquitectura RNN Encoder Decoder. El uso de un modelo de atención.

- aplicaciones de PNL: Palabra / codificación de caracteres, de traducción.

- aplicaciones de vídeo: la predicción de la siguiente imagen generada a partir de una película.

Día 3 - Modelos Generacionales y Aprendizaje por Refuerzo

6. Modelos Generacionales: variacional AutoEncoder (VAE) y Generativos Acusatorios Networks (GAN).

- Presentación de los patrones generacionales, vínculos con la CNN ha visto el día 2

- Auto-codificación: reducción de la dimensionalidad y la generación limitada

- variacional Auto-encode: modelo generacional y aproximación de la distribución de una

dado. Definición y uso del espacio latente. truco reparametrización. y aplicaciones

límites observados

- Redes generativo Acusatorios: principios fundamentales. Arquitectura en dos redes

(Generador y discriminador) con el aprendizaje alternativo, funciones de coste.

- Convergencia de GAN y dificultades.

- Mejora de la Convergencia: Wasserstein GAN comenzó. Movimiento de tierras distancia.

- aplicaciones de generación de imágenes o fotografías, la generación de textos, super-
resolución.

7. profundo aprendizaje por refuerzo.

- Presentación de aprendizaje por refuerzo: un agente de control en un entorno definido

por las acciones del Estado y las posibles

- El uso de una red neural a la aproximación de la función de estado

- Deep Q-learning: la experiencia de reproducción, y la aplicación para controlar un videojuego.

- Optimización de la política de aprendizaje. Una política && fuera de la política. crítico Actor

la arquitectura. A3C.

- Aplicaciones: control de un videojuego simple o sistema digital.

Requerimientos

Ingeniero de nivel

Destinatarios: Ingenieros, Data-científicos que deseen aprender el neuronal redes / aprendizaje profundo

 21 horas

Número de participantes



Precio por participante

Cursos Relacionados

Torch: Introducción a Máquina y Aprendizaje Profundo

21 horas

Categorías Relacionadas