Big Data Análisis en Salud
El análisis de Big Data implica el proceso de examinar grandes cantidades de conjuntos de datos variados para descubrir correlaciones, patrones ocultos y otras ideas útiles.
La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico.
En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
- Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
- Comprender las características de los datos médicos.
- Aplicar técnicas de big data para manejar datos médicos.
- Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
- Desarrolladores
- Científicos de datos
Formato del curso
- Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Programa del Curso
Introducción a Big Data Analytics in Health
Descripción general de Big Data Tecnologías analíticas
- Apache Hadoop MapReduce
- Apache Spark
Instalación y configuración de Apache Hadoop MapReduce
Instalación y configuración Apache Spark
Uso de modelos predictivos para datos de salud
Uso de Apache Hadoop MapReduce para datos de salud
Realización de fenotipado y agrupación en clústeres en datos de salud
- Métricas de evaluación de clasificación
- Métodos de conjuntos de clasificación
Uso de Apache Spark para datos de salud
Trabajar con la Ontología Médica
Uso del análisis de gráficos en datos de salud
Reducción de la dimensionalidad de los datos de salud
Trabajar con métricas de similitud de pacientes
Solución de problemas
Resumen y conclusión
Requerimientos
-
Comprensión de los
- conceptos de aprendizaje automático y minería de datos
- Experiencia avanzada en programación (Python, Java, Scala)
- Dominio de los procesos de datos y ETL
Los cursos públicos requieren más de 5 participantes.
Big Data Análisis en Salud - Reserva
Big Data Análisis en Salud - Consulta
Big Data Análisis en Salud - Consulta de consultoría
Consulta de consultoría
Testimonios (1)
La máquina virtual que me gustó mucho El profesor era muy conocedor sobre el tema así como otros temas, fue muy amable y agradable Me gustó la instalación en Dubái.
Safar Alqahtani - Elm Information Security
Curso - Big Data Analytics in Health
Traducción Automática
Próximos cursos
Cursos Relacionados
Capacitación de Administrador para Apache Hadoop
35 HorasPúblico objetivo:
El curso está destinado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido.
Goal:
Conocimientos profundos sobre la administración del clúster Hadoop.
Análisis de Big Data con Google Colab y Apache Spark
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a científicos de datos y ingenieros de nivel intermedio que desean utilizar Google Colab y Apache Spark para el procesamiento y análisis de grandes volúmenes de datos.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno de gran volumen de datos utilizando Google Colab y Spark.
- Procesar y analizar conjuntos de datos grandes de manera eficiente con Apache Spark.
- Visualizar grandes volúmenes de datos en un entorno colaborativo.
- Integrar Apache Spark con herramientas basadas en la nube.
Administración de Hadoop
21 HorasEl curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistemas distribuidos
Objetivo del curso:
Adquirir conocimientos sobre la administración de clústeres Hadoop
Hadoop y Spark para Administradores
35 HorasEsta capacitación en vivo dirigida por un instructor en Venezuela (en línea o presencial) está dirigida a administradores de sistemas que desean aprender a configurar, implementar y administrar Hadoop clústeres dentro de su organización.
Al final de esta formación, los participantes serán capaces de:
- Instale y configure Apache Hadoop.
- Comprenda los cuatro componentes principales del ecosistema Hadoop: HDFS, MapReduce, YARN y Hadoop Common.
- Utilice Hadoop Sistema de archivos distribuido (HDFS) para escalar un clúster a cientos o miles de nodos.
- Configure HDFS para que funcione como motor de almacenamiento para implementaciones de Spark locales.
- Configure Spark para acceder a soluciones de almacenamiento alternativas, como Amazon S3, y NoSQL sistemas de bases de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc.
- Lleve a cabo tareas administrativas como el aprovisionamiento, la gestión, la supervisión y la seguridad de un clúster Apache Hadoop.
Una introducción práctica al procesamiento de flujo
21 HorasEn este entrenamiento dirigido por un instructor en Venezuela (presencial o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de procesamiento de secuencias con sistemas existentes de almacenamiento de datos grandes y aplicaciones de software y microservicios relacionados.
Al final de este entrenamiento, los participantes podrán:
- Instalar y configurar diferentes marcos de procesamiento de secuencias, como Spark Streaming y Kafka Streaming.
- Comprender y seleccionar el marco más apropiado para el trabajo.
- Procesar datos continuamente, concurrentemente y en un registro por registro.
- Integrar soluciones de procesamiento de secuencias con bases de datos existentes, data warehouses, lagos de datos, etc.
- Integrar la biblioteca de procesamiento de secuencias más apropiada con aplicaciones empresariales y microservicios.
SMACK Stack para Ciencia de Datos
14 HorasEste curso de formación dirigido por un instructor en Venezuela (en línea o presencial) está destinado a científicos de datos que deseen utilizar la pila SMACK para crear plataformas de procesamiento de datos para soluciones de big data.
Al finalizar este curso, los participantes serán capaces de:
- Implementar una arquitectura de pipeline de datos para el procesamiento de big data.
- Desarrollar una infraestructura en clúster con Apache Mesos y Docker.
- Analizar datos con Spark y Scala.
- Administrar datos no estructurados con Apache Cassandra.
Fundamentos de Apache Spark
21 HorasEsta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a ingenieros que desean configurar e implementar Apache Spark un sistema para procesar grandes cantidades de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Instale y configure Apache Spark.
- Procese y analice rápidamente conjuntos de datos muy grandes.
- Comprenda la diferencia entre Apache Spark y Hadoop MapReduce y cuándo usar cuál.
- Integre Apache Spark con otras herramientas de aprendizaje automático.
Administración de Apache Spark
35 HorasEsta formación en directo dirigida por un instructor en Venezuela (en línea o in situ) está dirigida a administradores de sistemas de nivel principiante a intermedio que deseen implementar, mantener y optimizar clústeres de Spark.
Al final de esta capacitación, los participantes serán capaces de:
- Instale y configure Apache Spark en varios entornos.
- Administre los recursos del clúster y supervise las aplicaciones de Spark.
- Optimice el rendimiento de los clústeres de Spark.
- Implemente medidas de seguridad y garantice una alta disponibilidad.
- Depurar y solucionar problemas comunes de Spark.
Apache Spark en la Nube
21 HorasLa curva de aprendizaje de Apache Spark está aumentando lentamente al principio, necesita mucho esfuerzo para obtener el primer retorno. Este curso tiene como objetivo saltar a través de la primera parte difícil. Después de tomar este curso, los participantes comprenderán los conceptos básicos de Apache Spark , diferenciarán claramente RDD de DataFrame, aprenderán Python y Scala API, comprenderán ejecutores y tareas, etc. Además, siguiendo las mejores prácticas, este curso se enfoca fuertemente en implementación en la nube, Databricks y AWS. Los estudiantes también comprenderán las diferencias entre AWS EMR y AWS Glue, uno de los últimos servicios Spark de AWS.
AUDIENCIA:
Ingeniero de Datos, DevOps , Científico de Datos
Spark para Desarrolladores
21 HorasOBJETIVO:
Este curso presentará Apache Spark . Los estudiantes aprenderán cómo Spark encaja en el ecosistema de Big Data y cómo usar Spark para el análisis de datos. El curso cubre el shell de Spark para análisis de datos interactivos, componentes internos de Spark, API de Spark, Spark SQL , transmisión de Spark y aprendizaje automático y graphX.
AUDIENCIA
Desarrolladores / Analistas de datos
Escalar Pipelines de Datos con Spark NLP
14 HorasEsta capacitación en vivo dirigida por un instructor en Venezuela (en línea o presencial) está dirigida a científicos de datos y desarrolladores que deseen utilizar Spark NLP, construido sobre Apache Spark, para desarrollar, implementar y escalar modelos y tuberías de procesamiento de texto en lenguaje natural.
Al final de esta formación, los participantes serán capaces de:
- Configure el entorno de desarrollo necesario para comenzar a crear canalizaciones de NLP con Spark NLP.
- Comprender las características, la arquitectura y los beneficios del uso de Spark NLP.
- Utilice los modelos previamente entrenados disponibles en Spark NLP para implementar el procesamiento de texto.
- Aprenda a crear, entrenar y escalar modelos Spark NLP para proyectos de producción.
- Aplique la clasificación, la inferencia y el análisis de sentimientos en casos de uso del mundo real (datos clínicos, información sobre el comportamiento de los clientes, etcétera).
Python y Spark para Big Data (PySpark)
21 HorasEn esta capacitación en vivo dirigida por un instructor en Venezuela, los participantes aprenderán a usar Python y Spark juntos para analizar big data mientras trabajan en ejercicios prácticos.
Al final de esta formación, los participantes serán capaces de:
- Aprenda a usar Spark con Python para analizar Big Data.
- Trabaja en ejercicios que imiten casos del mundo real.
- Utilice diferentes herramientas y técnicas para el análisis de big data utilizando PySpark.
Python, Spark y Hadoop para Big Data
21 HorasEsta capacitación en vivo dirigida por un instructor en Venezuela (en línea o presencial) está dirigida a desarrolladores que desean usar e integrar Spark, Hadoop y Python para procesar, analizar y transformar conjuntos de datos grandes y complejos.
Al final de esta formación, los participantes serán capaces de:
- Configure el entorno necesario para empezar a procesar macrodatos con Spark, Hadoop y Python.
- Comprender las características, los componentes principales y la arquitectura de Spark y Hadoop.
- Aprenda a integrar Spark, Hadoop y Python para el procesamiento de big data.
- Explore las herramientas del ecosistema de Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka y Flume).
- Cree sistemas de recomendación de filtrado colaborativo similares a Netflix, YouTube, Amazon, Spotify y Google.
- Utilice Apache Mahout para escalar los algoritmos de aprendizaje automático.
Apache Spark SQL
7 Horas Spark SQL es Apache Spark módulo de Apache Spark para trabajar con datos estructurados y no estructurados. Spark SQL proporciona información sobre la estructura de los datos, así como el cálculo que se realiza. Esta información se puede usar para realizar optimizaciones. Dos usos comunes para Spark SQL son:
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente.
En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL .
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Stratio: Módulos Rocket e Intelligence con PySpark
14 HorasStratio es una plataforma centrada en datos que integra big data, IA y gobernanza en una sola solución. Sus módulos Rocket e Intelligence permiten la exploración rápida de datos, transformaciones y análisis avanzados en entornos empresariales.
Este entrenamiento en vivo dirigido por un instructor (online o presencial) está orientado a profesionales intermedios en datos que desean utilizar los módulos Rocket e Intelligence de Stratio eficazmente con PySpark, enfocándose en estructuras de bucles, funciones definidas por el usuario y lógica avanzada de datos.
Al finalizar este entrenamiento, los participantes podrán:
- Navegar y trabajar dentro de la plataforma Stratio utilizando los módulos Rocket e Intelligence.
- Aplicar PySpark en el contexto de ingesta, transformación y análisis de datos.
- Usar bucles y lógica condicional para controlar flujos de trabajo de datos y tareas de ingeniería de características.
- Crear y gestionar funciones definidas por el usuario (UDFs) para operaciones reutilizables en PySpark.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.