An understanding of basic business operations and strategy
Experience with leading teams or managing projects
Openness to embracing new technologies in business practices
Audience
Business managers and executives
Entrepreneurs and business owners
Professionals interested in the strategic implications of AI
[overview] =>
Generative AI is a transformative technology that is reshaping the landscape of business innovation, enabling new ways to create and customize products, services, and experiences.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level managers who wish to understand and leverage Generative AI in their business strategies.
By the end of this training, participants will be able to:
Grasp the fundamental concepts and capabilities of Generative AI.
Identify opportunities for applying Generative AI within their organizations.
Understand the ethical and legal considerations of using Generative AI.
Lead discussions and make informed decisions about AI projects.
Develop a roadmap for integrating Generative AI into their business processes.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level to advanced-level managers who wish to understand and leverage Generative AI in their business strategies.
By the end of this training, participants will be able to:
Grasp the fundamental concepts and capabilities of Generative AI.
Identify opportunities for applying Generative AI within their organizations.
Understand the ethical and legal considerations of using Generative AI.
Lead discussions and make informed decisions about AI projects.
Develop a roadmap for integrating Generative AI into their business processes.
[outline] =>
Introduction to AI and Generative AI
What is Artificial Intelligence?
Understanding Generative AI and its business relevance
Key terms and concepts in Generative AI
Overview of Generative AI Technologies
Types of Generative AI models
Basic principles of machine learning and neural networks
Introduction to Generative Adversarial Networks (GANs) and Variational Autoencoders (VAEs)
Business Applications of Generative AI
Generative AI in product development and design
Marketing and content generation with Generative AI
Personalization and customer experience enhancement
Strategic Implications of Generative AI
Competitive advantages with Generative AI
Integrating Generative AI into business strategy
Case studies of successful Generative AI applications
Ethical and Legal Considerations
Ethical concerns with Generative AI (deepfakes, bias)
Intellectual property and legal implications
Developing a responsible AI framework in your organization
Leading AI Teams and Projects
Building and managing AI teams
Project management for AI initiatives
Communicating AI concepts to non-technical stakeholders
Preparing for an AI-Driven Future
Keeping up with AI trends and research
Future predictions for Generative AI
Preparing your organization for AI transformation
Workshop and Interactive Sessions
Interactive discussions on AI strategy
Workshop on evaluating AI opportunities in your business
Role-playing AI decision-making scenarios
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1713226257
[source_title] => Generative AI for Managers
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => generativeaimngr
[hr_nid] => 477491
[title] => Generative AI for Managers
[requirements] =>
Comprensión de las operaciones y estrategias comerciales básicas
Experiencia liderando equipos o gestionando proyectos
Apertura a la adopción de nuevas tecnologías en las prácticas empresariales
Audiencia
Business Gerentes y ejecutivos
Emprendedores y dueños de negocios
Profesionales interesados en las implicaciones estratégicas de la IA
[overview] =>
Generative AI es una tecnología transformadora que está remodelando el panorama de la innovación empresarial, permitiendo nuevas formas de crear y personalizar productos, servicios y experiencias.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que desean comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que deseen comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
[outline] =>
Introducción a la IA y Generative AI
¿Qué es la Inteligencia Artificial?
Comprensión Generative AI y su relevancia para el negocio
Términos y conceptos clave en Generative AI
Visión general de Generative AI Tecnologías
Tipos de Generative AI modelos
Principios básicos del aprendizaje automático y las redes neuronales
Introducción a las Redes Generativas Adversarias (GANs) y a los Autocodificadores Variacionales (VAEs)
Business Aplicaciones de Generative AI
Generative AI en el desarrollo y diseño de productos
Marketing y generación de contenido con Generative AI
Personalización y mejora de la experiencia del cliente
Implicaciones estratégicas de Generative AI
Ventajas competitivas con Generative AI
Integración Generative AI en la estrategia empresarial
Casos prácticos de aplicaciones exitosas Generative AI
Consideraciones éticas y legales
Preocupaciones éticas con Generative AI (deepfakes, sesgo)
Propiedad intelectual e implicaciones legales
Desarrollo de un marco de IA responsable en su organización
Liderar equipos y proyectos de IA
Creación y gestión de equipos de IA
Gestión de proyectos para iniciativas de IA
Comunicar los conceptos de IA a las partes interesadas no técnicas
Prepararse para un futuro impulsado por la IA
Mantenerse al día con las tendencias y la investigación de la IA
Predicciones futuras para Generative AI
Preparar a su organización para la transformación de la IA
Talleres y Sesiones Interactivas
Debates interactivos sobre la estrategia de IA
Taller sobre evaluación de oportunidades de IA en tu negocio
Escenarios de toma de decisiones de IA de juego de roles
Familiarity with AI concepts and large language models
Audience
Developers
Software engineers
AI enthusiasts
[overview] =>
LangChain is an open-source framework designed to facilitate the development of applications using large language models (LLMs).
This instructor-led, live training (online or onsite) is aimed at intermediate-level developers and software engineers who wish to build AI-powered applications using the LangChain framework.
By the end of this training, participants will be able to:
Understand the fundamentals of LangChain and its components.
Integrate LangChain with large language models (LLMs) like GPT-4.
Build modular AI applications using LangChain.
Troubleshoot common issues in LangChain applications.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level developers and software engineers who wish to build AI-powered applications using the LangChain framework.
By the end of this training, participants will be able to:
Understand the fundamentals of LangChain and its components.
Integrate LangChain with large language models (LLMs) like GPT-4.
Build modular AI applications using LangChain.
Troubleshoot common issues in LangChain applications.
[outline] =>
Introduction to LangChain
Overview of LangChain and its purpose
Setting up the development environment
Understanding Large Language Models (LLMs)
LLMs vs traditional models
Capabilities and limitations of LLMs
LangChain Components and Architecture
Core components of LangChain
Understanding the architecture and workflow
Integrating LangChain with LLMs
Connecting LangChain to LLMs like GPT-4
Building chains for specific tasks
Building Modular Applications
Creating modular components with LangChain
Reusing components across different applications
Practical Exercises with LangChain
Hands-on coding sessions
Developing sample applications using LangChain
Advanced LangChain Features
Exploring advanced functionalities
Customizing LangChain for complex use cases
Best Practices and Patterns
Coding best practices with LangChain
Design patterns for AI-powered applications
Troubleshooting
Identifying common issues in LangChain applications
LangChain es un marco de código abierto diseñado para facilitar el desarrollo de aplicaciones utilizando grandes modelos de lenguaje (LLM).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
LangChain is an open-source framework that simplifies the integration of large language models (LLMs) into applications.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level developers and software engineers who wish to learn the core concepts and architecture of LangChain and gain the practical skills for building AI-powered applications.
By the end of this training, participants will be able to:
Grasp the fundamental principles of LangChain.
Set up and configure the LangChain environment.
Understand the architecture and how LangChain interacts with large language models (LLMs).
Develop simple applications using LangChain.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at beginner-level to intermediate-level developers and software engineers who wish to learn the core concepts and architecture of LangChain and gain the practical skills for building AI-powered applications.
By the end of this training, participants will be able to:
Grasp the fundamental principles of LangChain.
Set up and configure the LangChain environment.
Understand the architecture and how LangChain interacts with large language models (LLMs).
Develop simple applications using LangChain.
[outline] =>
Introduction to LangChain
What is LangChain?
LangChain vs other frameworks
The importance of LangChain in modern AI development
Setting Up the Environment
Installing Python and necessary packages
Setting up LangChain
Verifying the installation
Core Concepts of LangChain
Understanding the LangChain architecture
Key components and their roles
The LangChain philosophy and design goals
Working with Large Language Models (LLMs)
Introduction to LLMs and their capabilities
How LangChain integrates with LLMs
Connecting LangChain to a sample LLM
Developing with LangChain
LangChain's modular approach to application development
LangChain es un marco de código abierto que simplifica la integración de grandes modelos de lenguaje (LLM) en las aplicaciones.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Small Language Models (SLMs) are a cutting-edge subset of AI that enables efficient language processing on devices with limited computational resources.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level data scientists and developers who wish to implement and leverage Small Language Models in various applications.
By the end of this training, participants will be able to:
Understand the architecture and functionality of Small Language Models.
Implement SLMs for tasks such as text generation and sentiment analysis.
Optimize and fine-tune SLMs for specific use cases.
Deploy SLMs in resource-constrained environments.
Evaluate and interpret the performance of SLMs in real-world scenarios.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at beginner-level to intermediate-level data scientists and developers who wish to implement and leverage Small Language Models in various applications.
By the end of this training, participants will be able to:
Understand the architecture and functionality of Small Language Models.
Implement SLMs for tasks such as text generation and sentiment analysis.
Optimize and fine-tune SLMs for specific use cases.
Deploy SLMs in resource-constrained environments.
Evaluate and interpret the performance of SLMs in real-world scenarios.
[outline] =>
Introduction to Small Language Models (SLMs)
Overview of language models
Evolution from large to Small Language Models
Architecture and design of SLMs
Advantages and limitations of SLMs
Technical Foundations
Understanding neural networks and parameters
Training processes for SLMs
Data requirements and model optimization
Evaluation metrics for language models
SLMs in Natural Language Processing
Text generation with SLMs
Language translation and localization
Sentiment analysis and text classification
Question answering and chatbots
Real-world Applications of SLMs
Mobile applications: On-device language processing
Comparative study: SLMs vs. large models in production
Future Directions
Research trends in SLMs
Challenges in scaling and deployment
Ethical considerations and responsible AI
The road ahead: Next-generation SLMs
Hands-on Workshops
Building a simple SLM for text generation
Integrating SLMs into mobile apps
Fine-tuning SLMs for specific tasks
Performance analysis and model interpretability
Capstone Project
Identifying a problem space for SLM application
Designing and implementing an SLM solution
Testing and iterating on the model
Presenting the project and outcomes
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715280132
[source_title] => Small Language Models (SLMs): Applications and Innovations
[source_language] => en
[cert_code] =>
[weight] => -1001
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => slms
[hr_nid] => 479495
[title] => Small Language Models (SLMs): Applications and Innovations
[requirements] =>
[overview] =>
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeño en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeños en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Knowledge of natural language processing fundamentals
Audience
Data scientists
Machine learning engineers
[overview] =>
Small Language Models (SLMs) are a cutting-edge subset of AI that enables efficient language processing on devices with limited computational resources.
This instructor-led, live training (online or onsite) is aimed at intermediate-level data scientists and machine learning engineers who wish to create and apply small language models tailored for specific domains such as legal, medical, and technical fields.
By the end of this training, participants will be able to:
Understand the importance and application of domain-specific language models.
Curate and preprocess specialized datasets for model training.
Train and fine-tune language models for domain-specific applications.
Evaluate and benchmark models using domain-relevant metrics.
Deploy domain-specific language models in real-world scenarios.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level data scientists and machine learning engineers who wish to create and apply small language models tailored for specific domains such as legal, medical, and technical fields.
By the end of this training, participants will be able to:
Understand the importance and application of domain-specific language models.
Curate and preprocess specialized datasets for model training.
Train and fine-tune language models for domain-specific applications.
Evaluate and benchmark models using domain-relevant metrics.
Deploy domain-specific language models in real-world scenarios.
[outline] =>
Introduction to Domain-Specific Language Models
Overview of language models in AI
Importance of specialization in language models
Case studies of successful domain-specific models
Data Curation and Preprocessing
Identifying and collecting domain-specific datasets
Data cleaning and preprocessing techniques
Ethical considerations in dataset creation
Model Training and Fine-Tuning
Introduction to transfer learning and fine-tuning
Selecting base models for domain-specific training
Techniques for effective fine-tuning
Evaluation Metrics and Model Performance
Metrics for domain-specific model evaluation
Benchmarking models against domain-specific tasks
Understanding limitations and trade-offs
Deployment Strategies
Integration of language models into domain-specific applications
Scalability and maintenance of deployed models
Continuous learning and model updates in deployment
Legal Domain Focus
Special considerations for legal language models
Case law and statute corpus for training
Applications in legal research and document analysis
Medical Domain Focus
Challenges in medical language processing
HIPAA compliance and data privacy
Use cases in medical literature review and patient interaction
Technical Domain Focus
Technical jargon and its implications for language models
Collaboration with subject matter experts
Technical documentation generation and code commenting
Project and Assessment
Project proposal and initial dataset collection
Presentation of a completed project and model performance
Final assessment and feedback
Summary and Next Steps
[language] => en
[duration] => 28
[status] => published
[changed] => 1715281386
[source_title] => Small Language Models (SLMs) for Domain-Specific Applications
[source_language] => en
[cert_code] =>
[weight] => -1002
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => slmsdsa
[hr_nid] => 479651
[title] => Small Language Models (SLMs) for Domain-Specific Applications
[requirements] =>
[overview] =>
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Small Language Models (SLMs) are efficient alternatives to larger models, offering comparable performance with significantly reduced computational and energy requirements.
This instructor-led, live training (online or onsite) is aimed at advanced-level machine learning engineers and AI researchers who wish to develop energy-efficient AI solutions with small language models that are both powerful and environmentally friendly.
By the end of this training, participants will be able to:
Understand the impact of AI on energy consumption and the environment.
Apply model compression and optimization techniques to reduce the size and energy usage of AI models.
Utilize energy-efficient hardware and software frameworks for AI deployment.
Implement best practices for sustainable AI development.
Advocate for and contribute to sustainable practices in the AI industry.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at advanced-level machine learning engineers and AI researchers who wish to develop energy-efficient AI solutions with small language models that are both powerful and environmentally friendly.
By the end of this training, participants will be able to:
Understand the impact of AI on energy consumption and the environment.
Apply model compression and optimization techniques to reduce the size and energy usage of AI models.
Utilize energy-efficient hardware and software frameworks for AI deployment.
Implement best practices for sustainable AI development.
Advocate for and contribute to sustainable practices in the AI industry.
[outline] =>
Introduction to Energy-Efficient AI
The significance of sustainability in AI
Overview of energy consumption in machine learning
Case studies of energy-efficient AI implementations
Compact Model Architectures
Understanding model size and complexity
Techniques for designing small yet effective models
Comparing different model architectures for efficiency
Optimization and Compression Techniques
Model pruning and quantization
Knowledge distillation for smaller models
Efficient training methods to reduce energy usage
Hardware Considerations for AI
Selecting energy-efficient hardware for training and inference
The role of specialized processors like TPUs and FPGAs
Balancing performance and power consumption
Green Coding Practices
Writing energy-efficient code
Profiling and optimizing AI algorithms
Best practices for sustainable software development
Renewable Energy and AI
Integrating renewable energy sources in AI operations
Data center sustainability
The future of green AI infrastructure
Lifecycle Assessment of AI Systems
Measuring the carbon footprint of AI models
Strategies for reducing environmental impact throughout the AI lifecycle
Case studies on lifecycle assessment in AI
Policy and Regulation for Sustainable AI
Understanding global standards and regulations
The role of policy in promoting energy-efficient AI
Ethical considerations and societal impact
Project and Assessment
Developing a prototype using small language models in a chosen domain
Presentation of the energy-efficient AI system
Evaluation based on technical efficiency, innovation, and environmental contribution
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715307649
[source_title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => slmseeai
[hr_nid] => 479667
[title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[requirements] =>
[overview] =>
Los modelos de lenguaje pequeños (SLM) son alternativas eficientes a los modelos más grandes, ya que ofrecen un rendimiento comparable con requisitos computacionales y energéticos significativamente reducidos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático e investigadores de IA de nivel avanzado que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático de nivel avanzado e investigadores de IA que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Basic understanding of Artificial Intelligence and Machine Learning
Proficiency in Python programming
Experience with Natural Language Processing concepts
Audience
Data scientists
Machine learning engineers
AI researchers and developers
Product managers and UX designers
[overview] =>
Small Language Models (SLMs) are compact yet powerful tools for enabling sophisticated human-AI interactions in various applications, including conversational AI and customer service bots.
This instructor-led, live training (online or onsite) is aimed at intermediate-level data scientists, machine learning and AI researchers who wish to create engaging and efficient AI-powered conversational experiences with small language models.
By the end of this training, participants will be able to:
Understand the fundamentals of conversational AI and the role of SLMs.
Design and implement user-centric AI interactions.
Develop and train SLMs for interactive applications.
Evaluate and improve the effectiveness of human-AI communication using appropriate metrics.
Deploy scalable and ethical AI-driven conversational interfaces in real-world scenarios.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level data scientists, machine learning and AI researchers who wish to create engaging and efficient AI-powered conversational experiences with small language models.
By the end of this training, participants will be able to:
Understand the fundamentals of conversational AI and the role of SLMs.
Design and implement user-centric AI interactions.
Develop and train SLMs for interactive applications.
Evaluate and improve the effectiveness of human-AI communication using appropriate metrics.
Deploy scalable and ethical AI-driven conversational interfaces in real-world scenarios.
[outline] =>
Introduction to Conversational AI and Small Language Models (SLMs)
Fundamentals of conversational AI
Overview of SLMs and their advantages
Case studies of SLMs in interactive applications
Designing Conversational Flows
Principles of human-AI interaction design
Crafting engaging and natural dialogues
User experience (UX) considerations
Building Customer Service Bots
Use cases for customer service bots
Integrating SLMs into customer service platforms
Handling common customer inquiries with AI
Training SLMs for Interaction
Data collection for conversational AI
Training techniques for SLMs in dialogue systems
Fine-tuning models for specific interaction scenarios
Ensuring inclusivity and fairness in AI communication
Deployment and Scaling
Strategies for deploying conversational AI systems
Scaling SLMs for widespread use
Monitoring and maintaining AI interactions post-deployment
Capstone Project
Identifying a need for conversational AI in a chosen domain
Developing a prototype using SLMs
Testing and presenting the interactive application
Final Assessment
Submission of a capstone project report
Demonstration of a functional conversational AI system
Evaluation based on innovation, user engagement, and technical execution
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715283400
[source_title] => Small Language Models (SLMs) for Human-AI Interactions
[source_language] => en
[cert_code] =>
[weight] => -1003
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => slmshai
[hr_nid] => 479659
[title] => Small Language Models (SLMs) for Human-AI Interactions
[requirements] =>
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas compactas pero potentes para permitir interacciones sofisticadas entre humanos e IA en diversas aplicaciones, incluida la IA conversacional y los bots de servicio al cliente.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Strong foundation in machine learning and deep learning concepts
Proficiency in Python programming
Basic knowledge of hardware constraints for AI deployment
Audience
Machine learning engineers and AI developers
Embedded systems engineers interested in AI applications
Product managers and technical leads overseeing AI projects
[overview] =>
Small Language Models (SLMs) are efficient and versatile AI tools that can be implemented on a variety of devices, from smartphones to IoT devices, enabling intelligent on-device applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level IT professionals who wish to deploy small language models directly onto devices with limited processing capabilities, opening up possibilities for innovative applications in various sectors.
By the end of this training, participants will be able to:
Understand the challenges and solutions for implementing AI on compact hardware.
Optimize and compress AI models for efficient on-device deployment.
Utilize modern AI frameworks and tools for on-device model implementation.
Design and develop real-time AI applications for mobile and IoT devices.
Evaluate and ensure the security and privacy of on-device AI systems.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level IT professionals who wish to deploy small language models directly onto devices with limited processing capabilities, opening up possibilities for innovative applications in various sectors.
By the end of this training, participants will be able to:
Understand the challenges and solutions for implementing AI on compact hardware.
Optimize and compress AI models for efficient on-device deployment.
Utilize modern AI frameworks and tools for on-device model implementation.
Design and develop real-time AI applications for mobile and IoT devices.
Evaluate and ensure the security and privacy of on-device AI systems.
[outline] =>
Introduction to On-Device AI
Fundamentals of on-device machine learning
Advantages and challenges of small language models
Overview of hardware constraints in mobile and IoT devices
Model Optimization for On-Device Deployment
Model quantization and pruning
Knowledge distillation for smaller, efficient models
Selecting and adapting models for on-device performance
Platform-Specific AI Tools and Frameworks
Introduction to TensorFlow Lite and PyTorch Mobile
Utilizing platform-specific libraries for on-device AI
Cross-platform deployment strategies
Real-Time Inference and Edge Computing
Techniques for fast and efficient inference on devices
Leveraging edge computing for on-device AI
Case studies of real-time AI applications
Power Management and Battery Life Considerations
Optimizing AI applications for energy efficiency
Balancing performance and power consumption
Strategies for extending battery life in AI-powered devices
Security and Privacy in On-Device AI
Ensuring data security and user privacy
On-device data processing for privacy preservation
Secure model updates and maintenance
User Experience and Interaction Design
Designing intuitive AI interactions for device users
Integrating language models with user interfaces
User testing and feedback for on-device AI
Scalability and Maintenance
Managing and updating models on deployed devices
Strategies for scalable on-device AI solutions
Monitoring and analytics for deployed AI systems
Project and Assessment
Developing a prototype in a chosen domain and preparing for deployment on a selected device
Presentation of the on-device AI solution
Evaluation based on efficiency, innovation, and practicality
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715323768
[source_title] => Small Language Models (SLMs) for On-Device AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] => hitrait
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => slmsodai
[hr_nid] => 479671
[title] => Small Language Models (SLMs) for On-Device AI
[requirements] =>
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas de IA eficientes y versátiles que se pueden implementar en una variedad de dispositivos, desde teléfonos inteligentes hasta dispositivos IoT, lo que permite aplicaciones inteligentes en el dispositivo.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar pequeños modelos de lenguaje directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar modelos de lenguaje pequeños directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Google Gemini AI is a cutting-edge large language model that offers advanced AI capabilities, such as natural language understanding, text generation, and semantic search, enabling developers to create more intuitive and responsive AI-driven applications.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level developers who wish to integrate AI functionalities into their applications using Google Gemini AI.
By the end of this training, participants will be able to:
Understand the fundamentals of large language models.
Set up and use Google Gemini AI for various AI tasks.
Implement text-to-text and image-to-text transformations.
Build basic AI-driven applications.
Explore advanced features and customization options in Google Gemini AI.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at beginner-level to intermediate-level developers who wish to integrate AI functionalities into their applications using Google Gemini AI.
By the end of this training, participants will be able to:
Understand the fundamentals of large language models.
Set up and use Google Gemini AI for various AI tasks.
Implement text-to-text and image-to-text transformations.
Build basic AI-driven applications.
Explore advanced features and customization options in Google Gemini AI.
[outline] =>
Introduction to AI and Google Gemini
What is Artificial Intelligence (AI)?
Overview of Google Gemini AI
Significance of Google Gemini in the AI landscape
Understanding Large Language Models (LLMs)
Fundamentals of LLMs
The architecture of Google Gemini
Comparing Gemini with other AI models
Getting Started with Google Gemini
Setting up the environment
Obtaining and using the API key
Introduction to Gemini's API and functionalities
Working with Gemini Models
Exploring different Gemini models
Selecting the right model for your project
Initializing the Generative Model
Practical Applications of Gemini AI
Text-to-text transformations
Text and image-to-text capabilities
Building chat applications with Gemini
Ethical considerations and responsible AI use
Advanced Features and Customization
Deep dive into Gemini's advanced features
Customizing responses and fine-tuning models
Exploring multimodal capabilities
Project - Building an AI Code Buddy
Step-by-step guide to building a simple AI chatbot
Integrating Gemini AI into your applications
Best practices and troubleshooting
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1711952394
[source_title] => Introduction to Google Gemini AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => geminiai
[hr_nid] => 476043
[title] => Introduction to Google Gemini AI
[requirements] =>
[overview] =>
Google Gemini AI es un modelo de lenguaje grande de vanguardia que ofrece capacidades avanzadas de IA, como la comprensión del lenguaje natural, la generación de texto y la búsqueda semántica, lo que permite a los desarrolladores crear aplicaciones impulsadas por IA más intuitivas y receptivas.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
An understanding of basic content creation principles
Experience with digital marketing tools
Creative writing skills
Audience
Content creators
Digital marketers
SEO specialists
[overview] =>
Google Gemini AI is a transformative tool for content creators, offering capabilities that streamline the creation process of content for various mediums, such as web content, marketing materials, and multimedia projects.
This instructor-led, live training (online or onsite) is aimed at intermediate-level content creators who wish to utilize Google Gemini AI to enhance their content quality and efficiency.
By the end of this training, participants will be able to:
Understand the role of AI in content creation.
Set up and use Google Gemini AI to generate and optimize content.
Apply text-to-text transformations to produce creative and original content.
Implement SEO strategies using AI-driven insights.
Analyze content performance and adapt strategies using Gemini AI.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level content creators who wish to utilize Google Gemini AI to enhance their content quality and efficiency.
By the end of this training, participants will be able to:
Understand the role of AI in content creation.
Set up and use Google Gemini AI to generate and optimize content.
Apply text-to-text transformations to produce creative and original content.
Implement SEO strategies using AI-driven insights.
Analyze content performance and adapt strategies using Gemini AI.
[outline] =>
Introduction to AI-Powered Content Creation
The role of AI in content creation
Overview of Google Gemini AI's capabilities for creators
Setting Up Google Gemini for Content Projects
Technical setup for Gemini AI
Integrating Gemini AI with content management systems
Automating Content Generation with Gemini AI
Using Gemini AI for blog posts, articles, and scripts
Enhancing creativity with AI prompts and suggestions
Maintaining originality and brand voice
Personalizing Content with Gemini AI
Tailoring content to different audiences
Improving user engagement with data-driven insights
SEO Optimization with Gemini AI
Understanding SEO fundamentals
Utilizing Gemini AI for keyword research and optimization
Analyzing Content Performance with Gemini AI
Measuring content effectiveness
Using AI to adapt content strategies based on analytics
Project - Creating a Content Campaign
Developing a content plan using Gemini AI
Executing and monitoring the campaign
Conclusion and Future of AI in Content Creation
Recap of key learnings
Emerging trends and staying ahead in content creation with AI
[language] => en
[duration] => 14
[status] => published
[changed] => 1711653905
[source_title] => Google Gemini AI for Content Creation
[source_language] => en
[cert_code] =>
[weight] => -1007
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => geminiaiforcontentcreation
[hr_nid] => 476187
[title] => Google Gemini AI for Content Creation
[requirements] =>
[overview] =>
Google Gemini AI es una herramienta transformadora para los creadores de contenido, que ofrece capacidades que agilizan el proceso de creación de contenido para diversos medios, como contenido web, materiales de marketing y proyectos multimedia.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Experience with customer relationship management (CRM) systems
Data analysis experience
Audience
Customer service managers
Customer experience specialists
Operational managers
[overview] =>
Google Gemini AI is a versatile tool designed to revolutionize customer service interactions by leveraging advanced machine learning algorithms. It enhances real-time communication across various platforms such as live chat, email support, and social media engagement. By automating routine tasks and providing actionable insights from customer data, Google Gemini AI significantly improves the overall customer experience and operational efficiency.
This instructor-led, live training (online or onsite) is aimed at intermediate-level customer service professionals who wish to implement Google Gemini AI in their customer service operations.
By the end of this training, participants will be able to:
Understand the impact of AI on customer service.
Set up Google Gemini AI to automate and personalize customer interactions.
Utilize text-to-text and image-to-text transformations to improve service efficiency.
Develop AI-driven strategies for real-time customer feedback analysis.
Explore advanced features to create a seamless customer service experience.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level customer service professionals who wish to implement Google Gemini AI in their customer service operations.
By the end of this training, participants will be able to:
Understand the impact of AI on customer service.
Set up Google Gemini AI to automate and personalize customer interactions.
Utilize text-to-text and image-to-text transformations to improve service efficiency.
Develop AI-driven strategies for real-time customer feedback analysis.
Explore advanced features to create a seamless customer service experience.
[outline] =>
Introduction to AI in Customer Service
The role of AI in modern customer service
Overview of Google Gemini AI capabilities
Setting Up Google Gemini for Customer Interactions
Technical setup for Gemini AI
Integrating Gemini AI with customer service platforms
Automating Customer Support with Gemini AI
Designing AI-driven response systems
Training Gemini AI on company-specific data
Enhancing Customer Engagement
Personalizing customer interactions with AI
Using Gemini AI for customer sentiment analysis
Analyzing Customer Feedback with Gemini AI
Gathering insights from customer interactions
Improving products and services based on AI analysis
Identifing trends and patterns in customer behavior
Case Studies and Best Practices
Success stories of AI in customer service
Ethical considerations and maintaining human touch
Project - Implementing Gemini AI Chatbot
Building a chatbot using Gemini AI
Testing and deploying the chatbot
Conclusion and Future Trends
Recap of key learnings
The future of AI in customer service
[language] => en
[duration] => 14
[status] => published
[changed] => 1711648466
[source_title] => Google Gemini AI for Transformative Customer Service
[source_language] => en
[cert_code] =>
[weight] => -1006
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => geminiaiforcustomerservice
[hr_nid] => 476047
[title] => Google Gemini AI for Transformative Customer Service
[requirements] =>
[overview] =>
Gemini AI es una herramienta versátil diseñada para revolucionar las interacciones de servicio al cliente al aprovechar algoritmos avanzados de aprendizaje automático para comprender y responder a las consultas de los clientes en tiempo real, automatizar tareas rutinarias y proporcionar información procesable a partir de los datos de los clientes, mejorando así la experiencia general del cliente y la eficiencia operativa.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Familiarity with data visualization tools is recommended
Audience
Data analysts
Business professionals
[overview] =>
Google Gemini AI is a cutting-edge tool that provides users with natural language and visual interfaces to enhance data exploration, analysis, visualization, and communication.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level data analysts and business professionals who wish to perform complex data analysis tasks more intuitively across various industries using Google Gemini AI.
By the end of this training, participants will be able to:
Understand the fundamentals of Google Gemini AI.
Connect various data sources to Gemini AI.
Explore data using natural language queries.
Analyze data patterns and derive insights.
Create compelling data visualizations.
Communicate data-driven insights effectively.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at beginner-level to intermediate-level data analysts and business professionals who wish to perform complex data analysis tasks more intuitively across various industries using Google Gemini AI.
By the end of this training, participants will be able to:
Understand the fundamentals of Google Gemini AI.
Connect various data sources to Gemini AI.
Explore data using natural language queries.
Analyze data patterns and derive insights.
Create compelling data visualizations.
Communicate data-driven insights effectively.
[outline] =>
Introduction to Google Gemini AI
Overview of AI in data analysis
Capabilities of Google Gemini AI
Setting up the Gemini AI environment
Connecting Data Sources
Importing data into Gemini AI
Data cleaning and preprocessing
Ensuring data security and privacy
Exploring Data with Gemini AI
Using natural language queries
Understanding Gemini AI's responses
Advanced query techniques
Data Analysis and Insights
Identifying patterns and anomalies
Statistical analysis with Gemini AI
Predictive modeling and forecasting
Data Visualization
Designing effective visualizations
Customizing charts and graphs
Interactive dashboards with Gemini AI
Communicating Insights
Storytelling with data
Preparing reports and presentations
Best practices for data-driven decision making
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1711656398
[source_title] => Google Gemini AI for Data Analysis
[source_language] => en
[cert_code] =>
[weight] => -1008
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => geminiaifordataanalysis
[hr_nid] => 476191
[title] => Google Gemini AI for Data Analysis
[requirements] =>
[overview] =>
Google Gemini AI es una herramienta de vanguardia que proporciona a los usuarios interfaces visuales y de lenguaje natural para mejorar la exploración, el análisis, la visualización y la comunicación de datos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que deseen realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
An understanding of machine learning concepts, such as supervised and unsupervised learning, loss functions, and data splitting
Experience with Python programming and data manipulation
Basic knowledge of neural networks and natural language processing
Audience
Developers
Machine learning enthusiasts
[overview] =>
Generative AI is a type of AI that can create original content such as text, images, music, and code. Large language models (LLMs) are powerful neural networks that can process and generate natural language.
This instructor-led, live training (online or onsite) is aimed at intermediate-level developers who wish to learn how to use generative AI with LLMs for various tasks and domains.
By the end of this training, participants will be able to:
Explain what generative AI is and how it works.
Describe the transformer architecture that powers LLMs.
Use empirical scaling laws to optimize LLMs for different tasks and constraints.
Apply state-of-the-art tools and methods to train, fine-tune, and deploy LLMs.
Discuss the opportunities and risks of generative AI for society and business.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level developers who wish to learn how to use generative AI with LLMs for various tasks and domains.
By the end of this training, participants will be able to:
Explain what generative AI is and how it works.
Describe the transformer architecture that powers LLMs.
Use empirical scaling laws to optimize LLMs for different tasks and constraints.
Apply state-of-the-art tools and methods to train, fine-tune, and deploy LLMs.
Discuss the opportunities and risks of generative AI for society and business.
[outline] =>
Introduction to Generative AI
What is generative AI and why is it important?
Main types and techniques of generative AI
Key challenges and limitations of generative AI
Transformer Architecture and LLMs
What is a transformer and how does it work?
Main components and features of a transformer
Using transformers to build LLMs
Scaling Laws and Optimization
What are scaling laws and why are they important for LLMs?
How do scaling laws relate to the model size, data size, compute budget, and inference requirements?
How can scaling laws help optimize the performance and efficiency of LLMs?
Training and Fine-Tuning LLMs
Main steps and challenges of training LLMs from scratch
Benefits and drawbacks of fine-tuning LLMs for specific tasks
Best practices and tools for training and fine-tuning LLMs
Deploying and Using LLMs
Main considerations and challenges of deploying LLMs in production
Common use cases and applications of LLMs in various domains and industries
Integrating LLMs with other AI systems and platforms
Ethics and Future of Generative AI
Ethical and social implications of generative AI and LLMs
Potential risks and harms of generative AI and LLMs, such as bias, misinformation, and manipulation
Responsible and beneficial use of generative AI and LLMs
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1709073362
[source_title] => Generative AI with Large Language Models (LLMs)
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => generativeaillm
[hr_nid] => 463251
[title] => Generative AI with Large Language Models (LLMs)
[requirements] =>
[overview] =>
La IA generativa es un tipo de IA que puede crear contenido original como texto, imágenes, música y código. Los modelos de lenguaje grandes (LLM) son potentes redes neuronales que pueden procesar y generar lenguaje natural.
Esta formación en directo dirigida por un instructor (en línea o presencial) está dirigida a desarrolladores de nivel intermedio que deseen aprender a utilizar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel intermedio que desean aprender a usar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Basic understanding of AI and machine learning concepts
Familiarity with Large Language Models (LLMs)
Experience with programming and data handling
Audience
AI researchers
Machine learning professionals
Data scientists
[overview] =>
LlamaIndex is an open-source data framework designed for applications that use Large Language Models (LLMs) and benefit from context augmentation. It's particularly useful for systems known as Retrieval-Augmented Generation (RAG) systems.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI researchers, machine learning professionals, and data scientists who wish to use LlamaIndex to enhance the capabilities of AI models, making them more accurate and reliable for various applications.
By the end of this training, participants will be able to:
Understand the principles and components of LlamaIndex.
Ingest and structure data for use with LLMs.
Implement context augmentation to improve AI model performance.
Integrate LlamaIndex into existing AI systems and workflows.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at intermediate-level AI researchers, machine learning professionals, and data scientists who wish to use LlamaIndex to enhance the capabilities of AI models, making them more accurate and reliable for various applications.
By the end of this training, participants will be able to:
Understand the principles and components of LlamaIndex.
Ingest and structure data for use with LLMs.
Implement context augmentation to improve AI model performance.
Integrate LlamaIndex into existing AI systems and workflows.
[outline] =>
Introduction to LlamaIndex and Context Augmentation
Overview of LlamaIndex
The role of context augmentation in AI
Benefits of using LlamaIndex with LLMs
Setting Up LlamaIndex
Installation and configuration
Understanding the architecture and components
Data connectors and ingestion
Data Indexing and Access
Creating data indexes for efficient access
Query engines and natural language access
Best practices for data structuring
Integrating LlamaIndex with LLMs
Enhancing LLMs with contextually relevant data
Practical exercises: Augmenting chatbots and text generators
LlamaIndex es un marco de datos de código abierto diseñado para aplicaciones que usan Large Language Models (LLMs) y se benefician del aumento de contexto. Es particularmente útil para los sistemas conocidos como sistemas de generación aumentada de recuperación (RAG).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
An understanding of Python programming and basic machine learning concepts
Experience with APIs and application development
Familiarity with natural language processing is beneficial but not required
Audience
Developers
Data scientists
[overview] =>
LlamaIndex is a powerful indexing tool designed to enhance the capabilities of Large Language Models (LLMs) by allowing them to retrieve and utilize custom data sets effectively.
This instructor-led, live training (online or onsite) is aimed at beginner-level to advanced-level developers and data scientists who wish to master LlamaIndex for developing innovative LLM-powered applications.
By the end of this training, participants will be able to:
Set up and configure LlamaIndex for use with LLMs.
Index and query custom datasets using LlamaIndex to enhance LLM functionality.
Design and develop sophisticated applications that utilize LlamaIndex and LLMs.
Understand and apply best practices for working with LLMs and LlamaIndex.
Navigate the ethical considerations involved in deploying LLM-powered applications.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at beginner-level to advanced-level developers and data scientists who wish to master LlamaIndex for developing innovative LLM-powered applications.
By the end of this training, participants will be able to:
Set up and configure LlamaIndex for use with LLMs.
Index and query custom datasets using LlamaIndex to enhance LLM functionality.
Design and develop sophisticated applications that utilize LlamaIndex and LLMs.
Understand and apply best practices for working with LLMs and LlamaIndex.
Navigate the ethical considerations involved in deploying LLM-powered applications.
[outline] =>
Introduction to LlamaIndex
Understanding LlamaIndex and its role in LLMs
Setting up LlamaIndex: environment and prerequisites
The basics of indexing custom data
LlamaIndex in Action
Querying with LlamaIndex: techniques and best practices
Building query and chat engines with LlamaIndex
Creating intuitive Streamlit interfaces for LLM applications
Advanced LlamaIndex Features
Employing retrieval-augmented generation (RAG) for enhanced data retrieval
Leveraging vectorstores for efficient data management
Designing and implementing LlamaIndex agents
Application Development with LlamaIndex
Prompt engineering: chain of thought, ReAct, few-shot prompting
Developing a documentation helper: a real-world LLM application
Debugging and testing LLM applications
Deployment and Scaling
Deploying LlamaIndex-based applications
Scaling LLM applications for high performance
Monitoring and optimizing LLM applications
Ethical and Practical Considerations
Navigating ethical implications in LLM applications
Ensuring privacy and data security with LlamaIndex
Preparing for future developments in LLM technology
LlamaIndex es una poderosa herramienta de indexación diseñada para mejorar las capacidades de Large Language Models (LLMs) al permitirles recuperar y utilizar conjuntos de datos personalizados de manera efectiva.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
An understanding of natural language processing and deep learning
Experience with Python and PyTorch or TensorFlow
Basic programming experience
Audience
Developers
NLP enthusiasts
Data scientists
[overview] =>
Large Language Models (LLMs) are deep neural network models that can generate natural language texts based on a given input or context. They are trained on large amounts of text data from various domains and sources, and they can capture the syntactic and semantic patterns of natural language. LLMs have achieved impressive results on various natural language tasks such as text summarization, question answering, text generation, and more.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level developers who wish to use Large Language Models for various natural language tasks.
By the end of this training, participants will be able to:
Set up a development environment that includes a popular LLM.
Create a basic LLM and fine-tune it on a custom dataset.
Use LLMs for different natural language tasks such as text summarization, question answering, text generation, and more.
Debug and evaluate LLMs using tools such as TensorBoard, PyTorch Lightning, and Hugging Face Datasets.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
[category_overview] =>
This instructor-led, live training in <loc> (online or onsite) is aimed at beginner-level to intermediate-level developers who wish to use Large Language Models for various natural language tasks.
By the end of this training, participants will be able to:
Set up a development environment that includes a popular LLM.
Create a basic LLM and fine-tune it on a custom dataset.
Use LLMs for different natural language tasks such as text summarization, question answering, text generation, and more.
Debug and evaluate LLMs using tools such as TensorBoard, PyTorch Lightning, and Hugging Face Datasets.
[outline] =>
Introduction
What are Large Language Models (LLMs)?
LLMs vs traditional NLP models
Overview of LLMs features and architecture
Challenges and limitations of LLMs
Understanding LLMs
The lifecycle of an LLM
How LLMs work
The main components of an LLM: encoder, decoder, attention, embeddings, etc.
Getting Started
Setting up the Development Environment
Installing an LLM as a development tool, e.g. Google Colab, Hugging Face
Working with LLMs
Exploring available LLM options
Creating and using an LLM
Fine-tuning an LLM on a custom dataset
Text Summarization
Understanding the task of text summarization and its applications
Using an LLM for extractive and abstractive text summarization
Evaluating the quality of the generated summaries using metrics such as ROUGE, BLEU, etc.
Question Answering
Understanding the task of question answering and its applications
Using an LLM for open-domain and closed-domain question answering
Evaluating the accuracy of the generated answers using metrics such as F1, EM, etc.
Text Generation
Understanding the task of text generation and its applications
Using an LLM for conditional and unconditional text generation
Controlling the style, tone, and content of the generated texts using parameters such as temperature, top-k, top-p, etc.
Integrating LLMs with Other Frameworks and Platforms
Using LLMs with PyTorch or TensorFlow
Using LLMs with Flask or Streamlit
Using LLMs with Google Cloud or AWS
Troubleshooting
Understanding the common errors and bugs in LLMs
Using TensorBoard to monitor and visualize the training process
Using PyTorch Lightning to simplify the training code and improve the performance
Using Hugging Face Datasets to load and preprocess the data
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1700095996
[source_title] => Introduction to Large Language Models (LLMs)
[source_language] => en
[cert_code] =>
[weight] => -1001
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
)
[es] => stdClass Object
(
[course_code] => llm
[hr_nid] => 462191
[title] => Introduction to Large Language Models (LLMs)
[requirements] =>
[overview] =>
Los modelos de lenguaje grandes (LLM) son modelos de redes neuronales profundas que pueden generar textos en lenguaje natural basados en una entrada o contexto determinado. Están entrenados con grandes cantidades de datos de texto de varios dominios y fuentes, y pueden capturar los patrones sintácticos y semánticos del lenguaje natural. Los LLM han logrado resultados impresionantes en varias tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos y más.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Comprensión de las operaciones y estrategias comerciales básicas
Experiencia liderando equipos o gestionando proyectos
Apertura a la adopción de nuevas tecnologías en las prácticas empresariales
Audiencia
Business Gerentes y ejecutivos
Emprendedores y dueños de negocios
Profesionales interesados en las implicaciones estratégicas de la IA
[overview] =>
Generative AI es una tecnología transformadora que está remodelando el panorama de la innovación empresarial, permitiendo nuevas formas de crear y personalizar productos, servicios y experiencias.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que desean comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que deseen comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
[outline] =>
Introducción a la IA y Generative AI
¿Qué es la Inteligencia Artificial?
Comprensión Generative AI y su relevancia para el negocio
Términos y conceptos clave en Generative AI
Visión general de Generative AI Tecnologías
Tipos de Generative AI modelos
Principios básicos del aprendizaje automático y las redes neuronales
Introducción a las Redes Generativas Adversarias (GANs) y a los Autocodificadores Variacionales (VAEs)
Business Aplicaciones de Generative AI
Generative AI en el desarrollo y diseño de productos
Marketing y generación de contenido con Generative AI
Personalización y mejora de la experiencia del cliente
Implicaciones estratégicas de Generative AI
Ventajas competitivas con Generative AI
Integración Generative AI en la estrategia empresarial
Casos prácticos de aplicaciones exitosas Generative AI
Consideraciones éticas y legales
Preocupaciones éticas con Generative AI (deepfakes, sesgo)
Propiedad intelectual e implicaciones legales
Desarrollo de un marco de IA responsable en su organización
Liderar equipos y proyectos de IA
Creación y gestión de equipos de IA
Gestión de proyectos para iniciativas de IA
Comunicar los conceptos de IA a las partes interesadas no técnicas
Prepararse para un futuro impulsado por la IA
Mantenerse al día con las tendencias y la investigación de la IA
Predicciones futuras para Generative AI
Preparar a su organización para la transformación de la IA
Talleres y Sesiones Interactivas
Debates interactivos sobre la estrategia de IA
Taller sobre evaluación de oportunidades de IA en tu negocio
Escenarios de toma de decisiones de IA de juego de roles
Familiarity with AI concepts and large language models
Audience
Developers
Software engineers
AI enthusiasts
[overview] =>
LangChain es un marco de código abierto diseñado para facilitar el desarrollo de aplicaciones utilizando grandes modelos de lenguaje (LLM).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
[outline] =>
Introduction to LangChain
Overview of LangChain and its purpose
Setting up the development environment
Understanding Large Language Models (LLMs)
LLMs vs traditional models
Capabilities and limitations of LLMs
LangChain Components and Architecture
Core components of LangChain
Understanding the architecture and workflow
Integrating LangChain with LLMs
Connecting LangChain to LLMs like GPT-4
Building chains for specific tasks
Building Modular Applications
Creating modular components with LangChain
Reusing components across different applications
Practical Exercises with LangChain
Hands-on coding sessions
Developing sample applications using LangChain
Advanced LangChain Features
Exploring advanced functionalities
Customizing LangChain for complex use cases
Best Practices and Patterns
Coding best practices with LangChain
Design patterns for AI-powered applications
Troubleshooting
Identifying common issues in LangChain applications
LangChain es un marco de código abierto que simplifica la integración de grandes modelos de lenguaje (LLM) en las aplicaciones.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
[outline] =>
Introduction to LangChain
What is LangChain?
LangChain vs other frameworks
The importance of LangChain in modern AI development
Setting Up the Environment
Installing Python and necessary packages
Setting up LangChain
Verifying the installation
Core Concepts of LangChain
Understanding the LangChain architecture
Key components and their roles
The LangChain philosophy and design goals
Working with Large Language Models (LLMs)
Introduction to LLMs and their capabilities
How LangChain integrates with LLMs
Connecting LangChain to a sample LLM
Developing with LangChain
LangChain's modular approach to application development
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeño en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeños en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
[outline] =>
Introduction to Small Language Models (SLMs)
Overview of language models
Evolution from large to Small Language Models
Architecture and design of SLMs
Advantages and limitations of SLMs
Technical Foundations
Understanding neural networks and parameters
Training processes for SLMs
Data requirements and model optimization
Evaluation metrics for language models
SLMs in Natural Language Processing
Text generation with SLMs
Language translation and localization
Sentiment analysis and text classification
Question answering and chatbots
Real-world Applications of SLMs
Mobile applications: On-device language processing
Comparative study: SLMs vs. large models in production
Future Directions
Research trends in SLMs
Challenges in scaling and deployment
Ethical considerations and responsible AI
The road ahead: Next-generation SLMs
Hands-on Workshops
Building a simple SLM for text generation
Integrating SLMs into mobile apps
Fine-tuning SLMs for specific tasks
Performance analysis and model interpretability
Capstone Project
Identifying a problem space for SLM application
Designing and implementing an SLM solution
Testing and iterating on the model
Presenting the project and outcomes
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715280132
[source_title] => Small Language Models (SLMs): Applications and Innovations
[source_language] => en
[cert_code] =>
[weight] => -1001
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slms
)
[slmsdsa] => stdClass Object
(
[course_code] => slmsdsa
[hr_nid] => 479651
[title] => Small Language Models (SLMs) for Domain-Specific Applications
[requirements] =>
Basic understanding of machine learning concepts
Familiarity with Python programming
Knowledge of natural language processing fundamentals
Audience
Data scientists
Machine learning engineers
[overview] =>
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
[outline] =>
Introduction to Domain-Specific Language Models
Overview of language models in AI
Importance of specialization in language models
Case studies of successful domain-specific models
Data Curation and Preprocessing
Identifying and collecting domain-specific datasets
Data cleaning and preprocessing techniques
Ethical considerations in dataset creation
Model Training and Fine-Tuning
Introduction to transfer learning and fine-tuning
Selecting base models for domain-specific training
Techniques for effective fine-tuning
Evaluation Metrics and Model Performance
Metrics for domain-specific model evaluation
Benchmarking models against domain-specific tasks
Understanding limitations and trade-offs
Deployment Strategies
Integration of language models into domain-specific applications
Scalability and maintenance of deployed models
Continuous learning and model updates in deployment
Legal Domain Focus
Special considerations for legal language models
Case law and statute corpus for training
Applications in legal research and document analysis
Medical Domain Focus
Challenges in medical language processing
HIPAA compliance and data privacy
Use cases in medical literature review and patient interaction
Technical Domain Focus
Technical jargon and its implications for language models
Collaboration with subject matter experts
Technical documentation generation and code commenting
Project and Assessment
Project proposal and initial dataset collection
Presentation of a completed project and model performance
Final assessment and feedback
Summary and Next Steps
[language] => en
[duration] => 28
[status] => published
[changed] => 1715281386
[source_title] => Small Language Models (SLMs) for Domain-Specific Applications
[source_language] => en
[cert_code] =>
[weight] => -1002
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsdsa
)
[slmseeai] => stdClass Object
(
[course_code] => slmseeai
[hr_nid] => 479667
[title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[requirements] =>
Solid understanding of deep learning concepts
Proficiency in Python programming
Experience with model optimization techniques
Audience
Machine learning engineers
AI researchers and practitioners
Environmental advocates within the tech industry
[overview] =>
Los modelos de lenguaje pequeños (SLM) son alternativas eficientes a los modelos más grandes, ya que ofrecen un rendimiento comparable con requisitos computacionales y energéticos significativamente reducidos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático e investigadores de IA de nivel avanzado que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático de nivel avanzado e investigadores de IA que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
[outline] =>
Introduction to Energy-Efficient AI
The significance of sustainability in AI
Overview of energy consumption in machine learning
Case studies of energy-efficient AI implementations
Compact Model Architectures
Understanding model size and complexity
Techniques for designing small yet effective models
Comparing different model architectures for efficiency
Optimization and Compression Techniques
Model pruning and quantization
Knowledge distillation for smaller models
Efficient training methods to reduce energy usage
Hardware Considerations for AI
Selecting energy-efficient hardware for training and inference
The role of specialized processors like TPUs and FPGAs
Balancing performance and power consumption
Green Coding Practices
Writing energy-efficient code
Profiling and optimizing AI algorithms
Best practices for sustainable software development
Renewable Energy and AI
Integrating renewable energy sources in AI operations
Data center sustainability
The future of green AI infrastructure
Lifecycle Assessment of AI Systems
Measuring the carbon footprint of AI models
Strategies for reducing environmental impact throughout the AI lifecycle
Case studies on lifecycle assessment in AI
Policy and Regulation for Sustainable AI
Understanding global standards and regulations
The role of policy in promoting energy-efficient AI
Ethical considerations and societal impact
Project and Assessment
Developing a prototype using small language models in a chosen domain
Presentation of the energy-efficient AI system
Evaluation based on technical efficiency, innovation, and environmental contribution
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715307649
[source_title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmseeai
)
[slmshai] => stdClass Object
(
[course_code] => slmshai
[hr_nid] => 479659
[title] => Small Language Models (SLMs) for Human-AI Interactions
[requirements] =>
Basic understanding of Artificial Intelligence and Machine Learning
Proficiency in Python programming
Experience with Natural Language Processing concepts
Audience
Data scientists
Machine learning engineers
AI researchers and developers
Product managers and UX designers
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas compactas pero potentes para permitir interacciones sofisticadas entre humanos e IA en diversas aplicaciones, incluida la IA conversacional y los bots de servicio al cliente.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
[outline] =>
Introduction to Conversational AI and Small Language Models (SLMs)
Fundamentals of conversational AI
Overview of SLMs and their advantages
Case studies of SLMs in interactive applications
Designing Conversational Flows
Principles of human-AI interaction design
Crafting engaging and natural dialogues
User experience (UX) considerations
Building Customer Service Bots
Use cases for customer service bots
Integrating SLMs into customer service platforms
Handling common customer inquiries with AI
Training SLMs for Interaction
Data collection for conversational AI
Training techniques for SLMs in dialogue systems
Fine-tuning models for specific interaction scenarios
Ensuring inclusivity and fairness in AI communication
Deployment and Scaling
Strategies for deploying conversational AI systems
Scaling SLMs for widespread use
Monitoring and maintaining AI interactions post-deployment
Capstone Project
Identifying a need for conversational AI in a chosen domain
Developing a prototype using SLMs
Testing and presenting the interactive application
Final Assessment
Submission of a capstone project report
Demonstration of a functional conversational AI system
Evaluation based on innovation, user engagement, and technical execution
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715283400
[source_title] => Small Language Models (SLMs) for Human-AI Interactions
[source_language] => en
[cert_code] =>
[weight] => -1003
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmshai
)
[slmsodai] => stdClass Object
(
[course_code] => slmsodai
[hr_nid] => 479671
[title] => Small Language Models (SLMs) for On-Device AI
[requirements] =>
Strong foundation in machine learning and deep learning concepts
Proficiency in Python programming
Basic knowledge of hardware constraints for AI deployment
Audience
Machine learning engineers and AI developers
Embedded systems engineers interested in AI applications
Product managers and technical leads overseeing AI projects
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas de IA eficientes y versátiles que se pueden implementar en una variedad de dispositivos, desde teléfonos inteligentes hasta dispositivos IoT, lo que permite aplicaciones inteligentes en el dispositivo.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar pequeños modelos de lenguaje directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar modelos de lenguaje pequeños directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
[outline] =>
Introduction to On-Device AI
Fundamentals of on-device machine learning
Advantages and challenges of small language models
Overview of hardware constraints in mobile and IoT devices
Model Optimization for On-Device Deployment
Model quantization and pruning
Knowledge distillation for smaller, efficient models
Selecting and adapting models for on-device performance
Platform-Specific AI Tools and Frameworks
Introduction to TensorFlow Lite and PyTorch Mobile
Utilizing platform-specific libraries for on-device AI
Cross-platform deployment strategies
Real-Time Inference and Edge Computing
Techniques for fast and efficient inference on devices
Leveraging edge computing for on-device AI
Case studies of real-time AI applications
Power Management and Battery Life Considerations
Optimizing AI applications for energy efficiency
Balancing performance and power consumption
Strategies for extending battery life in AI-powered devices
Security and Privacy in On-Device AI
Ensuring data security and user privacy
On-device data processing for privacy preservation
Secure model updates and maintenance
User Experience and Interaction Design
Designing intuitive AI interactions for device users
Integrating language models with user interfaces
User testing and feedback for on-device AI
Scalability and Maintenance
Managing and updating models on deployed devices
Strategies for scalable on-device AI solutions
Monitoring and analytics for deployed AI systems
Project and Assessment
Developing a prototype in a chosen domain and preparing for deployment on a selected device
Presentation of the on-device AI solution
Evaluation based on efficiency, innovation, and practicality
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715323768
[source_title] => Small Language Models (SLMs) for On-Device AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] => hitrait
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsodai
)
[geminiai] => stdClass Object
(
[course_code] => geminiai
[hr_nid] => 476043
[title] => Introduction to Google Gemini AI
[requirements] =>
An understanding of basic AI concepts
Experience with APIs and cloud services
Python programming experience
Audience
Developers
Data Scientists
AI Enthusiasts
[overview] =>
Google Gemini AI es un modelo de lenguaje grande de vanguardia que ofrece capacidades avanzadas de IA, como la comprensión del lenguaje natural, la generación de texto y la búsqueda semántica, lo que permite a los desarrolladores crear aplicaciones impulsadas por IA más intuitivas y receptivas.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
[outline] =>
Introduction to AI and Google Gemini
What is Artificial Intelligence (AI)?
Overview of Google Gemini AI
Significance of Google Gemini in the AI landscape
Understanding Large Language Models (LLMs)
Fundamentals of LLMs
The architecture of Google Gemini
Comparing Gemini with other AI models
Getting Started with Google Gemini
Setting up the environment
Obtaining and using the API key
Introduction to Gemini's API and functionalities
Working with Gemini Models
Exploring different Gemini models
Selecting the right model for your project
Initializing the Generative Model
Practical Applications of Gemini AI
Text-to-text transformations
Text and image-to-text capabilities
Building chat applications with Gemini
Ethical considerations and responsible AI use
Advanced Features and Customization
Deep dive into Gemini's advanced features
Customizing responses and fine-tuning models
Exploring multimodal capabilities
Project - Building an AI Code Buddy
Step-by-step guide to building a simple AI chatbot
Integrating Gemini AI into your applications
Best practices and troubleshooting
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1711952394
[source_title] => Introduction to Google Gemini AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiai
)
[geminiaiforcontentcreation] => stdClass Object
(
[course_code] => geminiaiforcontentcreation
[hr_nid] => 476187
[title] => Google Gemini AI for Content Creation
[requirements] =>
An understanding of basic content creation principles
Experience with digital marketing tools
Creative writing skills
Audience
Content creators
Digital marketers
SEO specialists
[overview] =>
Google Gemini AI es una herramienta transformadora para los creadores de contenido, que ofrece capacidades que agilizan el proceso de creación de contenido para diversos medios, como contenido web, materiales de marketing y proyectos multimedia.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
[outline] =>
Introduction to AI-Powered Content Creation
The role of AI in content creation
Overview of Google Gemini AI's capabilities for creators
Setting Up Google Gemini for Content Projects
Technical setup for Gemini AI
Integrating Gemini AI with content management systems
Automating Content Generation with Gemini AI
Using Gemini AI for blog posts, articles, and scripts
Enhancing creativity with AI prompts and suggestions
Maintaining originality and brand voice
Personalizing Content with Gemini AI
Tailoring content to different audiences
Improving user engagement with data-driven insights
SEO Optimization with Gemini AI
Understanding SEO fundamentals
Utilizing Gemini AI for keyword research and optimization
Analyzing Content Performance with Gemini AI
Measuring content effectiveness
Using AI to adapt content strategies based on analytics
Project - Creating a Content Campaign
Developing a content plan using Gemini AI
Executing and monitoring the campaign
Conclusion and Future of AI in Content Creation
Recap of key learnings
Emerging trends and staying ahead in content creation with AI
[language] => en
[duration] => 14
[status] => published
[changed] => 1711653905
[source_title] => Google Gemini AI for Content Creation
[source_language] => en
[cert_code] =>
[weight] => -1007
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcontentcreation
)
[geminiaiforcustomerservice] => stdClass Object
(
[course_code] => geminiaiforcustomerservice
[hr_nid] => 476047
[title] => Google Gemini AI for Transformative Customer Service
[requirements] =>
An understanding of customer service principles
Experience with customer relationship management (CRM) systems
Data analysis experience
Audience
Customer service managers
Customer experience specialists
Operational managers
[overview] =>
Gemini AI es una herramienta versátil diseñada para revolucionar las interacciones de servicio al cliente al aprovechar algoritmos avanzados de aprendizaje automático para comprender y responder a las consultas de los clientes en tiempo real, automatizar tareas rutinarias y proporcionar información procesable a partir de los datos de los clientes, mejorando así la experiencia general del cliente y la eficiencia operativa.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
[outline] =>
Introduction to AI in Customer Service
The role of AI in modern customer service
Overview of Google Gemini AI capabilities
Setting Up Google Gemini for Customer Interactions
Technical setup for Gemini AI
Integrating Gemini AI with customer service platforms
Automating Customer Support with Gemini AI
Designing AI-driven response systems
Training Gemini AI on company-specific data
Enhancing Customer Engagement
Personalizing customer interactions with AI
Using Gemini AI for customer sentiment analysis
Analyzing Customer Feedback with Gemini AI
Gathering insights from customer interactions
Improving products and services based on AI analysis
Identifing trends and patterns in customer behavior
Case Studies and Best Practices
Success stories of AI in customer service
Ethical considerations and maintaining human touch
Project - Implementing Gemini AI Chatbot
Building a chatbot using Gemini AI
Testing and deploying the chatbot
Conclusion and Future Trends
Recap of key learnings
The future of AI in customer service
[language] => en
[duration] => 14
[status] => published
[changed] => 1711648466
[source_title] => Google Gemini AI for Transformative Customer Service
[source_language] => en
[cert_code] =>
[weight] => -1006
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcustomerservice
)
[geminiaifordataanalysis] => stdClass Object
(
[course_code] => geminiaifordataanalysis
[hr_nid] => 476191
[title] => Google Gemini AI for Data Analysis
[requirements] =>
Basic understanding of data analysis concepts
Familiarity with data visualization tools is recommended
Audience
Data analysts
Business professionals
[overview] =>
Google Gemini AI es una herramienta de vanguardia que proporciona a los usuarios interfaces visuales y de lenguaje natural para mejorar la exploración, el análisis, la visualización y la comunicación de datos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que deseen realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
[outline] =>
Introduction to Google Gemini AI
Overview of AI in data analysis
Capabilities of Google Gemini AI
Setting up the Gemini AI environment
Connecting Data Sources
Importing data into Gemini AI
Data cleaning and preprocessing
Ensuring data security and privacy
Exploring Data with Gemini AI
Using natural language queries
Understanding Gemini AI's responses
Advanced query techniques
Data Analysis and Insights
Identifying patterns and anomalies
Statistical analysis with Gemini AI
Predictive modeling and forecasting
Data Visualization
Designing effective visualizations
Customizing charts and graphs
Interactive dashboards with Gemini AI
Communicating Insights
Storytelling with data
Preparing reports and presentations
Best practices for data-driven decision making
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1711656398
[source_title] => Google Gemini AI for Data Analysis
[source_language] => en
[cert_code] =>
[weight] => -1008
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaifordataanalysis
)
[generativeaillm] => stdClass Object
(
[course_code] => generativeaillm
[hr_nid] => 463251
[title] => Generative AI with Large Language Models (LLMs)
[requirements] =>
An understanding of machine learning concepts, such as supervised and unsupervised learning, loss functions, and data splitting
Experience with Python programming and data manipulation
Basic knowledge of neural networks and natural language processing
Audience
Developers
Machine learning enthusiasts
[overview] =>
La IA generativa es un tipo de IA que puede crear contenido original como texto, imágenes, música y código. Los modelos de lenguaje grandes (LLM) son potentes redes neuronales que pueden procesar y generar lenguaje natural.
Esta formación en directo dirigida por un instructor (en línea o presencial) está dirigida a desarrolladores de nivel intermedio que deseen aprender a utilizar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel intermedio que desean aprender a usar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
[outline] =>
Introduction to Generative AI
What is generative AI and why is it important?
Main types and techniques of generative AI
Key challenges and limitations of generative AI
Transformer Architecture and LLMs
What is a transformer and how does it work?
Main components and features of a transformer
Using transformers to build LLMs
Scaling Laws and Optimization
What are scaling laws and why are they important for LLMs?
How do scaling laws relate to the model size, data size, compute budget, and inference requirements?
How can scaling laws help optimize the performance and efficiency of LLMs?
Training and Fine-Tuning LLMs
Main steps and challenges of training LLMs from scratch
Benefits and drawbacks of fine-tuning LLMs for specific tasks
Best practices and tools for training and fine-tuning LLMs
Deploying and Using LLMs
Main considerations and challenges of deploying LLMs in production
Common use cases and applications of LLMs in various domains and industries
Integrating LLMs with other AI systems and platforms
Ethics and Future of Generative AI
Ethical and social implications of generative AI and LLMs
Potential risks and harms of generative AI and LLMs, such as bias, misinformation, and manipulation
Responsible and beneficial use of generative AI and LLMs
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1709073362
[source_title] => Generative AI with Large Language Models (LLMs)
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => generativeaillm
)
[llamaindex] => stdClass Object
(
[course_code] => llamaindex
[hr_nid] => 476587
[title] => LlamaIndex: Enhancing Contextual AI
[requirements] =>
Basic understanding of AI and machine learning concepts
Familiarity with Large Language Models (LLMs)
Experience with programming and data handling
Audience
AI researchers
Machine learning professionals
Data scientists
[overview] =>
LlamaIndex es un marco de datos de código abierto diseñado para aplicaciones que usan Large Language Models (LLMs) y se benefician del aumento de contexto. Es particularmente útil para los sistemas conocidos como sistemas de generación aumentada de recuperación (RAG).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
[outline] =>
Introduction to LlamaIndex and Context Augmentation
Overview of LlamaIndex
The role of context augmentation in AI
Benefits of using LlamaIndex with LLMs
Setting Up LlamaIndex
Installation and configuration
Understanding the architecture and components
Data connectors and ingestion
Data Indexing and Access
Creating data indexes for efficient access
Query engines and natural language access
Best practices for data structuring
Integrating LlamaIndex with LLMs
Enhancing LLMs with contextually relevant data
Practical exercises: Augmenting chatbots and text generators
An understanding of Python programming and basic machine learning concepts
Experience with APIs and application development
Familiarity with natural language processing is beneficial but not required
Audience
Developers
Data scientists
[overview] =>
LlamaIndex es una poderosa herramienta de indexación diseñada para mejorar las capacidades de Large Language Models (LLMs) al permitirles recuperar y utilizar conjuntos de datos personalizados de manera efectiva.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
[outline] =>
Introduction to LlamaIndex
Understanding LlamaIndex and its role in LLMs
Setting up LlamaIndex: environment and prerequisites
The basics of indexing custom data
LlamaIndex in Action
Querying with LlamaIndex: techniques and best practices
Building query and chat engines with LlamaIndex
Creating intuitive Streamlit interfaces for LLM applications
Advanced LlamaIndex Features
Employing retrieval-augmented generation (RAG) for enhanced data retrieval
Leveraging vectorstores for efficient data management
Designing and implementing LlamaIndex agents
Application Development with LlamaIndex
Prompt engineering: chain of thought, ReAct, few-shot prompting
Developing a documentation helper: a real-world LLM application
Debugging and testing LLM applications
Deployment and Scaling
Deploying LlamaIndex-based applications
Scaling LLM applications for high performance
Monitoring and optimizing LLM applications
Ethical and Practical Considerations
Navigating ethical implications in LLM applications
Ensuring privacy and data security with LlamaIndex
Preparing for future developments in LLM technology
An understanding of natural language processing and deep learning
Experience with Python and PyTorch or TensorFlow
Basic programming experience
Audience
Developers
NLP enthusiasts
Data scientists
[overview] =>
Los modelos de lenguaje grandes (LLM) son modelos de redes neuronales profundas que pueden generar textos en lenguaje natural basados en una entrada o contexto determinado. Están entrenados con grandes cantidades de datos de texto de varios dominios y fuentes, y pueden capturar los patrones sintácticos y semánticos del lenguaje natural. Los LLM han logrado resultados impresionantes en varias tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos y más.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
[outline] =>
Introduction
What are Large Language Models (LLMs)?
LLMs vs traditional NLP models
Overview of LLMs features and architecture
Challenges and limitations of LLMs
Understanding LLMs
The lifecycle of an LLM
How LLMs work
The main components of an LLM: encoder, decoder, attention, embeddings, etc.
Getting Started
Setting up the Development Environment
Installing an LLM as a development tool, e.g. Google Colab, Hugging Face
Working with LLMs
Exploring available LLM options
Creating and using an LLM
Fine-tuning an LLM on a custom dataset
Text Summarization
Understanding the task of text summarization and its applications
Using an LLM for extractive and abstractive text summarization
Evaluating the quality of the generated summaries using metrics such as ROUGE, BLEU, etc.
Question Answering
Understanding the task of question answering and its applications
Using an LLM for open-domain and closed-domain question answering
Evaluating the accuracy of the generated answers using metrics such as F1, EM, etc.
Text Generation
Understanding the task of text generation and its applications
Using an LLM for conditional and unconditional text generation
Controlling the style, tone, and content of the generated texts using parameters such as temperature, top-k, top-p, etc.
Integrating LLMs with Other Frameworks and Platforms
Using LLMs with PyTorch or TensorFlow
Using LLMs with Flask or Streamlit
Using LLMs with Google Cloud or AWS
Troubleshooting
Understanding the common errors and bugs in LLMs
Using TensorBoard to monitor and visualize the training process
Using PyTorch Lightning to simplify the training code and improve the performance
Using Hugging Face Datasets to load and preprocess the data
Generative AI es una tecnología transformadora que está remodelando el panorama de la innovación empresarial, permitiendo nuevas formas de crear y personalizar productos, servicios y experiencias.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que desean comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Programa del Curso
Introducción a la IA y Generative AI
¿Qué es la Inteligencia Artificial?
Comprensión Generative AI y su relevancia para el negocio
Términos y conceptos clave en Generative AI
Visión general de Generative AI Tecnologías
Tipos de Generative AI modelos
Principios básicos del aprendizaje automático y las redes neuronales
Introducción a las Redes Generativas Adversarias (GANs) y a los Autocodificadores Variacionales (VAEs)
Business Aplicaciones de Generative AI
Generative AI en el desarrollo y diseño de productos
Marketing y generación de contenido con Generative AI
Personalización y mejora de la experiencia del cliente
Implicaciones estratégicas de Generative AI
Ventajas competitivas con Generative AI
Integración Generative AI en la estrategia empresarial
Casos prácticos de aplicaciones exitosas Generative AI
Consideraciones éticas y legales
Preocupaciones éticas con Generative AI (deepfakes, sesgo)
Propiedad intelectual e implicaciones legales
Desarrollo de un marco de IA responsable en su organización
Liderar equipos y proyectos de IA
Creación y gestión de equipos de IA
Gestión de proyectos para iniciativas de IA
Comunicar los conceptos de IA a las partes interesadas no técnicas
Prepararse para un futuro impulsado por la IA
Mantenerse al día con las tendencias y la investigación de la IA
Predicciones futuras para Generative AI
Preparar a su organización para la transformación de la IA
Talleres y Sesiones Interactivas
Debates interactivos sobre la estrategia de IA
Taller sobre evaluación de oportunidades de IA en tu negocio
Escenarios de toma de decisiones de IA de juego de roles
Resumen y próximos pasos
Requerimientos
Comprensión de las operaciones y estrategias comerciales básicas
Experiencia liderando equipos o gestionando proyectos
Apertura a la adopción de nuevas tecnologías en las prácticas empresariales
Audiencia
Business Gerentes y ejecutivos
Emprendedores y dueños de negocios
Profesionales interesados en las implicaciones estratégicas de la IA
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeños en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático de nivel avanzado e investigadores de IA que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar modelos de lenguaje pequeños directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a desarrolladores de nivel intermedio que desean aprender a usar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
Esta capacitación en vivo dirigida por un instructor en Venezuela (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Comprensión de las operaciones y estrategias comerciales básicas
Experiencia liderando equipos o gestionando proyectos
Apertura a la adopción de nuevas tecnologías en las prácticas empresariales
Audiencia
Business Gerentes y ejecutivos
Emprendedores y dueños de negocios
Profesionales interesados en las implicaciones estratégicas de la IA
[overview] =>
Generative AI es una tecnología transformadora que está remodelando el panorama de la innovación empresarial, permitiendo nuevas formas de crear y personalizar productos, servicios y experiencias.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que desean comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que deseen comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
[outline] =>
Introducción a la IA y Generative AI
¿Qué es la Inteligencia Artificial?
Comprensión Generative AI y su relevancia para el negocio
Términos y conceptos clave en Generative AI
Visión general de Generative AI Tecnologías
Tipos de Generative AI modelos
Principios básicos del aprendizaje automático y las redes neuronales
Introducción a las Redes Generativas Adversarias (GANs) y a los Autocodificadores Variacionales (VAEs)
Business Aplicaciones de Generative AI
Generative AI en el desarrollo y diseño de productos
Marketing y generación de contenido con Generative AI
Personalización y mejora de la experiencia del cliente
Implicaciones estratégicas de Generative AI
Ventajas competitivas con Generative AI
Integración Generative AI en la estrategia empresarial
Casos prácticos de aplicaciones exitosas Generative AI
Consideraciones éticas y legales
Preocupaciones éticas con Generative AI (deepfakes, sesgo)
Propiedad intelectual e implicaciones legales
Desarrollo de un marco de IA responsable en su organización
Liderar equipos y proyectos de IA
Creación y gestión de equipos de IA
Gestión de proyectos para iniciativas de IA
Comunicar los conceptos de IA a las partes interesadas no técnicas
Prepararse para un futuro impulsado por la IA
Mantenerse al día con las tendencias y la investigación de la IA
Predicciones futuras para Generative AI
Preparar a su organización para la transformación de la IA
Talleres y Sesiones Interactivas
Debates interactivos sobre la estrategia de IA
Taller sobre evaluación de oportunidades de IA en tu negocio
Escenarios de toma de decisiones de IA de juego de roles
Familiarity with AI concepts and large language models
Audience
Developers
Software engineers
AI enthusiasts
[overview] =>
LangChain es un marco de código abierto diseñado para facilitar el desarrollo de aplicaciones utilizando grandes modelos de lenguaje (LLM).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
[outline] =>
Introduction to LangChain
Overview of LangChain and its purpose
Setting up the development environment
Understanding Large Language Models (LLMs)
LLMs vs traditional models
Capabilities and limitations of LLMs
LangChain Components and Architecture
Core components of LangChain
Understanding the architecture and workflow
Integrating LangChain with LLMs
Connecting LangChain to LLMs like GPT-4
Building chains for specific tasks
Building Modular Applications
Creating modular components with LangChain
Reusing components across different applications
Practical Exercises with LangChain
Hands-on coding sessions
Developing sample applications using LangChain
Advanced LangChain Features
Exploring advanced functionalities
Customizing LangChain for complex use cases
Best Practices and Patterns
Coding best practices with LangChain
Design patterns for AI-powered applications
Troubleshooting
Identifying common issues in LangChain applications
LangChain es un marco de código abierto que simplifica la integración de grandes modelos de lenguaje (LLM) en las aplicaciones.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
[outline] =>
Introduction to LangChain
What is LangChain?
LangChain vs other frameworks
The importance of LangChain in modern AI development
Setting Up the Environment
Installing Python and necessary packages
Setting up LangChain
Verifying the installation
Core Concepts of LangChain
Understanding the LangChain architecture
Key components and their roles
The LangChain philosophy and design goals
Working with Large Language Models (LLMs)
Introduction to LLMs and their capabilities
How LangChain integrates with LLMs
Connecting LangChain to a sample LLM
Developing with LangChain
LangChain's modular approach to application development
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeño en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeños en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
[outline] =>
Introduction to Small Language Models (SLMs)
Overview of language models
Evolution from large to Small Language Models
Architecture and design of SLMs
Advantages and limitations of SLMs
Technical Foundations
Understanding neural networks and parameters
Training processes for SLMs
Data requirements and model optimization
Evaluation metrics for language models
SLMs in Natural Language Processing
Text generation with SLMs
Language translation and localization
Sentiment analysis and text classification
Question answering and chatbots
Real-world Applications of SLMs
Mobile applications: On-device language processing
Comparative study: SLMs vs. large models in production
Future Directions
Research trends in SLMs
Challenges in scaling and deployment
Ethical considerations and responsible AI
The road ahead: Next-generation SLMs
Hands-on Workshops
Building a simple SLM for text generation
Integrating SLMs into mobile apps
Fine-tuning SLMs for specific tasks
Performance analysis and model interpretability
Capstone Project
Identifying a problem space for SLM application
Designing and implementing an SLM solution
Testing and iterating on the model
Presenting the project and outcomes
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715280132
[source_title] => Small Language Models (SLMs): Applications and Innovations
[source_language] => en
[cert_code] =>
[weight] => -1001
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slms
)
[slmsdsa] => stdClass Object
(
[course_code] => slmsdsa
[hr_nid] => 479651
[title] => Small Language Models (SLMs) for Domain-Specific Applications
[requirements] =>
Basic understanding of machine learning concepts
Familiarity with Python programming
Knowledge of natural language processing fundamentals
Audience
Data scientists
Machine learning engineers
[overview] =>
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
[outline] =>
Introduction to Domain-Specific Language Models
Overview of language models in AI
Importance of specialization in language models
Case studies of successful domain-specific models
Data Curation and Preprocessing
Identifying and collecting domain-specific datasets
Data cleaning and preprocessing techniques
Ethical considerations in dataset creation
Model Training and Fine-Tuning
Introduction to transfer learning and fine-tuning
Selecting base models for domain-specific training
Techniques for effective fine-tuning
Evaluation Metrics and Model Performance
Metrics for domain-specific model evaluation
Benchmarking models against domain-specific tasks
Understanding limitations and trade-offs
Deployment Strategies
Integration of language models into domain-specific applications
Scalability and maintenance of deployed models
Continuous learning and model updates in deployment
Legal Domain Focus
Special considerations for legal language models
Case law and statute corpus for training
Applications in legal research and document analysis
Medical Domain Focus
Challenges in medical language processing
HIPAA compliance and data privacy
Use cases in medical literature review and patient interaction
Technical Domain Focus
Technical jargon and its implications for language models
Collaboration with subject matter experts
Technical documentation generation and code commenting
Project and Assessment
Project proposal and initial dataset collection
Presentation of a completed project and model performance
Final assessment and feedback
Summary and Next Steps
[language] => en
[duration] => 28
[status] => published
[changed] => 1715281386
[source_title] => Small Language Models (SLMs) for Domain-Specific Applications
[source_language] => en
[cert_code] =>
[weight] => -1002
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsdsa
)
[slmseeai] => stdClass Object
(
[course_code] => slmseeai
[hr_nid] => 479667
[title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[requirements] =>
Solid understanding of deep learning concepts
Proficiency in Python programming
Experience with model optimization techniques
Audience
Machine learning engineers
AI researchers and practitioners
Environmental advocates within the tech industry
[overview] =>
Los modelos de lenguaje pequeños (SLM) son alternativas eficientes a los modelos más grandes, ya que ofrecen un rendimiento comparable con requisitos computacionales y energéticos significativamente reducidos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático e investigadores de IA de nivel avanzado que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático de nivel avanzado e investigadores de IA que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
[outline] =>
Introduction to Energy-Efficient AI
The significance of sustainability in AI
Overview of energy consumption in machine learning
Case studies of energy-efficient AI implementations
Compact Model Architectures
Understanding model size and complexity
Techniques for designing small yet effective models
Comparing different model architectures for efficiency
Optimization and Compression Techniques
Model pruning and quantization
Knowledge distillation for smaller models
Efficient training methods to reduce energy usage
Hardware Considerations for AI
Selecting energy-efficient hardware for training and inference
The role of specialized processors like TPUs and FPGAs
Balancing performance and power consumption
Green Coding Practices
Writing energy-efficient code
Profiling and optimizing AI algorithms
Best practices for sustainable software development
Renewable Energy and AI
Integrating renewable energy sources in AI operations
Data center sustainability
The future of green AI infrastructure
Lifecycle Assessment of AI Systems
Measuring the carbon footprint of AI models
Strategies for reducing environmental impact throughout the AI lifecycle
Case studies on lifecycle assessment in AI
Policy and Regulation for Sustainable AI
Understanding global standards and regulations
The role of policy in promoting energy-efficient AI
Ethical considerations and societal impact
Project and Assessment
Developing a prototype using small language models in a chosen domain
Presentation of the energy-efficient AI system
Evaluation based on technical efficiency, innovation, and environmental contribution
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715307649
[source_title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmseeai
)
[slmshai] => stdClass Object
(
[course_code] => slmshai
[hr_nid] => 479659
[title] => Small Language Models (SLMs) for Human-AI Interactions
[requirements] =>
Basic understanding of Artificial Intelligence and Machine Learning
Proficiency in Python programming
Experience with Natural Language Processing concepts
Audience
Data scientists
Machine learning engineers
AI researchers and developers
Product managers and UX designers
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas compactas pero potentes para permitir interacciones sofisticadas entre humanos e IA en diversas aplicaciones, incluida la IA conversacional y los bots de servicio al cliente.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
[outline] =>
Introduction to Conversational AI and Small Language Models (SLMs)
Fundamentals of conversational AI
Overview of SLMs and their advantages
Case studies of SLMs in interactive applications
Designing Conversational Flows
Principles of human-AI interaction design
Crafting engaging and natural dialogues
User experience (UX) considerations
Building Customer Service Bots
Use cases for customer service bots
Integrating SLMs into customer service platforms
Handling common customer inquiries with AI
Training SLMs for Interaction
Data collection for conversational AI
Training techniques for SLMs in dialogue systems
Fine-tuning models for specific interaction scenarios
Ensuring inclusivity and fairness in AI communication
Deployment and Scaling
Strategies for deploying conversational AI systems
Scaling SLMs for widespread use
Monitoring and maintaining AI interactions post-deployment
Capstone Project
Identifying a need for conversational AI in a chosen domain
Developing a prototype using SLMs
Testing and presenting the interactive application
Final Assessment
Submission of a capstone project report
Demonstration of a functional conversational AI system
Evaluation based on innovation, user engagement, and technical execution
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715283400
[source_title] => Small Language Models (SLMs) for Human-AI Interactions
[source_language] => en
[cert_code] =>
[weight] => -1003
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmshai
)
[slmsodai] => stdClass Object
(
[course_code] => slmsodai
[hr_nid] => 479671
[title] => Small Language Models (SLMs) for On-Device AI
[requirements] =>
Strong foundation in machine learning and deep learning concepts
Proficiency in Python programming
Basic knowledge of hardware constraints for AI deployment
Audience
Machine learning engineers and AI developers
Embedded systems engineers interested in AI applications
Product managers and technical leads overseeing AI projects
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas de IA eficientes y versátiles que se pueden implementar en una variedad de dispositivos, desde teléfonos inteligentes hasta dispositivos IoT, lo que permite aplicaciones inteligentes en el dispositivo.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar pequeños modelos de lenguaje directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar modelos de lenguaje pequeños directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
[outline] =>
Introduction to On-Device AI
Fundamentals of on-device machine learning
Advantages and challenges of small language models
Overview of hardware constraints in mobile and IoT devices
Model Optimization for On-Device Deployment
Model quantization and pruning
Knowledge distillation for smaller, efficient models
Selecting and adapting models for on-device performance
Platform-Specific AI Tools and Frameworks
Introduction to TensorFlow Lite and PyTorch Mobile
Utilizing platform-specific libraries for on-device AI
Cross-platform deployment strategies
Real-Time Inference and Edge Computing
Techniques for fast and efficient inference on devices
Leveraging edge computing for on-device AI
Case studies of real-time AI applications
Power Management and Battery Life Considerations
Optimizing AI applications for energy efficiency
Balancing performance and power consumption
Strategies for extending battery life in AI-powered devices
Security and Privacy in On-Device AI
Ensuring data security and user privacy
On-device data processing for privacy preservation
Secure model updates and maintenance
User Experience and Interaction Design
Designing intuitive AI interactions for device users
Integrating language models with user interfaces
User testing and feedback for on-device AI
Scalability and Maintenance
Managing and updating models on deployed devices
Strategies for scalable on-device AI solutions
Monitoring and analytics for deployed AI systems
Project and Assessment
Developing a prototype in a chosen domain and preparing for deployment on a selected device
Presentation of the on-device AI solution
Evaluation based on efficiency, innovation, and practicality
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715323768
[source_title] => Small Language Models (SLMs) for On-Device AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] => hitrait
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsodai
)
[geminiai] => stdClass Object
(
[course_code] => geminiai
[hr_nid] => 476043
[title] => Introduction to Google Gemini AI
[requirements] =>
An understanding of basic AI concepts
Experience with APIs and cloud services
Python programming experience
Audience
Developers
Data Scientists
AI Enthusiasts
[overview] =>
Google Gemini AI es un modelo de lenguaje grande de vanguardia que ofrece capacidades avanzadas de IA, como la comprensión del lenguaje natural, la generación de texto y la búsqueda semántica, lo que permite a los desarrolladores crear aplicaciones impulsadas por IA más intuitivas y receptivas.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
[outline] =>
Introduction to AI and Google Gemini
What is Artificial Intelligence (AI)?
Overview of Google Gemini AI
Significance of Google Gemini in the AI landscape
Understanding Large Language Models (LLMs)
Fundamentals of LLMs
The architecture of Google Gemini
Comparing Gemini with other AI models
Getting Started with Google Gemini
Setting up the environment
Obtaining and using the API key
Introduction to Gemini's API and functionalities
Working with Gemini Models
Exploring different Gemini models
Selecting the right model for your project
Initializing the Generative Model
Practical Applications of Gemini AI
Text-to-text transformations
Text and image-to-text capabilities
Building chat applications with Gemini
Ethical considerations and responsible AI use
Advanced Features and Customization
Deep dive into Gemini's advanced features
Customizing responses and fine-tuning models
Exploring multimodal capabilities
Project - Building an AI Code Buddy
Step-by-step guide to building a simple AI chatbot
Integrating Gemini AI into your applications
Best practices and troubleshooting
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1711952394
[source_title] => Introduction to Google Gemini AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiai
)
[geminiaiforcontentcreation] => stdClass Object
(
[course_code] => geminiaiforcontentcreation
[hr_nid] => 476187
[title] => Google Gemini AI for Content Creation
[requirements] =>
An understanding of basic content creation principles
Experience with digital marketing tools
Creative writing skills
Audience
Content creators
Digital marketers
SEO specialists
[overview] =>
Google Gemini AI es una herramienta transformadora para los creadores de contenido, que ofrece capacidades que agilizan el proceso de creación de contenido para diversos medios, como contenido web, materiales de marketing y proyectos multimedia.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
[outline] =>
Introduction to AI-Powered Content Creation
The role of AI in content creation
Overview of Google Gemini AI's capabilities for creators
Setting Up Google Gemini for Content Projects
Technical setup for Gemini AI
Integrating Gemini AI with content management systems
Automating Content Generation with Gemini AI
Using Gemini AI for blog posts, articles, and scripts
Enhancing creativity with AI prompts and suggestions
Maintaining originality and brand voice
Personalizing Content with Gemini AI
Tailoring content to different audiences
Improving user engagement with data-driven insights
SEO Optimization with Gemini AI
Understanding SEO fundamentals
Utilizing Gemini AI for keyword research and optimization
Analyzing Content Performance with Gemini AI
Measuring content effectiveness
Using AI to adapt content strategies based on analytics
Project - Creating a Content Campaign
Developing a content plan using Gemini AI
Executing and monitoring the campaign
Conclusion and Future of AI in Content Creation
Recap of key learnings
Emerging trends and staying ahead in content creation with AI
[language] => en
[duration] => 14
[status] => published
[changed] => 1711653905
[source_title] => Google Gemini AI for Content Creation
[source_language] => en
[cert_code] =>
[weight] => -1007
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcontentcreation
)
[geminiaiforcustomerservice] => stdClass Object
(
[course_code] => geminiaiforcustomerservice
[hr_nid] => 476047
[title] => Google Gemini AI for Transformative Customer Service
[requirements] =>
An understanding of customer service principles
Experience with customer relationship management (CRM) systems
Data analysis experience
Audience
Customer service managers
Customer experience specialists
Operational managers
[overview] =>
Gemini AI es una herramienta versátil diseñada para revolucionar las interacciones de servicio al cliente al aprovechar algoritmos avanzados de aprendizaje automático para comprender y responder a las consultas de los clientes en tiempo real, automatizar tareas rutinarias y proporcionar información procesable a partir de los datos de los clientes, mejorando así la experiencia general del cliente y la eficiencia operativa.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
[outline] =>
Introduction to AI in Customer Service
The role of AI in modern customer service
Overview of Google Gemini AI capabilities
Setting Up Google Gemini for Customer Interactions
Technical setup for Gemini AI
Integrating Gemini AI with customer service platforms
Automating Customer Support with Gemini AI
Designing AI-driven response systems
Training Gemini AI on company-specific data
Enhancing Customer Engagement
Personalizing customer interactions with AI
Using Gemini AI for customer sentiment analysis
Analyzing Customer Feedback with Gemini AI
Gathering insights from customer interactions
Improving products and services based on AI analysis
Identifing trends and patterns in customer behavior
Case Studies and Best Practices
Success stories of AI in customer service
Ethical considerations and maintaining human touch
Project - Implementing Gemini AI Chatbot
Building a chatbot using Gemini AI
Testing and deploying the chatbot
Conclusion and Future Trends
Recap of key learnings
The future of AI in customer service
[language] => en
[duration] => 14
[status] => published
[changed] => 1711648466
[source_title] => Google Gemini AI for Transformative Customer Service
[source_language] => en
[cert_code] =>
[weight] => -1006
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcustomerservice
)
[geminiaifordataanalysis] => stdClass Object
(
[course_code] => geminiaifordataanalysis
[hr_nid] => 476191
[title] => Google Gemini AI for Data Analysis
[requirements] =>
Basic understanding of data analysis concepts
Familiarity with data visualization tools is recommended
Audience
Data analysts
Business professionals
[overview] =>
Google Gemini AI es una herramienta de vanguardia que proporciona a los usuarios interfaces visuales y de lenguaje natural para mejorar la exploración, el análisis, la visualización y la comunicación de datos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que deseen realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
[outline] =>
Introduction to Google Gemini AI
Overview of AI in data analysis
Capabilities of Google Gemini AI
Setting up the Gemini AI environment
Connecting Data Sources
Importing data into Gemini AI
Data cleaning and preprocessing
Ensuring data security and privacy
Exploring Data with Gemini AI
Using natural language queries
Understanding Gemini AI's responses
Advanced query techniques
Data Analysis and Insights
Identifying patterns and anomalies
Statistical analysis with Gemini AI
Predictive modeling and forecasting
Data Visualization
Designing effective visualizations
Customizing charts and graphs
Interactive dashboards with Gemini AI
Communicating Insights
Storytelling with data
Preparing reports and presentations
Best practices for data-driven decision making
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1711656398
[source_title] => Google Gemini AI for Data Analysis
[source_language] => en
[cert_code] =>
[weight] => -1008
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaifordataanalysis
)
[generativeaillm] => stdClass Object
(
[course_code] => generativeaillm
[hr_nid] => 463251
[title] => Generative AI with Large Language Models (LLMs)
[requirements] =>
An understanding of machine learning concepts, such as supervised and unsupervised learning, loss functions, and data splitting
Experience with Python programming and data manipulation
Basic knowledge of neural networks and natural language processing
Audience
Developers
Machine learning enthusiasts
[overview] =>
La IA generativa es un tipo de IA que puede crear contenido original como texto, imágenes, música y código. Los modelos de lenguaje grandes (LLM) son potentes redes neuronales que pueden procesar y generar lenguaje natural.
Esta formación en directo dirigida por un instructor (en línea o presencial) está dirigida a desarrolladores de nivel intermedio que deseen aprender a utilizar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel intermedio que desean aprender a usar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
[outline] =>
Introduction to Generative AI
What is generative AI and why is it important?
Main types and techniques of generative AI
Key challenges and limitations of generative AI
Transformer Architecture and LLMs
What is a transformer and how does it work?
Main components and features of a transformer
Using transformers to build LLMs
Scaling Laws and Optimization
What are scaling laws and why are they important for LLMs?
How do scaling laws relate to the model size, data size, compute budget, and inference requirements?
How can scaling laws help optimize the performance and efficiency of LLMs?
Training and Fine-Tuning LLMs
Main steps and challenges of training LLMs from scratch
Benefits and drawbacks of fine-tuning LLMs for specific tasks
Best practices and tools for training and fine-tuning LLMs
Deploying and Using LLMs
Main considerations and challenges of deploying LLMs in production
Common use cases and applications of LLMs in various domains and industries
Integrating LLMs with other AI systems and platforms
Ethics and Future of Generative AI
Ethical and social implications of generative AI and LLMs
Potential risks and harms of generative AI and LLMs, such as bias, misinformation, and manipulation
Responsible and beneficial use of generative AI and LLMs
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1709073362
[source_title] => Generative AI with Large Language Models (LLMs)
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => generativeaillm
)
[llamaindex] => stdClass Object
(
[course_code] => llamaindex
[hr_nid] => 476587
[title] => LlamaIndex: Enhancing Contextual AI
[requirements] =>
Basic understanding of AI and machine learning concepts
Familiarity with Large Language Models (LLMs)
Experience with programming and data handling
Audience
AI researchers
Machine learning professionals
Data scientists
[overview] =>
LlamaIndex es un marco de datos de código abierto diseñado para aplicaciones que usan Large Language Models (LLMs) y se benefician del aumento de contexto. Es particularmente útil para los sistemas conocidos como sistemas de generación aumentada de recuperación (RAG).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
[outline] =>
Introduction to LlamaIndex and Context Augmentation
Overview of LlamaIndex
The role of context augmentation in AI
Benefits of using LlamaIndex with LLMs
Setting Up LlamaIndex
Installation and configuration
Understanding the architecture and components
Data connectors and ingestion
Data Indexing and Access
Creating data indexes for efficient access
Query engines and natural language access
Best practices for data structuring
Integrating LlamaIndex with LLMs
Enhancing LLMs with contextually relevant data
Practical exercises: Augmenting chatbots and text generators
An understanding of Python programming and basic machine learning concepts
Experience with APIs and application development
Familiarity with natural language processing is beneficial but not required
Audience
Developers
Data scientists
[overview] =>
LlamaIndex es una poderosa herramienta de indexación diseñada para mejorar las capacidades de Large Language Models (LLMs) al permitirles recuperar y utilizar conjuntos de datos personalizados de manera efectiva.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
[outline] =>
Introduction to LlamaIndex
Understanding LlamaIndex and its role in LLMs
Setting up LlamaIndex: environment and prerequisites
The basics of indexing custom data
LlamaIndex in Action
Querying with LlamaIndex: techniques and best practices
Building query and chat engines with LlamaIndex
Creating intuitive Streamlit interfaces for LLM applications
Advanced LlamaIndex Features
Employing retrieval-augmented generation (RAG) for enhanced data retrieval
Leveraging vectorstores for efficient data management
Designing and implementing LlamaIndex agents
Application Development with LlamaIndex
Prompt engineering: chain of thought, ReAct, few-shot prompting
Developing a documentation helper: a real-world LLM application
Debugging and testing LLM applications
Deployment and Scaling
Deploying LlamaIndex-based applications
Scaling LLM applications for high performance
Monitoring and optimizing LLM applications
Ethical and Practical Considerations
Navigating ethical implications in LLM applications
Ensuring privacy and data security with LlamaIndex
Preparing for future developments in LLM technology
An understanding of natural language processing and deep learning
Experience with Python and PyTorch or TensorFlow
Basic programming experience
Audience
Developers
NLP enthusiasts
Data scientists
[overview] =>
Los modelos de lenguaje grandes (LLM) son modelos de redes neuronales profundas que pueden generar textos en lenguaje natural basados en una entrada o contexto determinado. Están entrenados con grandes cantidades de datos de texto de varios dominios y fuentes, y pueden capturar los patrones sintácticos y semánticos del lenguaje natural. Los LLM han logrado resultados impresionantes en varias tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos y más.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
[outline] =>
Introduction
What are Large Language Models (LLMs)?
LLMs vs traditional NLP models
Overview of LLMs features and architecture
Challenges and limitations of LLMs
Understanding LLMs
The lifecycle of an LLM
How LLMs work
The main components of an LLM: encoder, decoder, attention, embeddings, etc.
Getting Started
Setting up the Development Environment
Installing an LLM as a development tool, e.g. Google Colab, Hugging Face
Working with LLMs
Exploring available LLM options
Creating and using an LLM
Fine-tuning an LLM on a custom dataset
Text Summarization
Understanding the task of text summarization and its applications
Using an LLM for extractive and abstractive text summarization
Evaluating the quality of the generated summaries using metrics such as ROUGE, BLEU, etc.
Question Answering
Understanding the task of question answering and its applications
Using an LLM for open-domain and closed-domain question answering
Evaluating the accuracy of the generated answers using metrics such as F1, EM, etc.
Text Generation
Understanding the task of text generation and its applications
Using an LLM for conditional and unconditional text generation
Controlling the style, tone, and content of the generated texts using parameters such as temperature, top-k, top-p, etc.
Integrating LLMs with Other Frameworks and Platforms
Using LLMs with PyTorch or TensorFlow
Using LLMs with Flask or Streamlit
Using LLMs with Google Cloud or AWS
Troubleshooting
Understanding the common errors and bugs in LLMs
Using TensorBoard to monitor and visualize the training process
Using PyTorch Lightning to simplify the training code and improve the performance
Using Hugging Face Datasets to load and preprocess the data
Comprensión de las operaciones y estrategias comerciales básicas
Experiencia liderando equipos o gestionando proyectos
Apertura a la adopción de nuevas tecnologías en las prácticas empresariales
Audiencia
Business Gerentes y ejecutivos
Emprendedores y dueños de negocios
Profesionales interesados en las implicaciones estratégicas de la IA
[overview] =>
Generative AI es una tecnología transformadora que está remodelando el panorama de la innovación empresarial, permitiendo nuevas formas de crear y personalizar productos, servicios y experiencias.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que desean comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que deseen comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
[outline] =>
Introducción a la IA y Generative AI
¿Qué es la Inteligencia Artificial?
Comprensión Generative AI y su relevancia para el negocio
Términos y conceptos clave en Generative AI
Visión general de Generative AI Tecnologías
Tipos de Generative AI modelos
Principios básicos del aprendizaje automático y las redes neuronales
Introducción a las Redes Generativas Adversarias (GANs) y a los Autocodificadores Variacionales (VAEs)
Business Aplicaciones de Generative AI
Generative AI en el desarrollo y diseño de productos
Marketing y generación de contenido con Generative AI
Personalización y mejora de la experiencia del cliente
Implicaciones estratégicas de Generative AI
Ventajas competitivas con Generative AI
Integración Generative AI en la estrategia empresarial
Casos prácticos de aplicaciones exitosas Generative AI
Consideraciones éticas y legales
Preocupaciones éticas con Generative AI (deepfakes, sesgo)
Propiedad intelectual e implicaciones legales
Desarrollo de un marco de IA responsable en su organización
Liderar equipos y proyectos de IA
Creación y gestión de equipos de IA
Gestión de proyectos para iniciativas de IA
Comunicar los conceptos de IA a las partes interesadas no técnicas
Prepararse para un futuro impulsado por la IA
Mantenerse al día con las tendencias y la investigación de la IA
Predicciones futuras para Generative AI
Preparar a su organización para la transformación de la IA
Talleres y Sesiones Interactivas
Debates interactivos sobre la estrategia de IA
Taller sobre evaluación de oportunidades de IA en tu negocio
Escenarios de toma de decisiones de IA de juego de roles
Familiarity with AI concepts and large language models
Audience
Developers
Software engineers
AI enthusiasts
[overview] =>
LangChain es un marco de código abierto diseñado para facilitar el desarrollo de aplicaciones utilizando grandes modelos de lenguaje (LLM).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
[outline] =>
Introduction to LangChain
Overview of LangChain and its purpose
Setting up the development environment
Understanding Large Language Models (LLMs)
LLMs vs traditional models
Capabilities and limitations of LLMs
LangChain Components and Architecture
Core components of LangChain
Understanding the architecture and workflow
Integrating LangChain with LLMs
Connecting LangChain to LLMs like GPT-4
Building chains for specific tasks
Building Modular Applications
Creating modular components with LangChain
Reusing components across different applications
Practical Exercises with LangChain
Hands-on coding sessions
Developing sample applications using LangChain
Advanced LangChain Features
Exploring advanced functionalities
Customizing LangChain for complex use cases
Best Practices and Patterns
Coding best practices with LangChain
Design patterns for AI-powered applications
Troubleshooting
Identifying common issues in LangChain applications
LangChain es un marco de código abierto que simplifica la integración de grandes modelos de lenguaje (LLM) en las aplicaciones.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
[outline] =>
Introduction to LangChain
What is LangChain?
LangChain vs other frameworks
The importance of LangChain in modern AI development
Setting Up the Environment
Installing Python and necessary packages
Setting up LangChain
Verifying the installation
Core Concepts of LangChain
Understanding the LangChain architecture
Key components and their roles
The LangChain philosophy and design goals
Working with Large Language Models (LLMs)
Introduction to LLMs and their capabilities
How LangChain integrates with LLMs
Connecting LangChain to a sample LLM
Developing with LangChain
LangChain's modular approach to application development
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeño en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeños en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
[outline] =>
Introduction to Small Language Models (SLMs)
Overview of language models
Evolution from large to Small Language Models
Architecture and design of SLMs
Advantages and limitations of SLMs
Technical Foundations
Understanding neural networks and parameters
Training processes for SLMs
Data requirements and model optimization
Evaluation metrics for language models
SLMs in Natural Language Processing
Text generation with SLMs
Language translation and localization
Sentiment analysis and text classification
Question answering and chatbots
Real-world Applications of SLMs
Mobile applications: On-device language processing
Comparative study: SLMs vs. large models in production
Future Directions
Research trends in SLMs
Challenges in scaling and deployment
Ethical considerations and responsible AI
The road ahead: Next-generation SLMs
Hands-on Workshops
Building a simple SLM for text generation
Integrating SLMs into mobile apps
Fine-tuning SLMs for specific tasks
Performance analysis and model interpretability
Capstone Project
Identifying a problem space for SLM application
Designing and implementing an SLM solution
Testing and iterating on the model
Presenting the project and outcomes
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715280132
[source_title] => Small Language Models (SLMs): Applications and Innovations
[source_language] => en
[cert_code] =>
[weight] => -1001
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slms
)
[slmsdsa] => stdClass Object
(
[course_code] => slmsdsa
[hr_nid] => 479651
[title] => Small Language Models (SLMs) for Domain-Specific Applications
[requirements] =>
Basic understanding of machine learning concepts
Familiarity with Python programming
Knowledge of natural language processing fundamentals
Audience
Data scientists
Machine learning engineers
[overview] =>
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
[outline] =>
Introduction to Domain-Specific Language Models
Overview of language models in AI
Importance of specialization in language models
Case studies of successful domain-specific models
Data Curation and Preprocessing
Identifying and collecting domain-specific datasets
Data cleaning and preprocessing techniques
Ethical considerations in dataset creation
Model Training and Fine-Tuning
Introduction to transfer learning and fine-tuning
Selecting base models for domain-specific training
Techniques for effective fine-tuning
Evaluation Metrics and Model Performance
Metrics for domain-specific model evaluation
Benchmarking models against domain-specific tasks
Understanding limitations and trade-offs
Deployment Strategies
Integration of language models into domain-specific applications
Scalability and maintenance of deployed models
Continuous learning and model updates in deployment
Legal Domain Focus
Special considerations for legal language models
Case law and statute corpus for training
Applications in legal research and document analysis
Medical Domain Focus
Challenges in medical language processing
HIPAA compliance and data privacy
Use cases in medical literature review and patient interaction
Technical Domain Focus
Technical jargon and its implications for language models
Collaboration with subject matter experts
Technical documentation generation and code commenting
Project and Assessment
Project proposal and initial dataset collection
Presentation of a completed project and model performance
Final assessment and feedback
Summary and Next Steps
[language] => en
[duration] => 28
[status] => published
[changed] => 1715281386
[source_title] => Small Language Models (SLMs) for Domain-Specific Applications
[source_language] => en
[cert_code] =>
[weight] => -1002
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsdsa
)
[slmseeai] => stdClass Object
(
[course_code] => slmseeai
[hr_nid] => 479667
[title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[requirements] =>
Solid understanding of deep learning concepts
Proficiency in Python programming
Experience with model optimization techniques
Audience
Machine learning engineers
AI researchers and practitioners
Environmental advocates within the tech industry
[overview] =>
Los modelos de lenguaje pequeños (SLM) son alternativas eficientes a los modelos más grandes, ya que ofrecen un rendimiento comparable con requisitos computacionales y energéticos significativamente reducidos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático e investigadores de IA de nivel avanzado que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático de nivel avanzado e investigadores de IA que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
[outline] =>
Introduction to Energy-Efficient AI
The significance of sustainability in AI
Overview of energy consumption in machine learning
Case studies of energy-efficient AI implementations
Compact Model Architectures
Understanding model size and complexity
Techniques for designing small yet effective models
Comparing different model architectures for efficiency
Optimization and Compression Techniques
Model pruning and quantization
Knowledge distillation for smaller models
Efficient training methods to reduce energy usage
Hardware Considerations for AI
Selecting energy-efficient hardware for training and inference
The role of specialized processors like TPUs and FPGAs
Balancing performance and power consumption
Green Coding Practices
Writing energy-efficient code
Profiling and optimizing AI algorithms
Best practices for sustainable software development
Renewable Energy and AI
Integrating renewable energy sources in AI operations
Data center sustainability
The future of green AI infrastructure
Lifecycle Assessment of AI Systems
Measuring the carbon footprint of AI models
Strategies for reducing environmental impact throughout the AI lifecycle
Case studies on lifecycle assessment in AI
Policy and Regulation for Sustainable AI
Understanding global standards and regulations
The role of policy in promoting energy-efficient AI
Ethical considerations and societal impact
Project and Assessment
Developing a prototype using small language models in a chosen domain
Presentation of the energy-efficient AI system
Evaluation based on technical efficiency, innovation, and environmental contribution
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715307649
[source_title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmseeai
)
[slmshai] => stdClass Object
(
[course_code] => slmshai
[hr_nid] => 479659
[title] => Small Language Models (SLMs) for Human-AI Interactions
[requirements] =>
Basic understanding of Artificial Intelligence and Machine Learning
Proficiency in Python programming
Experience with Natural Language Processing concepts
Audience
Data scientists
Machine learning engineers
AI researchers and developers
Product managers and UX designers
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas compactas pero potentes para permitir interacciones sofisticadas entre humanos e IA en diversas aplicaciones, incluida la IA conversacional y los bots de servicio al cliente.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
[outline] =>
Introduction to Conversational AI and Small Language Models (SLMs)
Fundamentals of conversational AI
Overview of SLMs and their advantages
Case studies of SLMs in interactive applications
Designing Conversational Flows
Principles of human-AI interaction design
Crafting engaging and natural dialogues
User experience (UX) considerations
Building Customer Service Bots
Use cases for customer service bots
Integrating SLMs into customer service platforms
Handling common customer inquiries with AI
Training SLMs for Interaction
Data collection for conversational AI
Training techniques for SLMs in dialogue systems
Fine-tuning models for specific interaction scenarios
Ensuring inclusivity and fairness in AI communication
Deployment and Scaling
Strategies for deploying conversational AI systems
Scaling SLMs for widespread use
Monitoring and maintaining AI interactions post-deployment
Capstone Project
Identifying a need for conversational AI in a chosen domain
Developing a prototype using SLMs
Testing and presenting the interactive application
Final Assessment
Submission of a capstone project report
Demonstration of a functional conversational AI system
Evaluation based on innovation, user engagement, and technical execution
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715283400
[source_title] => Small Language Models (SLMs) for Human-AI Interactions
[source_language] => en
[cert_code] =>
[weight] => -1003
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmshai
)
[slmsodai] => stdClass Object
(
[course_code] => slmsodai
[hr_nid] => 479671
[title] => Small Language Models (SLMs) for On-Device AI
[requirements] =>
Strong foundation in machine learning and deep learning concepts
Proficiency in Python programming
Basic knowledge of hardware constraints for AI deployment
Audience
Machine learning engineers and AI developers
Embedded systems engineers interested in AI applications
Product managers and technical leads overseeing AI projects
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas de IA eficientes y versátiles que se pueden implementar en una variedad de dispositivos, desde teléfonos inteligentes hasta dispositivos IoT, lo que permite aplicaciones inteligentes en el dispositivo.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar pequeños modelos de lenguaje directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar modelos de lenguaje pequeños directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
[outline] =>
Introduction to On-Device AI
Fundamentals of on-device machine learning
Advantages and challenges of small language models
Overview of hardware constraints in mobile and IoT devices
Model Optimization for On-Device Deployment
Model quantization and pruning
Knowledge distillation for smaller, efficient models
Selecting and adapting models for on-device performance
Platform-Specific AI Tools and Frameworks
Introduction to TensorFlow Lite and PyTorch Mobile
Utilizing platform-specific libraries for on-device AI
Cross-platform deployment strategies
Real-Time Inference and Edge Computing
Techniques for fast and efficient inference on devices
Leveraging edge computing for on-device AI
Case studies of real-time AI applications
Power Management and Battery Life Considerations
Optimizing AI applications for energy efficiency
Balancing performance and power consumption
Strategies for extending battery life in AI-powered devices
Security and Privacy in On-Device AI
Ensuring data security and user privacy
On-device data processing for privacy preservation
Secure model updates and maintenance
User Experience and Interaction Design
Designing intuitive AI interactions for device users
Integrating language models with user interfaces
User testing and feedback for on-device AI
Scalability and Maintenance
Managing and updating models on deployed devices
Strategies for scalable on-device AI solutions
Monitoring and analytics for deployed AI systems
Project and Assessment
Developing a prototype in a chosen domain and preparing for deployment on a selected device
Presentation of the on-device AI solution
Evaluation based on efficiency, innovation, and practicality
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715323768
[source_title] => Small Language Models (SLMs) for On-Device AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] => hitrait
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsodai
)
[geminiai] => stdClass Object
(
[course_code] => geminiai
[hr_nid] => 476043
[title] => Introduction to Google Gemini AI
[requirements] =>
An understanding of basic AI concepts
Experience with APIs and cloud services
Python programming experience
Audience
Developers
Data Scientists
AI Enthusiasts
[overview] =>
Google Gemini AI es un modelo de lenguaje grande de vanguardia que ofrece capacidades avanzadas de IA, como la comprensión del lenguaje natural, la generación de texto y la búsqueda semántica, lo que permite a los desarrolladores crear aplicaciones impulsadas por IA más intuitivas y receptivas.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
[outline] =>
Introduction to AI and Google Gemini
What is Artificial Intelligence (AI)?
Overview of Google Gemini AI
Significance of Google Gemini in the AI landscape
Understanding Large Language Models (LLMs)
Fundamentals of LLMs
The architecture of Google Gemini
Comparing Gemini with other AI models
Getting Started with Google Gemini
Setting up the environment
Obtaining and using the API key
Introduction to Gemini's API and functionalities
Working with Gemini Models
Exploring different Gemini models
Selecting the right model for your project
Initializing the Generative Model
Practical Applications of Gemini AI
Text-to-text transformations
Text and image-to-text capabilities
Building chat applications with Gemini
Ethical considerations and responsible AI use
Advanced Features and Customization
Deep dive into Gemini's advanced features
Customizing responses and fine-tuning models
Exploring multimodal capabilities
Project - Building an AI Code Buddy
Step-by-step guide to building a simple AI chatbot
Integrating Gemini AI into your applications
Best practices and troubleshooting
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1711952394
[source_title] => Introduction to Google Gemini AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiai
)
[geminiaiforcontentcreation] => stdClass Object
(
[course_code] => geminiaiforcontentcreation
[hr_nid] => 476187
[title] => Google Gemini AI for Content Creation
[requirements] =>
An understanding of basic content creation principles
Experience with digital marketing tools
Creative writing skills
Audience
Content creators
Digital marketers
SEO specialists
[overview] =>
Google Gemini AI es una herramienta transformadora para los creadores de contenido, que ofrece capacidades que agilizan el proceso de creación de contenido para diversos medios, como contenido web, materiales de marketing y proyectos multimedia.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
[outline] =>
Introduction to AI-Powered Content Creation
The role of AI in content creation
Overview of Google Gemini AI's capabilities for creators
Setting Up Google Gemini for Content Projects
Technical setup for Gemini AI
Integrating Gemini AI with content management systems
Automating Content Generation with Gemini AI
Using Gemini AI for blog posts, articles, and scripts
Enhancing creativity with AI prompts and suggestions
Maintaining originality and brand voice
Personalizing Content with Gemini AI
Tailoring content to different audiences
Improving user engagement with data-driven insights
SEO Optimization with Gemini AI
Understanding SEO fundamentals
Utilizing Gemini AI for keyword research and optimization
Analyzing Content Performance with Gemini AI
Measuring content effectiveness
Using AI to adapt content strategies based on analytics
Project - Creating a Content Campaign
Developing a content plan using Gemini AI
Executing and monitoring the campaign
Conclusion and Future of AI in Content Creation
Recap of key learnings
Emerging trends and staying ahead in content creation with AI
[language] => en
[duration] => 14
[status] => published
[changed] => 1711653905
[source_title] => Google Gemini AI for Content Creation
[source_language] => en
[cert_code] =>
[weight] => -1007
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcontentcreation
)
[geminiaiforcustomerservice] => stdClass Object
(
[course_code] => geminiaiforcustomerservice
[hr_nid] => 476047
[title] => Google Gemini AI for Transformative Customer Service
[requirements] =>
An understanding of customer service principles
Experience with customer relationship management (CRM) systems
Data analysis experience
Audience
Customer service managers
Customer experience specialists
Operational managers
[overview] =>
Gemini AI es una herramienta versátil diseñada para revolucionar las interacciones de servicio al cliente al aprovechar algoritmos avanzados de aprendizaje automático para comprender y responder a las consultas de los clientes en tiempo real, automatizar tareas rutinarias y proporcionar información procesable a partir de los datos de los clientes, mejorando así la experiencia general del cliente y la eficiencia operativa.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
[outline] =>
Introduction to AI in Customer Service
The role of AI in modern customer service
Overview of Google Gemini AI capabilities
Setting Up Google Gemini for Customer Interactions
Technical setup for Gemini AI
Integrating Gemini AI with customer service platforms
Automating Customer Support with Gemini AI
Designing AI-driven response systems
Training Gemini AI on company-specific data
Enhancing Customer Engagement
Personalizing customer interactions with AI
Using Gemini AI for customer sentiment analysis
Analyzing Customer Feedback with Gemini AI
Gathering insights from customer interactions
Improving products and services based on AI analysis
Identifing trends and patterns in customer behavior
Case Studies and Best Practices
Success stories of AI in customer service
Ethical considerations and maintaining human touch
Project - Implementing Gemini AI Chatbot
Building a chatbot using Gemini AI
Testing and deploying the chatbot
Conclusion and Future Trends
Recap of key learnings
The future of AI in customer service
[language] => en
[duration] => 14
[status] => published
[changed] => 1711648466
[source_title] => Google Gemini AI for Transformative Customer Service
[source_language] => en
[cert_code] =>
[weight] => -1006
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcustomerservice
)
[geminiaifordataanalysis] => stdClass Object
(
[course_code] => geminiaifordataanalysis
[hr_nid] => 476191
[title] => Google Gemini AI for Data Analysis
[requirements] =>
Basic understanding of data analysis concepts
Familiarity with data visualization tools is recommended
Audience
Data analysts
Business professionals
[overview] =>
Google Gemini AI es una herramienta de vanguardia que proporciona a los usuarios interfaces visuales y de lenguaje natural para mejorar la exploración, el análisis, la visualización y la comunicación de datos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que deseen realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
[outline] =>
Introduction to Google Gemini AI
Overview of AI in data analysis
Capabilities of Google Gemini AI
Setting up the Gemini AI environment
Connecting Data Sources
Importing data into Gemini AI
Data cleaning and preprocessing
Ensuring data security and privacy
Exploring Data with Gemini AI
Using natural language queries
Understanding Gemini AI's responses
Advanced query techniques
Data Analysis and Insights
Identifying patterns and anomalies
Statistical analysis with Gemini AI
Predictive modeling and forecasting
Data Visualization
Designing effective visualizations
Customizing charts and graphs
Interactive dashboards with Gemini AI
Communicating Insights
Storytelling with data
Preparing reports and presentations
Best practices for data-driven decision making
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1711656398
[source_title] => Google Gemini AI for Data Analysis
[source_language] => en
[cert_code] =>
[weight] => -1008
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaifordataanalysis
)
[generativeaillm] => stdClass Object
(
[course_code] => generativeaillm
[hr_nid] => 463251
[title] => Generative AI with Large Language Models (LLMs)
[requirements] =>
An understanding of machine learning concepts, such as supervised and unsupervised learning, loss functions, and data splitting
Experience with Python programming and data manipulation
Basic knowledge of neural networks and natural language processing
Audience
Developers
Machine learning enthusiasts
[overview] =>
La IA generativa es un tipo de IA que puede crear contenido original como texto, imágenes, música y código. Los modelos de lenguaje grandes (LLM) son potentes redes neuronales que pueden procesar y generar lenguaje natural.
Esta formación en directo dirigida por un instructor (en línea o presencial) está dirigida a desarrolladores de nivel intermedio que deseen aprender a utilizar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel intermedio que desean aprender a usar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
[outline] =>
Introduction to Generative AI
What is generative AI and why is it important?
Main types and techniques of generative AI
Key challenges and limitations of generative AI
Transformer Architecture and LLMs
What is a transformer and how does it work?
Main components and features of a transformer
Using transformers to build LLMs
Scaling Laws and Optimization
What are scaling laws and why are they important for LLMs?
How do scaling laws relate to the model size, data size, compute budget, and inference requirements?
How can scaling laws help optimize the performance and efficiency of LLMs?
Training and Fine-Tuning LLMs
Main steps and challenges of training LLMs from scratch
Benefits and drawbacks of fine-tuning LLMs for specific tasks
Best practices and tools for training and fine-tuning LLMs
Deploying and Using LLMs
Main considerations and challenges of deploying LLMs in production
Common use cases and applications of LLMs in various domains and industries
Integrating LLMs with other AI systems and platforms
Ethics and Future of Generative AI
Ethical and social implications of generative AI and LLMs
Potential risks and harms of generative AI and LLMs, such as bias, misinformation, and manipulation
Responsible and beneficial use of generative AI and LLMs
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1709073362
[source_title] => Generative AI with Large Language Models (LLMs)
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => generativeaillm
)
[llamaindex] => stdClass Object
(
[course_code] => llamaindex
[hr_nid] => 476587
[title] => LlamaIndex: Enhancing Contextual AI
[requirements] =>
Basic understanding of AI and machine learning concepts
Familiarity with Large Language Models (LLMs)
Experience with programming and data handling
Audience
AI researchers
Machine learning professionals
Data scientists
[overview] =>
LlamaIndex es un marco de datos de código abierto diseñado para aplicaciones que usan Large Language Models (LLMs) y se benefician del aumento de contexto. Es particularmente útil para los sistemas conocidos como sistemas de generación aumentada de recuperación (RAG).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
[outline] =>
Introduction to LlamaIndex and Context Augmentation
Overview of LlamaIndex
The role of context augmentation in AI
Benefits of using LlamaIndex with LLMs
Setting Up LlamaIndex
Installation and configuration
Understanding the architecture and components
Data connectors and ingestion
Data Indexing and Access
Creating data indexes for efficient access
Query engines and natural language access
Best practices for data structuring
Integrating LlamaIndex with LLMs
Enhancing LLMs with contextually relevant data
Practical exercises: Augmenting chatbots and text generators
An understanding of Python programming and basic machine learning concepts
Experience with APIs and application development
Familiarity with natural language processing is beneficial but not required
Audience
Developers
Data scientists
[overview] =>
LlamaIndex es una poderosa herramienta de indexación diseñada para mejorar las capacidades de Large Language Models (LLMs) al permitirles recuperar y utilizar conjuntos de datos personalizados de manera efectiva.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
[outline] =>
Introduction to LlamaIndex
Understanding LlamaIndex and its role in LLMs
Setting up LlamaIndex: environment and prerequisites
The basics of indexing custom data
LlamaIndex in Action
Querying with LlamaIndex: techniques and best practices
Building query and chat engines with LlamaIndex
Creating intuitive Streamlit interfaces for LLM applications
Advanced LlamaIndex Features
Employing retrieval-augmented generation (RAG) for enhanced data retrieval
Leveraging vectorstores for efficient data management
Designing and implementing LlamaIndex agents
Application Development with LlamaIndex
Prompt engineering: chain of thought, ReAct, few-shot prompting
Developing a documentation helper: a real-world LLM application
Debugging and testing LLM applications
Deployment and Scaling
Deploying LlamaIndex-based applications
Scaling LLM applications for high performance
Monitoring and optimizing LLM applications
Ethical and Practical Considerations
Navigating ethical implications in LLM applications
Ensuring privacy and data security with LlamaIndex
Preparing for future developments in LLM technology
An understanding of natural language processing and deep learning
Experience with Python and PyTorch or TensorFlow
Basic programming experience
Audience
Developers
NLP enthusiasts
Data scientists
[overview] =>
Los modelos de lenguaje grandes (LLM) son modelos de redes neuronales profundas que pueden generar textos en lenguaje natural basados en una entrada o contexto determinado. Están entrenados con grandes cantidades de datos de texto de varios dominios y fuentes, y pueden capturar los patrones sintácticos y semánticos del lenguaje natural. Los LLM han logrado resultados impresionantes en varias tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos y más.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
[outline] =>
Introduction
What are Large Language Models (LLMs)?
LLMs vs traditional NLP models
Overview of LLMs features and architecture
Challenges and limitations of LLMs
Understanding LLMs
The lifecycle of an LLM
How LLMs work
The main components of an LLM: encoder, decoder, attention, embeddings, etc.
Getting Started
Setting up the Development Environment
Installing an LLM as a development tool, e.g. Google Colab, Hugging Face
Working with LLMs
Exploring available LLM options
Creating and using an LLM
Fine-tuning an LLM on a custom dataset
Text Summarization
Understanding the task of text summarization and its applications
Using an LLM for extractive and abstractive text summarization
Evaluating the quality of the generated summaries using metrics such as ROUGE, BLEU, etc.
Question Answering
Understanding the task of question answering and its applications
Using an LLM for open-domain and closed-domain question answering
Evaluating the accuracy of the generated answers using metrics such as F1, EM, etc.
Text Generation
Understanding the task of text generation and its applications
Using an LLM for conditional and unconditional text generation
Controlling the style, tone, and content of the generated texts using parameters such as temperature, top-k, top-p, etc.
Integrating LLMs with Other Frameworks and Platforms
Using LLMs with PyTorch or TensorFlow
Using LLMs with Flask or Streamlit
Using LLMs with Google Cloud or AWS
Troubleshooting
Understanding the common errors and bugs in LLMs
Using TensorBoard to monitor and visualize the training process
Using PyTorch Lightning to simplify the training code and improve the performance
Using Hugging Face Datasets to load and preprocess the data
Comprensión de las operaciones y estrategias comerciales básicas
Experiencia liderando equipos o gestionando proyectos
Apertura a la adopción de nuevas tecnologías en las prácticas empresariales
Audiencia
Business Gerentes y ejecutivos
Emprendedores y dueños de negocios
Profesionales interesados en las implicaciones estratégicas de la IA
[overview] =>
Generative AI es una tecnología transformadora que está remodelando el panorama de la innovación empresarial, permitiendo nuevas formas de crear y personalizar productos, servicios y experiencias.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que desean comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a gerentes de nivel intermedio a avanzado que deseen comprender y aprovechar Generative AI en sus estrategias comerciales.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los conceptos y capacidades fundamentales de Generative AI.
Identificar oportunidades de aplicación Generative AI dentro de sus organizaciones.
Comprender las consideraciones éticas y legales del uso de Generative AI.
Lidere debates y tome decisiones informadas sobre proyectos de IA.
Desarrollar una hoja de ruta para integrar Generative AI en sus procesos de negocio.
[outline] =>
Introducción a la IA y Generative AI
¿Qué es la Inteligencia Artificial?
Comprensión Generative AI y su relevancia para el negocio
Términos y conceptos clave en Generative AI
Visión general de Generative AI Tecnologías
Tipos de Generative AI modelos
Principios básicos del aprendizaje automático y las redes neuronales
Introducción a las Redes Generativas Adversarias (GANs) y a los Autocodificadores Variacionales (VAEs)
Business Aplicaciones de Generative AI
Generative AI en el desarrollo y diseño de productos
Marketing y generación de contenido con Generative AI
Personalización y mejora de la experiencia del cliente
Implicaciones estratégicas de Generative AI
Ventajas competitivas con Generative AI
Integración Generative AI en la estrategia empresarial
Casos prácticos de aplicaciones exitosas Generative AI
Consideraciones éticas y legales
Preocupaciones éticas con Generative AI (deepfakes, sesgo)
Propiedad intelectual e implicaciones legales
Desarrollo de un marco de IA responsable en su organización
Liderar equipos y proyectos de IA
Creación y gestión de equipos de IA
Gestión de proyectos para iniciativas de IA
Comunicar los conceptos de IA a las partes interesadas no técnicas
Prepararse para un futuro impulsado por la IA
Mantenerse al día con las tendencias y la investigación de la IA
Predicciones futuras para Generative AI
Preparar a su organización para la transformación de la IA
Talleres y Sesiones Interactivas
Debates interactivos sobre la estrategia de IA
Taller sobre evaluación de oportunidades de IA en tu negocio
Escenarios de toma de decisiones de IA de juego de roles
Familiarity with AI concepts and large language models
Audience
Developers
Software engineers
AI enthusiasts
[overview] =>
LangChain es un marco de código abierto diseñado para facilitar el desarrollo de aplicaciones utilizando grandes modelos de lenguaje (LLM).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel intermedio que deseen crear aplicaciones impulsadas por IA utilizando el marco LangChain.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de LangChain y sus componentes.
Integre LangChain con modelos de lenguaje grandes (LLM) como GPT-4.
Cree aplicaciones modulares de IA con LangChain.
Solucione problemas comunes en las aplicaciones de LangChain.
[outline] =>
Introduction to LangChain
Overview of LangChain and its purpose
Setting up the development environment
Understanding Large Language Models (LLMs)
LLMs vs traditional models
Capabilities and limitations of LLMs
LangChain Components and Architecture
Core components of LangChain
Understanding the architecture and workflow
Integrating LangChain with LLMs
Connecting LangChain to LLMs like GPT-4
Building chains for specific tasks
Building Modular Applications
Creating modular components with LangChain
Reusing components across different applications
Practical Exercises with LangChain
Hands-on coding sessions
Developing sample applications using LangChain
Advanced LangChain Features
Exploring advanced functionalities
Customizing LangChain for complex use cases
Best Practices and Patterns
Coding best practices with LangChain
Design patterns for AI-powered applications
Troubleshooting
Identifying common issues in LangChain applications
LangChain es un marco de código abierto que simplifica la integración de grandes modelos de lenguaje (LLM) en las aplicaciones.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores e ingenieros de software de nivel principiante a intermedio que deseen aprender los conceptos básicos y la arquitectura de LangChain y adquirir las habilidades prácticas para crear aplicaciones impulsadas por IA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios fundamentales de LangChain.
Instale y configure el entorno de LangChain.
Comprenda la arquitectura y cómo LangChain interactúa con grandes modelos de lenguaje (LLM).
Desarrolle aplicaciones sencillas con LangChain.
[outline] =>
Introduction to LangChain
What is LangChain?
LangChain vs other frameworks
The importance of LangChain in modern AI development
Setting Up the Environment
Installing Python and necessary packages
Setting up LangChain
Verifying the installation
Core Concepts of LangChain
Understanding the LangChain architecture
Key components and their roles
The LangChain philosophy and design goals
Working with Large Language Models (LLMs)
Introduction to LLMs and their capabilities
How LangChain integrates with LLMs
Connecting LangChain to a sample LLM
Developing with LangChain
LangChain's modular approach to application development
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeño en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos y desarrolladores de nivel principiante a intermedio que deseen implementar y aprovechar modelos de lenguaje pequeños en diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura y la funcionalidad de los modelos de lenguaje pequeños.
Implemente SLM para tareas como la generación de texto y el análisis de sentimientos.
Optimice y ajuste los SLM para casos de uso específicos.
Implemente SLM en entornos con recursos limitados.
Evalúe e interprete el rendimiento de los SLM en escenarios del mundo real.
[outline] =>
Introduction to Small Language Models (SLMs)
Overview of language models
Evolution from large to Small Language Models
Architecture and design of SLMs
Advantages and limitations of SLMs
Technical Foundations
Understanding neural networks and parameters
Training processes for SLMs
Data requirements and model optimization
Evaluation metrics for language models
SLMs in Natural Language Processing
Text generation with SLMs
Language translation and localization
Sentiment analysis and text classification
Question answering and chatbots
Real-world Applications of SLMs
Mobile applications: On-device language processing
Comparative study: SLMs vs. large models in production
Future Directions
Research trends in SLMs
Challenges in scaling and deployment
Ethical considerations and responsible AI
The road ahead: Next-generation SLMs
Hands-on Workshops
Building a simple SLM for text generation
Integrating SLMs into mobile apps
Fine-tuning SLMs for specific tasks
Performance analysis and model interpretability
Capstone Project
Identifying a problem space for SLM application
Designing and implementing an SLM solution
Testing and iterating on the model
Presenting the project and outcomes
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715280132
[source_title] => Small Language Models (SLMs): Applications and Innovations
[source_language] => en
[cert_code] =>
[weight] => -1001
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slms
)
[slmsdsa] => stdClass Object
(
[course_code] => slmsdsa
[hr_nid] => 479651
[title] => Small Language Models (SLMs) for Domain-Specific Applications
[requirements] =>
Basic understanding of machine learning concepts
Familiarity with Python programming
Knowledge of natural language processing fundamentals
Audience
Data scientists
Machine learning engineers
[overview] =>
Los modelos de lenguaje pequeños (SLM) son un subconjunto de IA de vanguardia que permite un procesamiento eficiente del lenguaje en dispositivos con recursos computacionales limitados.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a científicos de datos de nivel intermedio e ingenieros de aprendizaje automático que deseen crear y aplicar pequeños modelos de lenguaje adaptados a dominios específicos, como los campos legal, médico y técnico.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la importancia y la aplicación de los modelos de lenguaje específicos del dominio.
Conserve y preprocese conjuntos de datos especializados para el entrenamiento de modelos.
Entrene y ajuste los modelos de lenguaje para aplicaciones específicas del dominio.
Evalúe y compare modelos utilizando métricas relevantes para el dominio.
Implemente modelos de lenguaje específicos del dominio en escenarios del mundo real.
[outline] =>
Introduction to Domain-Specific Language Models
Overview of language models in AI
Importance of specialization in language models
Case studies of successful domain-specific models
Data Curation and Preprocessing
Identifying and collecting domain-specific datasets
Data cleaning and preprocessing techniques
Ethical considerations in dataset creation
Model Training and Fine-Tuning
Introduction to transfer learning and fine-tuning
Selecting base models for domain-specific training
Techniques for effective fine-tuning
Evaluation Metrics and Model Performance
Metrics for domain-specific model evaluation
Benchmarking models against domain-specific tasks
Understanding limitations and trade-offs
Deployment Strategies
Integration of language models into domain-specific applications
Scalability and maintenance of deployed models
Continuous learning and model updates in deployment
Legal Domain Focus
Special considerations for legal language models
Case law and statute corpus for training
Applications in legal research and document analysis
Medical Domain Focus
Challenges in medical language processing
HIPAA compliance and data privacy
Use cases in medical literature review and patient interaction
Technical Domain Focus
Technical jargon and its implications for language models
Collaboration with subject matter experts
Technical documentation generation and code commenting
Project and Assessment
Project proposal and initial dataset collection
Presentation of a completed project and model performance
Final assessment and feedback
Summary and Next Steps
[language] => en
[duration] => 28
[status] => published
[changed] => 1715281386
[source_title] => Small Language Models (SLMs) for Domain-Specific Applications
[source_language] => en
[cert_code] =>
[weight] => -1002
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsdsa
)
[slmseeai] => stdClass Object
(
[course_code] => slmseeai
[hr_nid] => 479667
[title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[requirements] =>
Solid understanding of deep learning concepts
Proficiency in Python programming
Experience with model optimization techniques
Audience
Machine learning engineers
AI researchers and practitioners
Environmental advocates within the tech industry
[overview] =>
Los modelos de lenguaje pequeños (SLM) son alternativas eficientes a los modelos más grandes, ya que ofrecen un rendimiento comparable con requisitos computacionales y energéticos significativamente reducidos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático e investigadores de IA de nivel avanzado que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a ingenieros de aprendizaje automático de nivel avanzado e investigadores de IA que deseen desarrollar soluciones de IA energéticamente eficientes con modelos de lenguaje pequeños que sean potentes y respetuosos con el medio ambiente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el consumo de energía y el medio ambiente.
Aplique técnicas de compresión y optimización de modelos para reducir el tamaño y el uso de energía de los modelos de IA.
Utilice marcos de hardware y software energéticamente eficientes para la implementación de IA.
Implementar las mejores prácticas para el desarrollo sostenible de la IA.
Abogar y contribuir a las prácticas sostenibles en la industria de la IA.
[outline] =>
Introduction to Energy-Efficient AI
The significance of sustainability in AI
Overview of energy consumption in machine learning
Case studies of energy-efficient AI implementations
Compact Model Architectures
Understanding model size and complexity
Techniques for designing small yet effective models
Comparing different model architectures for efficiency
Optimization and Compression Techniques
Model pruning and quantization
Knowledge distillation for smaller models
Efficient training methods to reduce energy usage
Hardware Considerations for AI
Selecting energy-efficient hardware for training and inference
The role of specialized processors like TPUs and FPGAs
Balancing performance and power consumption
Green Coding Practices
Writing energy-efficient code
Profiling and optimizing AI algorithms
Best practices for sustainable software development
Renewable Energy and AI
Integrating renewable energy sources in AI operations
Data center sustainability
The future of green AI infrastructure
Lifecycle Assessment of AI Systems
Measuring the carbon footprint of AI models
Strategies for reducing environmental impact throughout the AI lifecycle
Case studies on lifecycle assessment in AI
Policy and Regulation for Sustainable AI
Understanding global standards and regulations
The role of policy in promoting energy-efficient AI
Ethical considerations and societal impact
Project and Assessment
Developing a prototype using small language models in a chosen domain
Presentation of the energy-efficient AI system
Evaluation based on technical efficiency, innovation, and environmental contribution
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715307649
[source_title] => Small Language Models (SLMs): Developing Energy-Efficient AI
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmseeai
)
[slmshai] => stdClass Object
(
[course_code] => slmshai
[hr_nid] => 479659
[title] => Small Language Models (SLMs) for Human-AI Interactions
[requirements] =>
Basic understanding of Artificial Intelligence and Machine Learning
Proficiency in Python programming
Experience with Natural Language Processing concepts
Audience
Data scientists
Machine learning engineers
AI researchers and developers
Product managers and UX designers
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas compactas pero potentes para permitir interacciones sofisticadas entre humanos e IA en diversas aplicaciones, incluida la IA conversacional y los bots de servicio al cliente.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o presencial) está dirigida a científicos de datos de nivel intermedio, aprendizaje automático e investigadores de IA que deseen crear experiencias conversacionales atractivas y eficientes impulsadas por IA con modelos de lenguaje pequeños.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de la IA conversacional y el papel de los SLM.
Diseñe e implemente interacciones de IA centradas en el usuario.
Desarrollar y entrenar SLM para aplicaciones interactivas.
Evalúe y mejore la eficacia de la comunicación entre humanos e IA utilizando las métricas adecuadas.
Implemente interfaces conversacionales escalables y éticas impulsadas por IA en escenarios del mundo real.
[outline] =>
Introduction to Conversational AI and Small Language Models (SLMs)
Fundamentals of conversational AI
Overview of SLMs and their advantages
Case studies of SLMs in interactive applications
Designing Conversational Flows
Principles of human-AI interaction design
Crafting engaging and natural dialogues
User experience (UX) considerations
Building Customer Service Bots
Use cases for customer service bots
Integrating SLMs into customer service platforms
Handling common customer inquiries with AI
Training SLMs for Interaction
Data collection for conversational AI
Training techniques for SLMs in dialogue systems
Fine-tuning models for specific interaction scenarios
Ensuring inclusivity and fairness in AI communication
Deployment and Scaling
Strategies for deploying conversational AI systems
Scaling SLMs for widespread use
Monitoring and maintaining AI interactions post-deployment
Capstone Project
Identifying a need for conversational AI in a chosen domain
Developing a prototype using SLMs
Testing and presenting the interactive application
Final Assessment
Submission of a capstone project report
Demonstration of a functional conversational AI system
Evaluation based on innovation, user engagement, and technical execution
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1715283400
[source_title] => Small Language Models (SLMs) for Human-AI Interactions
[source_language] => en
[cert_code] =>
[weight] => -1003
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmshai
)
[slmsodai] => stdClass Object
(
[course_code] => slmsodai
[hr_nid] => 479671
[title] => Small Language Models (SLMs) for On-Device AI
[requirements] =>
Strong foundation in machine learning and deep learning concepts
Proficiency in Python programming
Basic knowledge of hardware constraints for AI deployment
Audience
Machine learning engineers and AI developers
Embedded systems engineers interested in AI applications
Product managers and technical leads overseeing AI projects
[overview] =>
Los modelos de lenguaje pequeño (SLM) son herramientas de IA eficientes y versátiles que se pueden implementar en una variedad de dispositivos, desde teléfonos inteligentes hasta dispositivos IoT, lo que permite aplicaciones inteligentes en el dispositivo.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar pequeños modelos de lenguaje directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean implementar modelos de lenguaje pequeños directamente en dispositivos con capacidades de procesamiento limitadas, lo que abre posibilidades para aplicaciones innovadoras en diversos sectores.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los desafíos y las soluciones para implementar la IA en hardware compacto.
Optimice y comprima los modelos de IA para una implementación eficiente en el dispositivo.
Utilice marcos y herramientas de IA modernos para la implementación de modelos en el dispositivo.
Diseñe y desarrolle aplicaciones de IA en tiempo real para dispositivos móviles e IoT.
Evalúe y garantice la seguridad y privacidad de los sistemas de IA en el dispositivo.
[outline] =>
Introduction to On-Device AI
Fundamentals of on-device machine learning
Advantages and challenges of small language models
Overview of hardware constraints in mobile and IoT devices
Model Optimization for On-Device Deployment
Model quantization and pruning
Knowledge distillation for smaller, efficient models
Selecting and adapting models for on-device performance
Platform-Specific AI Tools and Frameworks
Introduction to TensorFlow Lite and PyTorch Mobile
Utilizing platform-specific libraries for on-device AI
Cross-platform deployment strategies
Real-Time Inference and Edge Computing
Techniques for fast and efficient inference on devices
Leveraging edge computing for on-device AI
Case studies of real-time AI applications
Power Management and Battery Life Considerations
Optimizing AI applications for energy efficiency
Balancing performance and power consumption
Strategies for extending battery life in AI-powered devices
Security and Privacy in On-Device AI
Ensuring data security and user privacy
On-device data processing for privacy preservation
Secure model updates and maintenance
User Experience and Interaction Design
Designing intuitive AI interactions for device users
Integrating language models with user interfaces
User testing and feedback for on-device AI
Scalability and Maintenance
Managing and updating models on deployed devices
Strategies for scalable on-device AI solutions
Monitoring and analytics for deployed AI systems
Project and Assessment
Developing a prototype in a chosen domain and preparing for deployment on a selected device
Presentation of the on-device AI solution
Evaluation based on efficiency, innovation, and practicality
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1715323768
[source_title] => Small Language Models (SLMs) for On-Device AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] => hitrait
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => slmsodai
)
[geminiai] => stdClass Object
(
[course_code] => geminiai
[hr_nid] => 476043
[title] => Introduction to Google Gemini AI
[requirements] =>
An understanding of basic AI concepts
Experience with APIs and cloud services
Python programming experience
Audience
Developers
Data Scientists
AI Enthusiasts
[overview] =>
Google Gemini AI es un modelo de lenguaje grande de vanguardia que ofrece capacidades avanzadas de IA, como la comprensión del lenguaje natural, la generación de texto y la búsqueda semántica, lo que permite a los desarrolladores crear aplicaciones impulsadas por IA más intuitivas y receptivas.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los fundamentos de los modelos de lenguaje grandes.
Configure y use Google Gemini AI para varias tareas de IA.
Implemente transformaciones de texto a texto e imagen a texto.
Cree aplicaciones básicas impulsadas por IA.
Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
[outline] =>
Introduction to AI and Google Gemini
What is Artificial Intelligence (AI)?
Overview of Google Gemini AI
Significance of Google Gemini in the AI landscape
Understanding Large Language Models (LLMs)
Fundamentals of LLMs
The architecture of Google Gemini
Comparing Gemini with other AI models
Getting Started with Google Gemini
Setting up the environment
Obtaining and using the API key
Introduction to Gemini's API and functionalities
Working with Gemini Models
Exploring different Gemini models
Selecting the right model for your project
Initializing the Generative Model
Practical Applications of Gemini AI
Text-to-text transformations
Text and image-to-text capabilities
Building chat applications with Gemini
Ethical considerations and responsible AI use
Advanced Features and Customization
Deep dive into Gemini's advanced features
Customizing responses and fine-tuning models
Exploring multimodal capabilities
Project - Building an AI Code Buddy
Step-by-step guide to building a simple AI chatbot
Integrating Gemini AI into your applications
Best practices and troubleshooting
Summary and Next Steps
[language] => en
[duration] => 14
[status] => published
[changed] => 1711952394
[source_title] => Introduction to Google Gemini AI
[source_language] => en
[cert_code] =>
[weight] => -1005
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiai
)
[geminiaiforcontentcreation] => stdClass Object
(
[course_code] => geminiaiforcontentcreation
[hr_nid] => 476187
[title] => Google Gemini AI for Content Creation
[requirements] =>
An understanding of basic content creation principles
Experience with digital marketing tools
Creative writing skills
Audience
Content creators
Digital marketers
SEO specialists
[overview] =>
Google Gemini AI es una herramienta transformadora para los creadores de contenido, que ofrece capacidades que agilizan el proceso de creación de contenido para diversos medios, como contenido web, materiales de marketing y proyectos multimedia.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el papel de la IA en la creación de contenidos.
Configura y usa Google Gemini AI para generar y optimizar contenido.
Aplica transformaciones de texto a texto para producir contenido creativo y original.
Implemente estrategias de SEO utilizando información impulsada por IA.
Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
[outline] =>
Introduction to AI-Powered Content Creation
The role of AI in content creation
Overview of Google Gemini AI's capabilities for creators
Setting Up Google Gemini for Content Projects
Technical setup for Gemini AI
Integrating Gemini AI with content management systems
Automating Content Generation with Gemini AI
Using Gemini AI for blog posts, articles, and scripts
Enhancing creativity with AI prompts and suggestions
Maintaining originality and brand voice
Personalizing Content with Gemini AI
Tailoring content to different audiences
Improving user engagement with data-driven insights
SEO Optimization with Gemini AI
Understanding SEO fundamentals
Utilizing Gemini AI for keyword research and optimization
Analyzing Content Performance with Gemini AI
Measuring content effectiveness
Using AI to adapt content strategies based on analytics
Project - Creating a Content Campaign
Developing a content plan using Gemini AI
Executing and monitoring the campaign
Conclusion and Future of AI in Content Creation
Recap of key learnings
Emerging trends and staying ahead in content creation with AI
[language] => en
[duration] => 14
[status] => published
[changed] => 1711653905
[source_title] => Google Gemini AI for Content Creation
[source_language] => en
[cert_code] =>
[weight] => -1007
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcontentcreation
)
[geminiaiforcustomerservice] => stdClass Object
(
[course_code] => geminiaiforcustomerservice
[hr_nid] => 476047
[title] => Google Gemini AI for Transformative Customer Service
[requirements] =>
An understanding of customer service principles
Experience with customer relationship management (CRM) systems
Data analysis experience
Audience
Customer service managers
Customer experience specialists
Operational managers
[overview] =>
Gemini AI es una herramienta versátil diseñada para revolucionar las interacciones de servicio al cliente al aprovechar algoritmos avanzados de aprendizaje automático para comprender y responder a las consultas de los clientes en tiempo real, automatizar tareas rutinarias y proporcionar información procesable a partir de los datos de los clientes, mejorando así la experiencia general del cliente y la eficiencia operativa.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
Comprender el impacto de la IA en el servicio al cliente.
Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
[outline] =>
Introduction to AI in Customer Service
The role of AI in modern customer service
Overview of Google Gemini AI capabilities
Setting Up Google Gemini for Customer Interactions
Technical setup for Gemini AI
Integrating Gemini AI with customer service platforms
Automating Customer Support with Gemini AI
Designing AI-driven response systems
Training Gemini AI on company-specific data
Enhancing Customer Engagement
Personalizing customer interactions with AI
Using Gemini AI for customer sentiment analysis
Analyzing Customer Feedback with Gemini AI
Gathering insights from customer interactions
Improving products and services based on AI analysis
Identifing trends and patterns in customer behavior
Case Studies and Best Practices
Success stories of AI in customer service
Ethical considerations and maintaining human touch
Project - Implementing Gemini AI Chatbot
Building a chatbot using Gemini AI
Testing and deploying the chatbot
Conclusion and Future Trends
Recap of key learnings
The future of AI in customer service
[language] => en
[duration] => 14
[status] => published
[changed] => 1711648466
[source_title] => Google Gemini AI for Transformative Customer Service
[source_language] => en
[cert_code] =>
[weight] => -1006
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaiforcustomerservice
)
[geminiaifordataanalysis] => stdClass Object
(
[course_code] => geminiaifordataanalysis
[hr_nid] => 476191
[title] => Google Gemini AI for Data Analysis
[requirements] =>
Basic understanding of data analysis concepts
Familiarity with data visualization tools is recommended
Audience
Data analysts
Business professionals
[overview] =>
Google Gemini AI es una herramienta de vanguardia que proporciona a los usuarios interfaces visuales y de lenguaje natural para mejorar la exploración, el análisis, la visualización y la comunicación de datos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que deseen realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en varias industrias utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
Comprenda los fundamentos de Google Gemini AI.
Conecte varias fuentes de datos a Gemini AI.
Explore los datos mediante consultas en lenguaje natural.
Analice patrones de datos y obtenga información.
Cree visualizaciones de datos atractivas.
Comunique información basada en datos de manera efectiva.
[outline] =>
Introduction to Google Gemini AI
Overview of AI in data analysis
Capabilities of Google Gemini AI
Setting up the Gemini AI environment
Connecting Data Sources
Importing data into Gemini AI
Data cleaning and preprocessing
Ensuring data security and privacy
Exploring Data with Gemini AI
Using natural language queries
Understanding Gemini AI's responses
Advanced query techniques
Data Analysis and Insights
Identifying patterns and anomalies
Statistical analysis with Gemini AI
Predictive modeling and forecasting
Data Visualization
Designing effective visualizations
Customizing charts and graphs
Interactive dashboards with Gemini AI
Communicating Insights
Storytelling with data
Preparing reports and presentations
Best practices for data-driven decision making
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1711656398
[source_title] => Google Gemini AI for Data Analysis
[source_language] => en
[cert_code] =>
[weight] => -1008
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => geminiaifordataanalysis
)
[generativeaillm] => stdClass Object
(
[course_code] => generativeaillm
[hr_nid] => 463251
[title] => Generative AI with Large Language Models (LLMs)
[requirements] =>
An understanding of machine learning concepts, such as supervised and unsupervised learning, loss functions, and data splitting
Experience with Python programming and data manipulation
Basic knowledge of neural networks and natural language processing
Audience
Developers
Machine learning enthusiasts
[overview] =>
La IA generativa es un tipo de IA que puede crear contenido original como texto, imágenes, música y código. Los modelos de lenguaje grandes (LLM) son potentes redes neuronales que pueden procesar y generar lenguaje natural.
Esta formación en directo dirigida por un instructor (en línea o presencial) está dirigida a desarrolladores de nivel intermedio que deseen aprender a utilizar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel intermedio que desean aprender a usar la IA generativa con LLM para diversas tareas y dominios.
Al final de esta capacitación, los participantes serán capaces de:
Explicar qué es la IA generativa y cómo funciona.
Describir la arquitectura del transformador que alimenta los LLM.
Utilice leyes de escalado empírico para optimizar los LLM para diferentes tareas y restricciones.
Aplique herramientas y métodos de última generación para entrenar, ajustar e implementar LLM.
Discutir las oportunidades y los riesgos de la IA generativa para la sociedad y las empresas.
[outline] =>
Introduction to Generative AI
What is generative AI and why is it important?
Main types and techniques of generative AI
Key challenges and limitations of generative AI
Transformer Architecture and LLMs
What is a transformer and how does it work?
Main components and features of a transformer
Using transformers to build LLMs
Scaling Laws and Optimization
What are scaling laws and why are they important for LLMs?
How do scaling laws relate to the model size, data size, compute budget, and inference requirements?
How can scaling laws help optimize the performance and efficiency of LLMs?
Training and Fine-Tuning LLMs
Main steps and challenges of training LLMs from scratch
Benefits and drawbacks of fine-tuning LLMs for specific tasks
Best practices and tools for training and fine-tuning LLMs
Deploying and Using LLMs
Main considerations and challenges of deploying LLMs in production
Common use cases and applications of LLMs in various domains and industries
Integrating LLMs with other AI systems and platforms
Ethics and Future of Generative AI
Ethical and social implications of generative AI and LLMs
Potential risks and harms of generative AI and LLMs, such as bias, misinformation, and manipulation
Responsible and beneficial use of generative AI and LLMs
Summary and Next Steps
[language] => en
[duration] => 21
[status] => published
[changed] => 1709073362
[source_title] => Generative AI with Large Language Models (LLMs)
[source_language] => en
[cert_code] =>
[weight] => -1004
[excluded_sites] =>
[use_mt] => stdClass Object
(
[field_overview] =>
[field_course_outline] =>
[field_prerequisits] =>
[field_overview_in_category] =>
)
[cc] => generativeaillm
)
[llamaindex] => stdClass Object
(
[course_code] => llamaindex
[hr_nid] => 476587
[title] => LlamaIndex: Enhancing Contextual AI
[requirements] =>
Basic understanding of AI and machine learning concepts
Familiarity with Large Language Models (LLMs)
Experience with programming and data handling
Audience
AI researchers
Machine learning professionals
Data scientists
[overview] =>
LlamaIndex es un marco de datos de código abierto diseñado para aplicaciones que usan Large Language Models (LLMs) y se benefician del aumento de contexto. Es particularmente útil para los sistemas conocidos como sistemas de generación aumentada de recuperación (RAG).
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a investigadores de IA de nivel intermedio, profesionales del aprendizaje automático y científicos de datos que deseen utilizar LlamaIndex para mejorar las capacidades de los modelos de IA, haciéndolos más precisos y confiables para diversas aplicaciones.
Al final de esta capacitación, los participantes serán capaces de:
Comprender los principios y componentes de LlamaIndex.
Ingesta y estructura de datos para su uso con LLM.
Implemente el aumento de contexto para mejorar el rendimiento del modelo de IA.
Integre LlamaIndex en los sistemas y flujos de trabajo de IA existentes.
[outline] =>
Introduction to LlamaIndex and Context Augmentation
Overview of LlamaIndex
The role of context augmentation in AI
Benefits of using LlamaIndex with LLMs
Setting Up LlamaIndex
Installation and configuration
Understanding the architecture and components
Data connectors and ingestion
Data Indexing and Access
Creating data indexes for efficient access
Query engines and natural language access
Best practices for data structuring
Integrating LlamaIndex with LLMs
Enhancing LLMs with contextually relevant data
Practical exercises: Augmenting chatbots and text generators
An understanding of Python programming and basic machine learning concepts
Experience with APIs and application development
Familiarity with natural language processing is beneficial but not required
Audience
Developers
Data scientists
[overview] =>
LlamaIndex es una poderosa herramienta de indexación diseñada para mejorar las capacidades de Large Language Models (LLMs) al permitirles recuperar y utilizar conjuntos de datos personalizados de manera efectiva.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores y científicos de datos de nivel principiante a avanzado que deseen dominar LlamaIndex para desarrollar aplicaciones innovadoras impulsadas por LLM.
Al final de esta capacitación, los participantes serán capaces de:
Instale y configure LlamaIndex para su uso con LLM.
Indexe y consulte conjuntos de datos personalizados utilizando LlamaIndex para mejorar la funcionalidad de LLM.
Diseñe y desarrolle aplicaciones sofisticadas que utilicen LlamaIndex y LLM.
Comprender y aplicar las mejores prácticas para trabajar con LLM y LlamaIndex.
Navegue por las consideraciones éticas implicadas en la implementación de aplicaciones con tecnología LLM.
[outline] =>
Introduction to LlamaIndex
Understanding LlamaIndex and its role in LLMs
Setting up LlamaIndex: environment and prerequisites
The basics of indexing custom data
LlamaIndex in Action
Querying with LlamaIndex: techniques and best practices
Building query and chat engines with LlamaIndex
Creating intuitive Streamlit interfaces for LLM applications
Advanced LlamaIndex Features
Employing retrieval-augmented generation (RAG) for enhanced data retrieval
Leveraging vectorstores for efficient data management
Designing and implementing LlamaIndex agents
Application Development with LlamaIndex
Prompt engineering: chain of thought, ReAct, few-shot prompting
Developing a documentation helper: a real-world LLM application
Debugging and testing LLM applications
Deployment and Scaling
Deploying LlamaIndex-based applications
Scaling LLM applications for high performance
Monitoring and optimizing LLM applications
Ethical and Practical Considerations
Navigating ethical implications in LLM applications
Ensuring privacy and data security with LlamaIndex
Preparing for future developments in LLM technology
An understanding of natural language processing and deep learning
Experience with Python and PyTorch or TensorFlow
Basic programming experience
Audience
Developers
NLP enthusiasts
Data scientists
[overview] =>
Los modelos de lenguaje grandes (LLM) son modelos de redes neuronales profundas que pueden generar textos en lenguaje natural basados en una entrada o contexto determinado. Están entrenados con grandes cantidades de datos de texto de varios dominios y fuentes, y pueden capturar los patrones sintácticos y semánticos del lenguaje natural. Los LLM han logrado resultados impresionantes en varias tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos y más.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
Formato del curso
Conferencia interactiva y discusión.
Muchos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
[category_overview] =>
Esta capacitación en vivo dirigida por un instructor en <loc> (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen utilizar modelos de lenguaje grandes para diversas tareas de lenguaje natural.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya un LLM popular.
Cree un LLM básico y ajústelo en un conjunto de datos personalizado.
Utilice los LLM para diferentes tareas de lenguaje natural, como el resumen de textos, la respuesta a preguntas, la generación de textos, etc.
Depura y evalúa los LLM con herramientas como TensorBoard, PyTorch Lightning y Hugging Face Datasets.
[outline] =>
Introduction
What are Large Language Models (LLMs)?
LLMs vs traditional NLP models
Overview of LLMs features and architecture
Challenges and limitations of LLMs
Understanding LLMs
The lifecycle of an LLM
How LLMs work
The main components of an LLM: encoder, decoder, attention, embeddings, etc.
Getting Started
Setting up the Development Environment
Installing an LLM as a development tool, e.g. Google Colab, Hugging Face
Working with LLMs
Exploring available LLM options
Creating and using an LLM
Fine-tuning an LLM on a custom dataset
Text Summarization
Understanding the task of text summarization and its applications
Using an LLM for extractive and abstractive text summarization
Evaluating the quality of the generated summaries using metrics such as ROUGE, BLEU, etc.
Question Answering
Understanding the task of question answering and its applications
Using an LLM for open-domain and closed-domain question answering
Evaluating the accuracy of the generated answers using metrics such as F1, EM, etc.
Text Generation
Understanding the task of text generation and its applications
Using an LLM for conditional and unconditional text generation
Controlling the style, tone, and content of the generated texts using parameters such as temperature, top-k, top-p, etc.
Integrating LLMs with Other Frameworks and Platforms
Using LLMs with PyTorch or TensorFlow
Using LLMs with Flask or Streamlit
Using LLMs with Google Cloud or AWS
Troubleshooting
Understanding the common errors and bugs in LLMs
Using TensorBoard to monitor and visualize the training process
Using PyTorch Lightning to simplify the training code and improve the performance
Using Hugging Face Datasets to load and preprocess the data