Diplomado en TinyML: Cuantización, Pruning y Compilación On-Device

Sobre nuestro Diplomado en TinyML: Cuantización, Pruning y Compilación On-Device

El Diplomado en TinyML: Cuantización, Pruning y Compilación On-Device se centra en la optimización de modelos de aprendizaje automático para su ejecución en dispositivos con recursos limitados. Explora técnicas de cuantización, pruning y compilación on-device, permitiendo la implementación eficiente de modelos en microcontroladores y sistemas embebidos. El diplomado aborda la reducción del tamaño y la complejidad de los modelos, sin comprometer su rendimiento, para facilitar aplicaciones en IoT y Edge Computing.

Los participantes adquieren habilidades prácticas en la aplicación de estas técnicas para inferencia en dispositivos con restricciones de memoria y poder de procesamiento. Se enfoca en el desarrollo de soluciones de TinyML, incluyendo la optimización de modelos para detección de objetos, reconocimiento de voz y sensores inteligentes, con herramientas y frameworks especializados. Esta formación prepara para roles como ingenieros de machine learning embebido, desarrolladores de TinyML y especialistas en optimización de modelos, impulsando la innovación en el campo de la inteligencia artificial en dispositivos.

Palabras clave objetivo (naturales en el texto): TinyML, cuantización, pruning, compilación on-device, microcontroladores, sistemas embebidos, aprendizaje automático, IoT, Edge Computing, inferencia.

Cuantización
Diplomado en TinyML: Cuantización, Pruning y Compilación On-Device

875 $

Competencias y resultados

Qué aprenderás

1. Dominio de Cuantización, Pruning y Compilación On-Device en TinyML

  • Comprender los fundamentos de la cuantización, reduciendo el tamaño de los modelos.
  • Aplicar técnicas de pruning para eliminar conexiones innecesarias y optimizar la inferencia.
  • Aprender a compilar modelos TinyML para ejecutarlos en dispositivos de baja potencia.
  • Optimizar el rendimiento del modelo para la inferencia on-device, como dispositivos embebidos.
  • Explorar herramientas y frameworks para la cuantización, pruning y compilación.
  • Diseñar e implementar modelos TinyML eficientes para diferentes aplicaciones.

2. Optimización y Despliegue Eficiente de Modelos TinyML: Cuantización, Pruning y Compilación On-Device

  • Comprender los fundamentos de la cuantización para reducir el tamaño de los modelos TinyML sin sacrificar significativamente la precisión.
  • Aplicar técnicas de pruning para eliminar conexiones y parámetros redundantes, optimizando el rendimiento y la eficiencia computacional.
  • Dominar los procesos de compilación on-device, adaptando los modelos TinyML para que funcionen de manera eficiente en dispositivos con recursos limitados.
  • Aprender a seleccionar y utilizar herramientas y frameworks de optimización específicos para TinyML, como TensorFlow Lite, ONNX Runtime y otros.
  • Analizar y mitigar los impactos del despliegue en dispositivos embebidos, considerando aspectos como la memoria, el consumo de energía y la latencia.
  • Implementar estrategias para el análisis de la precisión de los modelos cuantizados y podados, asegurando un rendimiento adecuado.
  • Explorar métodos de transferencia de aprendizaje para acelerar el desarrollo de modelos TinyML y mejorar su rendimiento en diferentes tareas.
  • Comprender las consideraciones de seguridad y privacidad en el despliegue de modelos TinyML en dispositivos edge.
  • Aplicar los conocimientos adquiridos en proyectos prácticos y estudios de caso relacionados con la visión por computador, el procesamiento del habla y la detección de sensores.
  • Evaluar el impacto de las técnicas de optimización en el tamaño del modelo, la velocidad de inferencia y el consumo de energía de los dispositivos TinyML.

3. Diseño y validación integral orientado al usuario (del modelado a la manufactura)

Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.

4. Implementación Avanzada de Cuantización, Pruning y Compilación On-Device en TinyML

4. Implementación Avanzada de Cuantización, Pruning y Compilación On-Device en TinyML

  • Entender y aplicar técnicas de cuantización para reducir el tamaño y la complejidad de modelos TinyML, incluyendo cuantización post-entrenamiento y aware.
  • Dominar métodos de pruning (poda) para eliminar conexiones y pesos innecesarios en redes neuronales, optimizando la eficiencia computacional.
  • Aprender a realizar la compilación on-device, transformando modelos entrenados en formatos optimizados para la ejecución en dispositivos de recursos limitados.
  • Explorar plataformas y frameworks específicos para TinyML, como TensorFlow Lite, y su integración en diferentes hardware.
  • Analizar y optimizar el rendimiento de modelos TinyML en términos de latencia, consumo de energía y precisión.
  • Implementar estrategias avanzadas para la optimización de memoria y almacenamiento en dispositivos embebidos.
  • Aplicar técnicas de compilación de modelos para diferentes arquitecturas de hardware (microcontroladores, MCUs, etc.).
  • Utilizar herramientas de perfilado y depuración para identificar y solucionar problemas de rendimiento en TinyML.

5. Maestría en Cuantización, Pruning y Compilación On-Device para TinyML de Alto Rendimiento

  • Profundizar en los fundamentos de la cuantización para reducir el tamaño y la complejidad de los modelos TinyML.
  • Dominar las técnicas de pruning, incluyendo el pruning estructurado y no estructurado, para optimizar la arquitectura de la red neuronal.
  • Aplicar métodos de compilación on-device para optimizar el rendimiento de los modelos TinyML en dispositivos de recursos limitados.
  • Explorar estrategias avanzadas para la aceleración de hardware en plataformas TinyML, como el uso de DSPs y TPUs.
  • Aprender a evaluar y optimizar el rendimiento de los modelos TinyML, considerando métricas como la precisión, la latencia y el consumo de energía.
  • Estudiar casos de uso reales de TinyML de alto rendimiento, incluyendo aplicaciones en visión por computadora, detección de voz y sensores inteligentes.
  • Comprender los desafíos específicos de la implementación de modelos TinyML en entornos de producción, como la gestión de datos, la seguridad y la escalabilidad.
  • Familiarizarse con las herramientas y frameworks de desarrollo más populares para TinyML, incluyendo TensorFlow Lite, PyTorch Mobile y CMSIS-NN.
  • Analizar las tendencias futuras en TinyML, incluyendo la investigación en nuevos algoritmos, arquitecturas de hardware y aplicaciones emergentes.
  • Desarrollar habilidades prácticas a través de proyectos y laboratorios que permitan la creación y el despliegue de modelos TinyML de alto rendimiento en dispositivos reales.

6. Especialización en Cuantización, Pruning y Compilación On-Device para TinyML: Optimización y Despliegue

Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.

Cuantización

Para quien va dirigido nuestro:

Diplomado en TinyML: Cuantización, Pruning y Compilación On-Device

  • Ingenieros/as graduados/as en Ingeniería Aeroespacial, Mecánica, Industrial, Automática o disciplinas relacionadas, que deseen profundizar en el ámbito de TinyML.
  • Profesionales que se desempeñen en empresas OEM (fabricantes de equipos originales) del sector de rotorcraft/eVTOL (vehículos de despegue y aterrizaje vertical eléctrico), empresas de MRO (mantenimiento, reparación y overhaul), consultoría tecnológica y centros tecnológicos, interesados en aplicar TinyML en sus proyectos.
  • Expertos en áreas como Flight Test (pruebas de vuelo), certificación de aeronaves, aviónica, control de vuelo y dinámica de vuelo, que busquen adquirir conocimientos especializados en la implementación de TinyML.
  • Funcionarios de organismos reguladores y autoridades aeronáuticas, así como profesionales involucrados en proyectos de UAM/eVTOL (movilidad aérea urbana/vehículos de despegue y aterrizaje vertical eléctrico), que necesiten desarrollar competencias en compliance (cumplimiento normativo) y la aplicación de TinyML.
  • Standards-driven curriculum: trabajarás con CS-27/CS-29, DO-160, DO-178C/DO-254, ARP4754A/ARP4761, ADS-33E-PRF desde el primer módulo.
  • Laboratorios acreditables (EN ISO/IEC 17025) con banco de rotor, EMC/Lightning pre-compliance, HIL/SIL, vibraciones/acústica.
  • TFM orientado a evidencia: safety case, test plan, compliance dossier y límites operativos.
  • Mentorado por industria: docentes con trayectoria en rotorcraft, tiltrotor, eVTOL/UAM y flight test.
  • Modalidad flexible (híbrido/online), cohortes internacionales y soporte de SEIUM Career Services.
  • Ética y seguridad: enfoque safety-by-design, ciber-OT, DIH y cumplimiento como pilares.

Módulo 1 — Introducción a la Cuantización, Pruning y TinyML

1.1 ¿Qué es TinyML y su importancia en dispositivos limitados?
1.2 Fundamentos de la Cuantización: tipos y beneficios.
1.3 Introducción al Pruning: definición y métodos básicos.
1.4 El proceso de Compilación On-Device: conceptos clave.
1.5 Desafíos y oportunidades en el desarrollo de TinyML.
1.6 Hardware de baja potencia y su compatibilidad con TinyML.
1.7 Flujos de trabajo típicos en TinyML: de datos a despliegue.
1.8 Herramientas y librerías esenciales para TinyML.
1.9 Casos de uso iniciales de TinyML: ejemplos prácticos.
1.10 Exploración de las tendencias futuras en TinyML.

2. 2 Introducción a la Optimización TinyML: Conceptos Clave
3. 2 Cuantización en TinyML: Reducción de Tamaño y Memoria
4. 3 Tipos de Cuantización: Entera, de Rango Dinámico y Simétrica
5. 4 Pruning en TinyML: Eliminación de Pesos Irrelevantes
6. 5 Técnicas de Pruning: L2, L2, y Pruning Estructurado
7. 6 Compilación On-Device: Adaptación para Hardware Limitado
8. 7 Frameworks de Optimización: TensorFlow Lite, PyTorch Mobile
9. 8 Evaluación del Rendimiento: Precisión, Latencia y Tamaño del Modelo
20. 9 Casos de Estudio: Optimización de Modelos para Diferentes Dispositivos
22. 20 Despliegue de Modelos Optimizados: Consideraciones Prácticas

3.3 Fundamentos de Cuantización en TinyML: Tipos y Técnicas
3.2 Pruning en TinyML: Estrategias de Reducción de Complejidad
3.3 Compilación On-Device: Herramientas y Flujos de Trabajo
3.4 Impacto de Cuantización en la Precisión del Modelo
3.5 Estrategias Avanzadas de Pruning para la Optimización
3.6 Integración de la Compilación On-Device en el Flujo de Desarrollo
3.7 Evaluación del Rendimiento: Métricas Clave en TinyML
3.8 Optimización de Modelos para Dispositivos Limitados
3.9 Despliegue de Modelos Cuantizados y Podados
3.30 Estudio de Caso: Análisis Comparativo de Técnicas

4.4 Introducción a la Cuantización, Pruning y Compilación On-Device en TinyML
4.2 Estrategias Avanzadas de Cuantización para TinyML
4.3 Técnicas de Pruning para la Reducción de Modelos TinyML
4.4 Compilación On-Device: Optimización para Diferentes Hardware
4.5 Implementación de Cuantización con Frameworks Populares
4.6 Implementación de Pruning con Frameworks Populares
4.7 Flujos de Trabajo de Compilación On-Device Avanzados
4.8 Evaluación y Análisis de Rendimiento: Métricas Clave
4.9 Despliegue en Dispositivos de Bajas Recursos
4.40 Estudios de Caso: Implementaciones TinyML Avanzadas

5.5 Introducción a TinyML: Conceptos básicos y aplicaciones.
5.5 Fundamentos de Cuantización: Tipos y beneficios.
5.3 Fundamentos de Pruning: Técnicas y selección.
5.4 Fundamentos de la Compilación On-Device: Herramientas y flujos de trabajo.
5.5 Introducción a los datasets y herramientas de optimización.

5.5 Técnicas avanzadas de Cuantización: métodos adaptativos.
5.5 Estrategias de Pruning: Pruning Estructurado vs. No Estructurado.
5.3 Compilación On-Device: Optimización del rendimiento en dispositivos específicos.
5.4 Despliegue eficiente: Consideraciones de memoria y energía.
5.5 Herramientas y plataformas de despliegue TinyML.

3.5 Selección de modelos TinyML para optimización.
3.5 Ajuste fino de Cuantización y Pruning.
3.3 Evaluación de métricas de rendimiento.
3.4 Diseño de experimentos para optimización.
3.5 Estudio de casos de optimización en diferentes escenarios.

4.5 Implementación práctica de Cuantización: bibliotecas y frameworks.
4.5 Implementación práctica de Pruning: selección de criterios.
4.3 Implementación práctica de Compilación On-Device: ejemplos de código.
4.4 Debugging y resolución de problemas en la implementación.
4.5 Desarrollo de un proyecto TinyML completo.

5.5 Arquitecturas de redes neuronales para alto rendimiento.
5.5 Estrategias avanzadas de Cuantización: técnicas mixtas.
5.3 Pruning dinámico y adaptativo.
5.4 Optimización de la compilación para hardware específico.
5.5 Evaluación de métricas avanzadas de rendimiento.
5.6 Estudio de casos de alto rendimiento.

6.5 Selección de modelos y arquitecturas optimizadas.
6.5 Diseño de pipelines de optimización y despliegue.
6.3 Estrategias de despliegue para dispositivos con recursos limitados.
6.4 Análisis de costos y beneficios.
6.5 Estudio de casos de optimización y despliegue.

7.5 Limitaciones de los dispositivos: memoria, energía y computación.
7.5 Optimización de modelos para dispositivos con recursos limitados.
7.3 Selección y adaptación de arquitecturas.
7.4 Técnicas avanzadas de Cuantización y Pruning para dispositivos.
7.5 Despliegue y evaluación en dispositivos reales.

8.5 Selección de herramientas de compilación.
8.5 Compilación para diferentes arquitecturas de hardware.
8.3 Optimización de la compilación para rendimiento y eficiencia.
8.4 Compilación de modelos con Cuantización y Pruning.
8.5 Evaluación del rendimiento del modelo compilado.

6.6 Introducción a la Cuantización, Pruning y Compilación On-Device en TinyML

6.2 Estrategias de Cuantización para Modelos TinyML

6.3 Técnicas de Pruning para la Reducción de Modelos

6.4 Compilación On-Device: Adaptando Modelos para Hardware Limitado

6.5 Herramientas y Frameworks para Optimización TinyML

6.6 Despliegue y Evaluación de Modelos Optimizados en Dispositivos Reales

6.7 Consideraciones Avanzadas en Cuantización y Pruning

6.8 Optimización del Rendimiento y la Eficiencia Energética

6.9 Estudio de Casos: Aplicaciones Prácticas de TinyML Optimizado

6.60 Tendencias Futuras y Avances en TinyML Optimizado

7.7 Introducción a TinyML y sus desafíos
7.2 Fundamentos de la cuantización
7.3 Introducción al pruning y su impacto
7.4 Compilación On-Device: Conceptos básicos
7.7 Flujos de trabajo de TinyML
7.6 Herramientas y frameworks
7.7 Ejemplos prácticos con datasets básicos

2.7 Estrategias de optimización para modelos TinyML
2.2 Cuantización post-entrenamiento y entrenamiento-aware
2.3 Técnicas de pruning: importancia y selección
2.4 Compilación On-Device: arquitectura y compatibilidad
2.7 Despliegue eficiente: consideraciones de hardware
2.6 Monitorización y evaluación del rendimiento
2.7 Estudios de caso y ejemplos de implementación

3.7 Cuantización: tipos y niveles de precisión
3.2 Pruning: métricas y técnicas de selección
3.3 Ajuste fino y recalibración post-pruning
3.4 Optimización para diferentes arquitecturas de hardware
3.7 Herramientas de perfilado y análisis de rendimiento
3.6 Pruebas y validación de modelos optimizados
3.7 Casos de uso y aplicaciones específicas

4.7 Implementación de cuantización en diferentes frameworks
4.2 Pruning basado en la importancia de los pesos
4.3 Estrategias de compilación On-Device avanzadas
4.4 Integración con bibliotecas de inferencia optimizadas
4.7 Diseño de pipelines de inferencia eficientes
4.6 Despliegue en dispositivos embebidos específicos
4.7 Resolución de problemas y debugging

7.7 Estrategias de optimización avanzadas para alto rendimiento
7.2 Cuantización: técnicas de baja precisión y mixta
7.3 Pruning: métodos iterativos y dinámicos
7.4 Compilación On-Device: optimizaciones específicas
7.7 Hardware especializado para TinyML
7.6 Análisis de rendimiento detallado y benchmarking
7.7 Diseño de sistemas TinyML de alto rendimiento

6.7 Selección de técnicas de optimización
6.2 Cuantización: estudio de casos y aplicaciones
6.3 Pruning: impacto en la eficiencia y precisión
6.4 Compilación On-Device: estrategias de despliegue
6.7 Optimización de modelos para diferentes plataformas
6.6 Pruebas A/B y análisis de rendimiento
6.7 Mejores prácticas y tendencias del mercado

7.7 Limitaciones de los dispositivos embebidos
7.2 Optimización para restricciones de memoria y energía
7.3 Cuantización para dispositivos de baja potencia
7.4 Pruning para modelos de tamaño reducido
7.7 Compilación On-Device: compatibilidad y rendimiento
7.6 Despliegue y evaluación en hardware limitado
7.7 Diseño de soluciones TinyML eficientes y robustas

8.7 Introducción a la compilación de modelos
8.2 Herramientas y frameworks de compilación
8.3 Optimización del código para eficiencia
8.4 Integración de la cuantización en el proceso de compilación
8.7 Técnicas de pruning durante la compilación
8.6 Evaluación del rendimiento y comparación de modelos compilados
8.7 Estudio de casos y ejemplos de implementación

8.8 Introducción a la cuantización en TinyML: tipos y técnicas
8.8 Introducción al pruning en TinyML: métodos y estrategias
8.3 Impacto de la cuantización y el pruning en la eficiencia
8.4 Herramientas y frameworks para cuantización y pruning
8.5 Casos de estudio: aplicación de cuantización y pruning

8.8 Estrategias de optimización para TinyML: cuantización y pruning combinadas
8.8 Evaluación de métricas de rendimiento: precisión y eficiencia
8.3 Selección de modelos y algoritmos para TinyML
8.4 Implementación de pipelines de optimización
8.5 Estudio de casos prácticos de optimización

3.8 Métodos avanzados de cuantización: técnicas híbridas y dinámicas
3.8 Técnicas avanzadas de pruning: pruning estructurado y no estructurado
3.3 Ajuste fino y retraining después de la cuantización y pruning
3.4 Evaluación comparativa de diferentes técnicas de optimización
3.5 Análisis de casos de uso específicos

4.8 Implementación práctica de la cuantización: flujos de trabajo y herramientas
4.8 Implementación práctica del pruning: flujos de trabajo y herramientas
4.3 Integración de cuantización y pruning en pipelines de despliegue
4.4 Despliegue on-device: consideraciones y desafíos
4.5 Proyectos prácticos: desarrollo de aplicaciones TinyML optimizadas

5.8 Estrategias para modelos TinyML de alto rendimiento: benchmarking
5.8 Diseño de arquitecturas optimizadas para cuantización y pruning
5.3 Ajuste de hiperparámetros para maximizar el rendimiento
5.4 Evaluación de la eficiencia energética y el impacto en el hardware
5.5 Proyectos de alto rendimiento: casos de estudio y aplicaciones

6.8 Estrategias de despliegue para TinyML: plataformas y dispositivos
6.8 Herramientas de optimización para despliegue eficiente
6.3 Diseño de sistemas TinyML: consideraciones de hardware y software
6.4 Análisis de rendimiento y métricas de optimización
6.5 Despliegue de modelos optimizados: estudio de casos y ejemplos

7.8 Desafíos de TinyML en dispositivos limitados: memoria y computación
7.8 Técnicas avanzadas para dispositivos de baja potencia
7.3 Optimización de modelos para dispositivos específicos: microcontroladores
7.4 Evaluación comparativa de modelos en dispositivos limitados
7.5 Desarrollo de aplicaciones TinyML para dispositivos con restricciones

8.8 Introducción a la compilación en TinyML: flujos de trabajo y herramientas
8.8 Compilación de modelos cuantizados y pruned
8.3 Optimización de modelos para hardware específico
8.4 Integración de compilación en pipelines de despliegue
8.5 Estudio de casos: compilación y despliegue en dispositivos reales

9.9 Introducción a TinyML y sus limitaciones
9.9 Conceptos de cuantización: tipos y técnicas
9.3 Conceptos de pruning: estructura y beneficios
9.4 Flujos de trabajo de cuantización y pruning
9.5 Herramientas y bibliotecas esenciales

9.9 Estrategias de optimización para modelos TinyML
9.9 Selección de métricas de rendimiento
9.3 Técnicas avanzadas de cuantización
9.4 Técnicas avanzadas de pruning
9.5 Análisis comparativo de métodos

3.9 Impacto de la cuantización y pruning en el rendimiento
3.9 Ajuste fino de modelos cuantizados y podados
3.3 Iteración y evaluación del rendimiento
3.4 Estudio de caso: Optimización de un modelo específico
3.5 Implementación práctica y resultados

4.9 Selección de hardware y software
4.9 Implementación de cuantización en dispositivos
4.3 Implementación de pruning en dispositivos
4.4 Despliegue y pruebas en dispositivos
4.5 Resolución de problemas y optimización

5.9 Evaluación del rendimiento con cuantización
5.9 Optimización de modelos para alto rendimiento
5.3 Implementación de modelos optimizados
5.4 Análisis de casos de estudio de alto rendimiento
5.5 Mejores prácticas y estrategias avanzadas

6.9 Estrategias de optimización para el despliegue
6.9 Herramientas de despliegue en TinyML
6.3 Selección y configuración del hardware
6.4 Despliegue y pruebas en diferentes dispositivos
6.5 Monitoreo y mantenimiento

7.9 Limitaciones de los dispositivos
7.9 Adaptación de modelos para dispositivos
7.3 Técnicas de optimización para dispositivos limitados
7.4 Estudios de caso en dispositivos limitados
7.5 Despliegue y optimización final

8.9 Introducción a la compilación on-device
8.9 Compilación de modelos cuantizados
8.3 Compilación de modelos podados
8.4 Integración de modelos compilados
8.5 Pruebas y validación

9.9 Técnicas avanzadas para TinyML
9.9 Implementación de modelos en producción
9.3 Consideraciones de seguridad y privacidad
9.4 Tendencias futuras en TinyML
9.5 Herramientas y plataformas emergentes
9.6 Casos de estudio y aplicaciones reales
9.7 Análisis de rendimiento y escalabilidad
9.8 Despliegue en la nube y optimización
9.9 Estrategias de optimización del ciclo de vida del modelo
9.90 Integración continua y despliegue continuo (CI/CD)

1. Introducción a la Cuantización, Pruning y Compilación On-Device en TinyML

2. Conceptos Fundamentales de la Optimización para el Despliegue en Dispositivos Limitados

3. Implementación Práctica de Cuantización en Modelos TinyML

4. Estrategias Avanzadas de Pruning para la Reducción de Tamaño y Costo Computacional

5. Compilación On-Device: Herramientas y Técnicas para el Despliegue Eficiente

6. Evaluación del Rendimiento y Optimización de Modelos Compilados

7. Despliegue de Modelos TinyML Optimizados en Dispositivos Reales

8. Técnicas de Depuración y Solución de Problemas en el Despliegue On-Device

9. Estudios de Caso: Aplicaciones Reales de TinyML Optimizada

10. Consideraciones de Diseño y Escalabilidad para Proyectos TinyML Futuros

  • Metodología hands-on: test-before-you-trust, design reviews, failure analysis, compliance evidence.
  • Software (según licencias/partners): MATLAB/Simulink, Python (NumPy/SciPy), OpenVSP, SU2/OpenFOAM, Nastran/Abaqus, AMESim/Modelica, herramientas de acústica, toolchains de planificación DO-178C.
  • Laboratorios SEIUM: banco de rotor a escala, vibraciones/acústica, EMC/Lightning pre-compliance, HIL/SIL para AFCS, adquisición de datos con strain gauging.
  • Estándares y cumplimiento: EN 9100, 17025, ISO 27001, GDPR.

Proyectos tipo capstones

Admisiones, tasas y becas

  • Perfil: Formación en Ingeniería Informática, Matemáticas, Estadística o campos relacionados; experiencia práctica en NLP y sistemas de recuperación de información valorada.
  • Documentación: CV actualizado, expediente académico, SOP/ensayo de propósito, ejemplos de proyectos o código (opcional).
  • Proceso: solicitud → evaluación técnica de perfil y experiencia → entrevista técnica → revisión de casos prácticos → decisión final → matrícula.
  • Tasas:
    • Pago único: 10% de descuento.
    • Pago en 3 plazos: sin comisiones; 30% a la inscripción + 2 pagos mensuales iguales del 35% restante.
    • Pago mensual: disponible con comisión del 7% sobre el total; revisión anual.
  • Becas: por mérito académico, situación económica y fomento de la inclusión; convenios con empresas del sector para becas parciales o totales.

Consulta “Calendario & convocatorias”, “Becas & ayudas” y “Tasas & financiación” en el mega-menú de SEIUM

¿Tienes dudas?

Nuestro equipo está listo para ayudarte. Contáctanos y te responderemos lo antes posible.

Please enable JavaScript in your browser to complete this form.
Scroll to Top