← Volver al blog
Machine Learning

Machine Learning en AWS sin perderse: SageMaker, Bedrock y cuándo usar cada uno

Machine Learning en AWS puede parecer un mundo enorme: SageMaker, Bedrock, Rekognition, Textract, Comprehend, Transcribe, modelos fundacionales, entrenamiento, inferencia, datos, MLOps… La clave es no memorizar nombres sueltos, sino entender qué problema resuelve cada servicio y cuándo tiene sentido usar uno u otro.

1. AWS tiene muchas piezas de ML, pero no todas sirven para lo mismo

Cuando alguien empieza con Machine Learning en AWS, es normal sentirse un poco perdido. Hay servicios para entrenar modelos, servicios para usar modelos ya preparados, servicios para analizar texto, imagen o voz, y servicios para construir aplicaciones de IA generativa.

El error típico es empezar por la herramienta: “¿Uso SageMaker? ¿Uso Bedrock? ¿Uso Rekognition?”. Pero lo correcto es empezar por el problema.

Antes de elegir servicio, pregúntate:

  • ¿Quiero entrenar un modelo propio con mis datos?
  • ¿Quiero usar un modelo ya preparado sin entrenar nada?
  • ¿Quiero crear un chatbot o asistente con IA generativa?
  • ¿Quiero extraer texto de documentos?
  • ¿Quiero analizar imágenes o vídeo?
  • ¿Quiero convertir voz en texto?
  • ¿Quiero traducir contenido?
  • ¿Quiero predecir algo a partir de datos históricos?
Regla práctica: no empieces preguntando “qué servicio uso”. Empieza preguntando “qué problema quiero resolver”.

2. Por qué esto importa para CLF-C02

En el examen AWS Certified Cloud Practitioner CLF-C02 no te van a pedir entrenar un modelo, preparar un dataset ni desplegar un endpoint avanzado.

Pero sí pueden preguntarte por conceptos de alto nivel:

  • Qué servicio usar para crear aplicaciones de IA generativa.
  • Qué servicio usar para construir, entrenar y desplegar modelos de ML.
  • Qué servicios gestionados existen para texto, voz, documentos, imágenes o traducción.
  • Qué ventaja tiene usar servicios gestionados de IA.
  • Qué diferencia hay entre Machine Learning tradicional e IA generativa.
  • Por qué los datos son importantes.
  • Por qué hay que controlar seguridad, coste y calidad.

Por eso este post no intenta convertirte en científico de datos. La idea es que entiendas el mapa general y sepas asociar cada servicio con su caso de uso.

3. Conceptos base: IA, ML e IA generativa

Antes de hablar de servicios AWS, conviene ordenar tres conceptos que suelen mezclarse mucho: inteligencia artificial, machine learning e IA generativa.

Concepto Explicación sencilla Ejemplo
Inteligencia Artificial Campo amplio que busca que sistemas realicen tareas que normalmente asociamos con inteligencia humana Reconocer imágenes, entender lenguaje, recomendar productos
Machine Learning Subcampo de IA donde los sistemas aprenden patrones a partir de datos Predecir abandono de clientes, detectar fraude, clasificar emails
IA generativa Tipo de IA capaz de generar contenido nuevo Texto, imágenes, resúmenes, código, respuestas conversacionales

Una forma sencilla de verlo:

Machine Learning tradicional suele estar muy orientado a predicción, clasificación o detección de patrones.

IA generativa está más orientada a crear o transformar contenido: responder, resumir, redactar, explicar, generar código o ayudar en una conversación.

Ambas cosas pueden convivir, pero no son exactamente lo mismo.

4. Mapa rápido de servicios de IA y ML en AWS

AWS tiene muchos servicios relacionados con IA y ML. Para CLF-C02, lo importante es tener una visión clara de los principales.

Necesidad Servicio AWS Idea rápida
Construir, entrenar y desplegar modelos propios Amazon SageMaker Plataforma completa de Machine Learning
Crear aplicaciones con modelos fundacionales Amazon Bedrock IA generativa gestionada
Analizar imágenes y vídeo Amazon Rekognition Computer vision como servicio
Extraer texto y datos de documentos Amazon Textract Lectura inteligente de documentos
Analizar texto Amazon Comprehend Procesamiento de lenguaje natural
Convertir voz en texto Amazon Transcribe Transcripción automática
Convertir texto en voz Amazon Polly Voz sintética
Traducir texto Amazon Translate Traducción automática
Personalizar recomendaciones Amazon Personalize Recomendaciones personalizadas
Previsiones de demanda o series temporales Amazon Forecast Predicción basada en datos históricos
Para memorizar: SageMaker es para construir y operar modelos ML. Bedrock es para IA generativa con modelos fundacionales gestionados. Los servicios como Rekognition, Textract o Comprehend resuelven casos concretos ya empaquetados.

5. Servicios de IA gestionados: cuando no quieres entrenar nada

Muchas veces no necesitas entrenar un modelo propio. Solo quieres resolver una tarea concreta.

Por ejemplo:

  • Extraer texto de facturas.
  • Detectar objetos en imágenes.
  • Transcribir una llamada.
  • Traducir un texto.
  • Detectar sentimiento en comentarios.
  • Convertir texto en voz.

Para eso AWS ofrece servicios de IA gestionados. Tú no entrenas el modelo desde cero. Usas una API preparada para ese caso.

Esto tiene muchas ventajas:

  • Empiezas más rápido.
  • No necesitas un equipo de data science para casos simples.
  • AWS gestiona la infraestructura del servicio.
  • Pagas normalmente por uso.
  • Te centras en integrar el resultado en tu aplicación.

Pero también tiene límites. Si tu caso es muy específico, necesitas mucho control o tienes datos muy particulares, puede que necesites algo más personalizado.

6. Rekognition, Textract, Comprehend, Transcribe y Polly

Estos servicios suelen aparecer en preguntas de examen porque tienen casos de uso bastante claros.

Servicio Qué hace Ejemplo fácil
Amazon Rekognition Analiza imágenes y vídeos Detectar objetos, personas o contenido en una imagen
Amazon Textract Extrae texto y datos de documentos Leer facturas, formularios o documentos escaneados
Amazon Comprehend Analiza texto usando NLP Detectar sentimiento, entidades o frases clave
Amazon Transcribe Convierte audio en texto Transcribir una llamada de soporte
Amazon Polly Convierte texto en voz Leer en voz alta un mensaje o contenido formativo
Amazon Translate Traduce texto entre idiomas Traducir contenido de una web o mensajes de usuarios

La lógica para el examen es bastante directa. Si preguntan por imágenes o vídeo, piensa en Rekognition. Si preguntan por documentos escaneados, piensa en Textract. Si preguntan por audio a texto, piensa en Transcribe. Si preguntan por texto a voz, piensa en Polly.

7. Cuándo pensar en Amazon SageMaker

Amazon SageMaker es una plataforma gestionada para construir, entrenar, desplegar y operar modelos de Machine Learning.

SageMaker tiene sentido cuando necesitas más control sobre el ciclo de vida del modelo.

Por ejemplo, piensa en SageMaker si quieres:

  • Entrenar un modelo con tus propios datos.
  • Preparar datasets.
  • Probar algoritmos o modelos personalizados.
  • Evaluar métricas de rendimiento.
  • Desplegar un modelo como endpoint.
  • Automatizar entrenamiento y despliegue.
  • Monitorizar modelos en producción.
  • Gestionar versiones de modelos.

SageMaker es potente, pero también exige más criterio. No es “le doy a un botón y ya tengo IA”. Hay que cuidar datos, métricas, entrenamiento, inferencia, seguridad y coste.

Para CLF-C02: Amazon SageMaker se asocia con construir, entrenar y desplegar modelos de Machine Learning.

8. El ciclo típico de Machine Learning

Un proyecto de Machine Learning no empieza directamente entrenando un modelo. Normalmente sigue un ciclo más amplio.

  1. Definir el problema.
  2. Recopilar datos.
  3. Limpiar y preparar datos.
  4. Entrenar el modelo.
  5. Evaluar resultados.
  6. Desplegar el modelo.
  7. Monitorizar en producción.
  8. Reentrenar si el modelo se degrada.

Ejemplo:

Una empresa quiere predecir qué clientes tienen más probabilidad de abandonar un servicio. Para eso necesita datos históricos de clientes, uso, pagos, incidencias y bajas anteriores. Después prepara esos datos, entrena un modelo, valida si predice bien y lo despliega para usarlo en procesos reales.

El modelo no aparece por arte de magia. Sale de buenos datos, buen diseño y buena evaluación.

9. El verdadero cuello de botella suele estar en los datos

En Machine Learning, el modelo llama mucho la atención. Pero en la práctica, los datos suelen decidir el éxito o el fracaso.

Datos incompletos, duplicados, antiguos, mal etiquetados o sesgados pueden producir modelos malos aunque uses una plataforma excelente.

Antes de entrenar nada, revisa:

  • Si los datos representan el problema real.
  • Si hay suficiente volumen.
  • Si las etiquetas son fiables.
  • Si hay datos duplicados o contradictorios.
  • Si hay sesgos importantes.
  • Si tienes permiso para usar esos datos.
  • Si puedes actualizar el dataset con el tiempo.
Pregunta Por qué importa
¿El dato representa el caso real? Evita modelos que funcionan en laboratorio pero fallan en producción
¿Hay etiquetas fiables? El aprendizaje supervisado depende de ejemplos correctos
¿El dataset está actualizado? El mundo cambia y el modelo puede quedarse viejo
¿Hay datos sensibles? Debes aplicar seguridad, privacidad y control de acceso
¿Hay sesgos? El modelo puede aprender patrones injustos o incorrectos
Idea importante: en ML, mejores datos suelen ser más importantes que elegir el modelo más famoso.

10. Entrenamiento e inferencia: dos momentos distintos

En Machine Learning hay dos momentos que conviene diferenciar: entrenamiento e inferencia.

Entrenamiento es cuando el modelo aprende a partir de datos.

Inferencia es cuando usas el modelo ya entrenado para obtener una predicción o resultado.

Momento Qué ocurre Ejemplo
Entrenamiento El modelo aprende patrones con datos históricos Entrenar con datos de clientes que abandonaron o no abandonaron
Inferencia El modelo se usa para predecir sobre datos nuevos Calcular si un cliente actual tiene riesgo de abandono

Esto es importante porque los costes también pueden ser distintos. Entrenar puede consumir muchos recursos durante un tiempo. La inferencia puede generar coste continuo si el modelo se usa muchas veces o está desplegado como endpoint permanente.

11. MLOps: operar modelos sin improvisar

Desplegar un modelo no es el final. En realidad, es el principio de otra fase: operarlo.

Un modelo en producción puede degradarse. Puede que los datos cambien, que el comportamiento de los usuarios cambie o que el modelo empiece a cometer más errores.

MLOps es el conjunto de prácticas para gestionar el ciclo de vida de modelos de Machine Learning de forma ordenada.

Incluye cosas como:

  • Versionar datasets.
  • Versionar modelos.
  • Guardar métricas de entrenamiento.
  • Automatizar despliegues.
  • Monitorizar rendimiento.
  • Detectar drift.
  • Reentrenar modelos.
  • Revertir versiones si algo empeora.

SageMaker ayuda con muchas piezas de este ciclo, pero sigue haciendo falta criterio: qué medir, cuándo reentrenar y cómo validar una nueva versión.

12. Cuándo pensar en Amazon Bedrock

Amazon Bedrock encaja cuando quieres crear aplicaciones con modelos fundacionales y capacidades de IA generativa.

Por ejemplo:

  • Un chatbot para soporte.
  • Un asistente para alumnos.
  • Resumen de documentos.
  • Generación de contenido.
  • Clasificación semántica.
  • Extracción de información.
  • RAG sobre documentación interna.
  • Ayuda a desarrolladores o equipos de negocio.

Con Bedrock no estás entrenando desde cero un modelo tradicional en cada caso. Estás usando modelos fundacionales gestionados mediante API y construyendo una aplicación alrededor.

Para CLF-C02: Amazon Bedrock se asocia con IA generativa y modelos fundacionales gestionados.

13. SageMaker vs Bedrock: diferencia rápida

Esta comparación es importante, porque es fácil mezclar ambos servicios.

Pregunta SageMaker Bedrock
¿Para qué sirve principalmente? Construir, entrenar, desplegar y operar modelos ML Crear aplicaciones de IA generativa con modelos fundacionales
¿Necesitas entrenar modelos propios? Sí, encaja muy bien No necesariamente
¿Trabajas con modelos fundacionales gestionados? No es su idea principal
¿Quién controla más el ciclo ML? El equipo tiene más control y más responsabilidad Te centras más en la aplicación y el uso del modelo
Ejemplo típico Modelo predictivo de churn entrenado con datos propios Asistente que responde sobre documentación interna

Una forma sencilla de recordarlo:

SageMaker: “quiero construir y operar mis modelos ML”.

Bedrock: “quiero usar modelos fundacionales para crear una aplicación generativa”.

14. Dónde encaja RAG en todo esto

RAG significa Retrieval-Augmented Generation. En español, generación aumentada por recuperación.

La idea es buscar información relevante y pasársela al modelo para que responda mejor.

Esto encaja mucho con Bedrock, porque puedes construir aplicaciones donde el modelo responda usando documentos propios.

Ejemplo:

Un alumno pregunta: “¿Cuál es la diferencia entre RDS Multi-AZ y Read Replicas?”.

El sistema busca fragmentos relevantes en la guía, se los pasa al modelo y el modelo genera una respuesta basada en ese contenido.

RAG ayuda a reducir respuestas inventadas y a conectar el modelo con información específica de tu organización o plataforma.

Idea rápida: si el modelo debe responder usando tus documentos, probablemente necesitas RAG.

15. ¿Y Amazon Q?

Amazon Q es otra pieza que puede aparecer cuando se habla de IA generativa en AWS.

Amazon Q se puede entender como una familia de asistentes generativos orientados a productividad, desarrollo, datos o trabajo empresarial, según el producto concreto.

Para nivel Cloud Practitioner, quédate con la idea general: Amazon Q está relacionado con asistentes generativos de AWS para ayudar a usuarios y equipos en distintos contextos.

No lo mezcles directamente con SageMaker. SageMaker es más plataforma de ML. Bedrock es para construir aplicaciones generativas con modelos fundacionales. Amazon Q es más un asistente generativo preparado para determinados usos.

16. Casos de uso típicos de Machine Learning en AWS

Vamos a bajarlo a ejemplos concretos.

Caso de uso Servicio que podría encajar Comentario
Detectar objetos en imágenes Amazon Rekognition No necesitas entrenar desde cero para muchos casos comunes
Leer facturas escaneadas Amazon Textract Extrae texto y estructura de documentos
Analizar sentimiento de reseñas Amazon Comprehend NLP gestionado
Transcribir llamadas de soporte Amazon Transcribe Audio a texto
Crear voz para una app educativa Amazon Polly Texto a voz
Traducir contenido formativo Amazon Translate Traducción automática
Predecir abandono de clientes Amazon SageMaker Modelo propio con datos históricos
Crear chatbot sobre documentación Amazon Bedrock IA generativa y RAG

17. Seguridad en IA y ML

Que un servicio sea de IA no significa que la seguridad desaparezca. Al contrario, muchas veces se vuelve más importante.

Debes pensar en:

  • Qué datos se usan para entrenar o consultar.
  • Quién puede acceder a los datos.
  • Qué permisos tiene cada servicio.
  • Si hay datos personales o sensibles.
  • Si se guardan prompts, respuestas o predicciones.
  • Si los logs contienen información delicada.
  • Cómo se cifran datos en reposo y en tránsito.
  • Qué roles IAM usa cada componente.

Ejemplo:

Si una aplicación usa Bedrock para responder preguntas sobre documentación interna, el modelo solo debería recibir contexto que el usuario tenga permiso para consultar.

Y si entrenas un modelo con SageMaker, necesitas controlar quién accede al dataset, a los artefactos del modelo y a los endpoints.

Para CLF-C02: los servicios gestionados reducen carga operativa, pero tú sigues siendo responsable de configurar accesos, datos y seguridad correctamente.

18. Coste: entrenar, inferir y generar no cuesta lo mismo

En IA y Machine Learning, el coste puede venir de muchos sitios.

En SageMaker, puedes tener coste por:

  • Instancias de notebooks.
  • Jobs de entrenamiento.
  • Endpoints de inferencia.
  • Almacenamiento de datasets y modelos.
  • Procesamiento de datos.
  • Monitorización y logs.

En Bedrock, el coste puede depender de:

  • Modelo utilizado.
  • Número de llamadas.
  • Tamaño del prompt.
  • Tamaño de la respuesta.
  • Uso de embeddings.
  • Arquitectura RAG alrededor.

Un error típico es dejar recursos encendidos o endpoints desplegados sin uso. Otro error es enviar demasiado contexto a un modelo generativo, aumentando coste y ruido.

Consejo práctico: en IA no solo importa que funcione. También importa cuánto cuesta cada predicción, consulta o respuesta.

19. Observabilidad y calidad

En una aplicación normal, solemos medir errores, latencia y disponibilidad. En ML e IA generativa hay que medir eso y algo más: calidad.

Algunas señales útiles:

  • Latencia de inferencia.
  • Errores en endpoints.
  • Coste por consulta.
  • Volumen de peticiones.
  • Precisión del modelo.
  • Predicciones incorrectas.
  • Feedback del usuario.
  • Drift de datos.
  • Respuestas no fundamentadas.
  • Uso de tokens en IA generativa.

En modelos tradicionales, puedes medir métricas como precisión, recall o error. En IA generativa, también debes revisar si la respuesta está fundamentada, si ayuda al usuario y si evita inventar cuando no hay contexto suficiente.

20. Qué es el drift y por qué importa

El drift ocurre cuando los datos reales cambian respecto a los datos con los que entrenaste el modelo.

Ejemplo sencillo:

Entrenas un modelo para predecir demanda de productos usando datos de 2022 y 2023. Pero en 2026 cambian los hábitos de compra, aparecen nuevos productos o cambia el comportamiento del mercado. El modelo puede empezar a fallar más.

Eso es un problema típico en Machine Learning. Un modelo no se mantiene bueno para siempre solo porque el día del despliegue funcionaba bien.

Por eso hay que monitorizar y, cuando toca, reentrenar.

21. Errores típicos al usar ML en AWS

Estos errores son bastante habituales:

  • Usar IA donde bastaba una regla simple.
    No todo necesita Machine Learning. A veces una consulta SQL, una regla o una validación resuelve mejor el problema.
  • Empezar por el servicio y no por el problema.
    Primero define el caso de uso. Después eliges SageMaker, Bedrock o un servicio gestionado.
  • No cuidar los datos.
    Datos malos generan modelos malos.
  • No medir calidad con ejemplos reales.
    Una demo bonita no demuestra que el modelo funcione en producción.
  • No controlar coste.
    Entrenamiento, inferencia, endpoints y tokens pueden crecer bastante.
  • No proteger datos sensibles.
    Los datos usados en ML pueden contener información personal o confidencial.
  • No monitorizar drift.
    El modelo puede degradarse con el tiempo.
  • Confundir SageMaker con Bedrock.
    Uno se centra en ML y modelos propios; el otro en IA generativa con modelos fundacionales.
  • No diseñar feedback.
    Sin feedback, es difícil mejorar calidad.
  • Dejar endpoints o notebooks encendidos sin uso.
    Puede generar coste innecesario.

22. Cuándo usar SageMaker

Piensa en SageMaker cuando:

  • Necesitas entrenar modelos con tus propios datos.
  • Quieres controlar el ciclo de vida del modelo.
  • Necesitas experimentar con algoritmos.
  • Quieres desplegar endpoints de inferencia.
  • Tu equipo tiene perfil de datos, ML o ingeniería.
  • Necesitas versionado, monitorización y reentrenamiento.
  • El problema es predictivo, de clasificación o análisis basado en datos propios.

Ejemplo típico:

Una empresa quiere predecir qué clientes tienen riesgo de abandono. Tiene datos históricos, etiquetas de clientes que se fueron y quiere entrenar un modelo específico para su negocio. Eso suena a SageMaker.

23. Cuándo usar Bedrock

Piensa en Bedrock cuando:

  • Quieres crear una aplicación de IA generativa.
  • Necesitas usar modelos fundacionales gestionados.
  • Quieres construir un asistente conversacional.
  • Quieres resumir documentos o generar contenido.
  • Quieres hacer RAG sobre documentación propia.
  • No quieres administrar infraestructura de modelos fundacionales.
  • Quieres consumir modelos mediante API y centrarte en la aplicación.

Ejemplo típico:

Una plataforma de formación quiere crear un asistente que responda preguntas de alumnos usando la guía CLF-C02. El sistema busca fragmentos relevantes y usa un modelo generativo para explicar la respuesta. Eso suena a Bedrock + RAG.

24. Cuándo usar un servicio de IA gestionado

Piensa en servicios como Rekognition, Textract, Comprehend, Polly, Transcribe o Translate cuando el caso de uso ya está bastante definido.

Ejemplos:

  • “Quiero sacar texto de facturas”. Textract.
  • “Quiero detectar objetos en imágenes”. Rekognition.
  • “Quiero convertir llamadas en texto”. Transcribe.
  • “Quiero leer texto en voz alta”. Polly.
  • “Quiero traducir descripciones”. Translate.
  • “Quiero analizar sentimiento de comentarios”. Comprehend.

La ventaja es que puedes avanzar muy rápido sin montar un proyecto completo de Machine Learning.

25. Ejemplo completo: plataforma de formación cloud

Imagina una plataforma de formación donde tienes alumnos, cursos, simuladores, resultados y contenido de estudio.

Podrías usar IA y ML de varias formas:

  • Bedrock + RAG: asistente que responde preguntas usando la guía.
  • SageMaker: modelo que predice riesgo de abandono del alumno o probabilidad de aprobar.
  • Comprehend: analizar feedback escrito de alumnos.
  • Polly: convertir apuntes en audio para repaso.
  • Translate: traducir contenido a otros idiomas.
  • Textract: extraer datos de documentos o certificados subidos.
  • CloudWatch: monitorizar errores, latencia y uso.
  • IAM: controlar permisos entre servicios.

Fíjate que no hay un único servicio “de IA” para todo. Cada problema tiene una pieza más adecuada.

26. Cómo puede aparecer en el examen CLF-C02

En CLF-C02, este tema suele aparecer como preguntas de asociación entre necesidad y servicio.

Necesidad en la pregunta Servicio probable
Crear, entrenar y desplegar modelos de ML Amazon SageMaker
Crear aplicaciones con modelos fundacionales Amazon Bedrock
Analizar imágenes o vídeo Amazon Rekognition
Extraer texto de documentos escaneados Amazon Textract
Analizar sentimiento o entidades en texto Amazon Comprehend
Convertir audio a texto Amazon Transcribe
Convertir texto a voz Amazon Polly
Traducir texto Amazon Translate
Crear recomendaciones personalizadas Amazon Personalize
Monitorizar métricas y logs Amazon CloudWatch

Si entiendes esa tabla, tienes mucho ganado para preguntas de servicios de IA/ML a nivel Cloud Practitioner.

27. Checklist para elegir bien

Antes de elegir servicio, revisa esto:

  • ¿El problema necesita IA de verdad?
    No uses ML si una regla sencilla resuelve el caso mejor.
  • ¿Necesitas entrenar con tus datos?
    Si sí, mira SageMaker.
  • ¿Quieres usar IA generativa?
    Si sí, mira Bedrock.
  • ¿El caso ya existe como servicio gestionado?
    Para imagen, texto, voz, traducción o documentos, quizá hay un servicio listo.
  • ¿Tienes datos suficientes y de calidad?
    Sin buenos datos, el modelo no hará magia.
  • ¿Hay datos sensibles?
    Revisa permisos, cifrado, logs y cumplimiento.
  • ¿Sabes medir si funciona?
    Define métricas antes de ponerlo en producción.
  • ¿Has calculado el coste?
    Entrenamiento, inferencia, endpoints, tokens y logs suman.
  • ¿Necesitas monitorización continua?
    Los modelos pueden degradarse con el tiempo.
  • ¿El equipo puede operar la solución?
    Una solución compleja sin capacidad de operación acaba siendo un problema.

28. Resumen para quedarte con lo importante

Si estás preparando CLF-C02, quédate con estas ideas:

  • Machine Learning aprende patrones a partir de datos.
  • IA generativa crea o transforma contenido.
  • Amazon SageMaker sirve para construir, entrenar y desplegar modelos ML.
  • Amazon Bedrock sirve para crear aplicaciones con modelos fundacionales gestionados.
  • Rekognition analiza imágenes y vídeo.
  • Textract extrae texto y datos de documentos.
  • Comprehend analiza texto.
  • Transcribe convierte voz en texto.
  • Polly convierte texto en voz.
  • Translate traduce texto.
  • Los datos son una parte crítica del éxito en ML.
  • Hay que controlar seguridad, coste, calidad y operación.

Conclusión

Machine Learning en AWS se entiende mucho mejor cuando separas tres mundos: servicios de IA ya preparados, plataformas para modelos propios y servicios de IA generativa.

No hay un servicio “mejor” para todo. Hay un servicio más adecuado según el problema.

Si necesitas entrenar, desplegar y operar modelos propios, piensa en Amazon SageMaker. Si quieres construir aplicaciones de IA generativa con modelos fundacionales, piensa en Amazon Bedrock. Si tienes un caso concreto como analizar imágenes, extraer texto de documentos o convertir voz a texto, probablemente hay un servicio gestionado que te evita empezar desde cero.

Para alumnos de AWS Certified Cloud Practitioner CLF-C02, la clave no es dominar cada configuración avanzada, sino reconocer qué hace cada servicio, qué problema resuelve y qué responsabilidades siguen siendo tuyas: datos, permisos, seguridad, costes y calidad.

Idea final: no elijas IA porque suena moderno. Elige IA cuando resuelve un problema real, con datos adecuados, coste controlado y una forma clara de medir si ayuda de verdad.