Machine Learning en AWS sin perderse: SageMaker, Bedrock y cuándo usar cada uno
Machine Learning en AWS puede parecer un mundo enorme: SageMaker, Bedrock, Rekognition, Textract, Comprehend, Transcribe, modelos fundacionales, entrenamiento, inferencia, datos, MLOps… La clave es no memorizar nombres sueltos, sino entender qué problema resuelve cada servicio y cuándo tiene sentido usar uno u otro.
1. AWS tiene muchas piezas de ML, pero no todas sirven para lo mismo
Cuando alguien empieza con Machine Learning en AWS, es normal sentirse un poco perdido. Hay servicios para entrenar modelos, servicios para usar modelos ya preparados, servicios para analizar texto, imagen o voz, y servicios para construir aplicaciones de IA generativa.
El error típico es empezar por la herramienta: “¿Uso SageMaker? ¿Uso Bedrock? ¿Uso Rekognition?”. Pero lo correcto es empezar por el problema.
Antes de elegir servicio, pregúntate:
- ¿Quiero entrenar un modelo propio con mis datos?
- ¿Quiero usar un modelo ya preparado sin entrenar nada?
- ¿Quiero crear un chatbot o asistente con IA generativa?
- ¿Quiero extraer texto de documentos?
- ¿Quiero analizar imágenes o vídeo?
- ¿Quiero convertir voz en texto?
- ¿Quiero traducir contenido?
- ¿Quiero predecir algo a partir de datos históricos?
2. Por qué esto importa para CLF-C02
En el examen AWS Certified Cloud Practitioner CLF-C02 no te van a pedir entrenar un modelo, preparar un dataset ni desplegar un endpoint avanzado.
Pero sí pueden preguntarte por conceptos de alto nivel:
- Qué servicio usar para crear aplicaciones de IA generativa.
- Qué servicio usar para construir, entrenar y desplegar modelos de ML.
- Qué servicios gestionados existen para texto, voz, documentos, imágenes o traducción.
- Qué ventaja tiene usar servicios gestionados de IA.
- Qué diferencia hay entre Machine Learning tradicional e IA generativa.
- Por qué los datos son importantes.
- Por qué hay que controlar seguridad, coste y calidad.
Por eso este post no intenta convertirte en científico de datos. La idea es que entiendas el mapa general y sepas asociar cada servicio con su caso de uso.
3. Conceptos base: IA, ML e IA generativa
Antes de hablar de servicios AWS, conviene ordenar tres conceptos que suelen mezclarse mucho: inteligencia artificial, machine learning e IA generativa.
| Concepto | Explicación sencilla | Ejemplo |
|---|---|---|
| Inteligencia Artificial | Campo amplio que busca que sistemas realicen tareas que normalmente asociamos con inteligencia humana | Reconocer imágenes, entender lenguaje, recomendar productos |
| Machine Learning | Subcampo de IA donde los sistemas aprenden patrones a partir de datos | Predecir abandono de clientes, detectar fraude, clasificar emails |
| IA generativa | Tipo de IA capaz de generar contenido nuevo | Texto, imágenes, resúmenes, código, respuestas conversacionales |
Una forma sencilla de verlo:
Machine Learning tradicional suele estar muy orientado a predicción, clasificación o detección de patrones.
IA generativa está más orientada a crear o transformar contenido: responder, resumir, redactar, explicar, generar código o ayudar en una conversación.
Ambas cosas pueden convivir, pero no son exactamente lo mismo.
4. Mapa rápido de servicios de IA y ML en AWS
AWS tiene muchos servicios relacionados con IA y ML. Para CLF-C02, lo importante es tener una visión clara de los principales.
| Necesidad | Servicio AWS | Idea rápida |
|---|---|---|
| Construir, entrenar y desplegar modelos propios | Amazon SageMaker | Plataforma completa de Machine Learning |
| Crear aplicaciones con modelos fundacionales | Amazon Bedrock | IA generativa gestionada |
| Analizar imágenes y vídeo | Amazon Rekognition | Computer vision como servicio |
| Extraer texto y datos de documentos | Amazon Textract | Lectura inteligente de documentos |
| Analizar texto | Amazon Comprehend | Procesamiento de lenguaje natural |
| Convertir voz en texto | Amazon Transcribe | Transcripción automática |
| Convertir texto en voz | Amazon Polly | Voz sintética |
| Traducir texto | Amazon Translate | Traducción automática |
| Personalizar recomendaciones | Amazon Personalize | Recomendaciones personalizadas |
| Previsiones de demanda o series temporales | Amazon Forecast | Predicción basada en datos históricos |
5. Servicios de IA gestionados: cuando no quieres entrenar nada
Muchas veces no necesitas entrenar un modelo propio. Solo quieres resolver una tarea concreta.
Por ejemplo:
- Extraer texto de facturas.
- Detectar objetos en imágenes.
- Transcribir una llamada.
- Traducir un texto.
- Detectar sentimiento en comentarios.
- Convertir texto en voz.
Para eso AWS ofrece servicios de IA gestionados. Tú no entrenas el modelo desde cero. Usas una API preparada para ese caso.
Esto tiene muchas ventajas:
- Empiezas más rápido.
- No necesitas un equipo de data science para casos simples.
- AWS gestiona la infraestructura del servicio.
- Pagas normalmente por uso.
- Te centras en integrar el resultado en tu aplicación.
Pero también tiene límites. Si tu caso es muy específico, necesitas mucho control o tienes datos muy particulares, puede que necesites algo más personalizado.
6. Rekognition, Textract, Comprehend, Transcribe y Polly
Estos servicios suelen aparecer en preguntas de examen porque tienen casos de uso bastante claros.
| Servicio | Qué hace | Ejemplo fácil |
|---|---|---|
| Amazon Rekognition | Analiza imágenes y vídeos | Detectar objetos, personas o contenido en una imagen |
| Amazon Textract | Extrae texto y datos de documentos | Leer facturas, formularios o documentos escaneados |
| Amazon Comprehend | Analiza texto usando NLP | Detectar sentimiento, entidades o frases clave |
| Amazon Transcribe | Convierte audio en texto | Transcribir una llamada de soporte |
| Amazon Polly | Convierte texto en voz | Leer en voz alta un mensaje o contenido formativo |
| Amazon Translate | Traduce texto entre idiomas | Traducir contenido de una web o mensajes de usuarios |
La lógica para el examen es bastante directa. Si preguntan por imágenes o vídeo, piensa en Rekognition. Si preguntan por documentos escaneados, piensa en Textract. Si preguntan por audio a texto, piensa en Transcribe. Si preguntan por texto a voz, piensa en Polly.
7. Cuándo pensar en Amazon SageMaker
Amazon SageMaker es una plataforma gestionada para construir, entrenar, desplegar y operar modelos de Machine Learning.
SageMaker tiene sentido cuando necesitas más control sobre el ciclo de vida del modelo.
Por ejemplo, piensa en SageMaker si quieres:
- Entrenar un modelo con tus propios datos.
- Preparar datasets.
- Probar algoritmos o modelos personalizados.
- Evaluar métricas de rendimiento.
- Desplegar un modelo como endpoint.
- Automatizar entrenamiento y despliegue.
- Monitorizar modelos en producción.
- Gestionar versiones de modelos.
SageMaker es potente, pero también exige más criterio. No es “le doy a un botón y ya tengo IA”. Hay que cuidar datos, métricas, entrenamiento, inferencia, seguridad y coste.
8. El ciclo típico de Machine Learning
Un proyecto de Machine Learning no empieza directamente entrenando un modelo. Normalmente sigue un ciclo más amplio.
- Definir el problema.
- Recopilar datos.
- Limpiar y preparar datos.
- Entrenar el modelo.
- Evaluar resultados.
- Desplegar el modelo.
- Monitorizar en producción.
- Reentrenar si el modelo se degrada.
Ejemplo:
Una empresa quiere predecir qué clientes tienen más probabilidad de abandonar un servicio. Para eso necesita datos históricos de clientes, uso, pagos, incidencias y bajas anteriores. Después prepara esos datos, entrena un modelo, valida si predice bien y lo despliega para usarlo en procesos reales.
El modelo no aparece por arte de magia. Sale de buenos datos, buen diseño y buena evaluación.
9. El verdadero cuello de botella suele estar en los datos
En Machine Learning, el modelo llama mucho la atención. Pero en la práctica, los datos suelen decidir el éxito o el fracaso.
Datos incompletos, duplicados, antiguos, mal etiquetados o sesgados pueden producir modelos malos aunque uses una plataforma excelente.
Antes de entrenar nada, revisa:
- Si los datos representan el problema real.
- Si hay suficiente volumen.
- Si las etiquetas son fiables.
- Si hay datos duplicados o contradictorios.
- Si hay sesgos importantes.
- Si tienes permiso para usar esos datos.
- Si puedes actualizar el dataset con el tiempo.
| Pregunta | Por qué importa |
|---|---|
| ¿El dato representa el caso real? | Evita modelos que funcionan en laboratorio pero fallan en producción |
| ¿Hay etiquetas fiables? | El aprendizaje supervisado depende de ejemplos correctos |
| ¿El dataset está actualizado? | El mundo cambia y el modelo puede quedarse viejo |
| ¿Hay datos sensibles? | Debes aplicar seguridad, privacidad y control de acceso |
| ¿Hay sesgos? | El modelo puede aprender patrones injustos o incorrectos |
10. Entrenamiento e inferencia: dos momentos distintos
En Machine Learning hay dos momentos que conviene diferenciar: entrenamiento e inferencia.
Entrenamiento es cuando el modelo aprende a partir de datos.
Inferencia es cuando usas el modelo ya entrenado para obtener una predicción o resultado.
| Momento | Qué ocurre | Ejemplo |
|---|---|---|
| Entrenamiento | El modelo aprende patrones con datos históricos | Entrenar con datos de clientes que abandonaron o no abandonaron |
| Inferencia | El modelo se usa para predecir sobre datos nuevos | Calcular si un cliente actual tiene riesgo de abandono |
Esto es importante porque los costes también pueden ser distintos. Entrenar puede consumir muchos recursos durante un tiempo. La inferencia puede generar coste continuo si el modelo se usa muchas veces o está desplegado como endpoint permanente.
11. MLOps: operar modelos sin improvisar
Desplegar un modelo no es el final. En realidad, es el principio de otra fase: operarlo.
Un modelo en producción puede degradarse. Puede que los datos cambien, que el comportamiento de los usuarios cambie o que el modelo empiece a cometer más errores.
MLOps es el conjunto de prácticas para gestionar el ciclo de vida de modelos de Machine Learning de forma ordenada.
Incluye cosas como:
- Versionar datasets.
- Versionar modelos.
- Guardar métricas de entrenamiento.
- Automatizar despliegues.
- Monitorizar rendimiento.
- Detectar drift.
- Reentrenar modelos.
- Revertir versiones si algo empeora.
SageMaker ayuda con muchas piezas de este ciclo, pero sigue haciendo falta criterio: qué medir, cuándo reentrenar y cómo validar una nueva versión.
12. Cuándo pensar en Amazon Bedrock
Amazon Bedrock encaja cuando quieres crear aplicaciones con modelos fundacionales y capacidades de IA generativa.
Por ejemplo:
- Un chatbot para soporte.
- Un asistente para alumnos.
- Resumen de documentos.
- Generación de contenido.
- Clasificación semántica.
- Extracción de información.
- RAG sobre documentación interna.
- Ayuda a desarrolladores o equipos de negocio.
Con Bedrock no estás entrenando desde cero un modelo tradicional en cada caso. Estás usando modelos fundacionales gestionados mediante API y construyendo una aplicación alrededor.
13. SageMaker vs Bedrock: diferencia rápida
Esta comparación es importante, porque es fácil mezclar ambos servicios.
| Pregunta | SageMaker | Bedrock |
|---|---|---|
| ¿Para qué sirve principalmente? | Construir, entrenar, desplegar y operar modelos ML | Crear aplicaciones de IA generativa con modelos fundacionales |
| ¿Necesitas entrenar modelos propios? | Sí, encaja muy bien | No necesariamente |
| ¿Trabajas con modelos fundacionales gestionados? | No es su idea principal | Sí |
| ¿Quién controla más el ciclo ML? | El equipo tiene más control y más responsabilidad | Te centras más en la aplicación y el uso del modelo |
| Ejemplo típico | Modelo predictivo de churn entrenado con datos propios | Asistente que responde sobre documentación interna |
Una forma sencilla de recordarlo:
SageMaker: “quiero construir y operar mis modelos ML”.
Bedrock: “quiero usar modelos fundacionales para crear una aplicación generativa”.
14. Dónde encaja RAG en todo esto
RAG significa Retrieval-Augmented Generation. En español, generación aumentada por recuperación.
La idea es buscar información relevante y pasársela al modelo para que responda mejor.
Esto encaja mucho con Bedrock, porque puedes construir aplicaciones donde el modelo responda usando documentos propios.
Ejemplo:
Un alumno pregunta: “¿Cuál es la diferencia entre RDS Multi-AZ y Read Replicas?”.
El sistema busca fragmentos relevantes en la guía, se los pasa al modelo y el modelo genera una respuesta basada en ese contenido.
RAG ayuda a reducir respuestas inventadas y a conectar el modelo con información específica de tu organización o plataforma.
15. ¿Y Amazon Q?
Amazon Q es otra pieza que puede aparecer cuando se habla de IA generativa en AWS.
Amazon Q se puede entender como una familia de asistentes generativos orientados a productividad, desarrollo, datos o trabajo empresarial, según el producto concreto.
Para nivel Cloud Practitioner, quédate con la idea general: Amazon Q está relacionado con asistentes generativos de AWS para ayudar a usuarios y equipos en distintos contextos.
No lo mezcles directamente con SageMaker. SageMaker es más plataforma de ML. Bedrock es para construir aplicaciones generativas con modelos fundacionales. Amazon Q es más un asistente generativo preparado para determinados usos.
16. Casos de uso típicos de Machine Learning en AWS
Vamos a bajarlo a ejemplos concretos.
| Caso de uso | Servicio que podría encajar | Comentario |
|---|---|---|
| Detectar objetos en imágenes | Amazon Rekognition | No necesitas entrenar desde cero para muchos casos comunes |
| Leer facturas escaneadas | Amazon Textract | Extrae texto y estructura de documentos |
| Analizar sentimiento de reseñas | Amazon Comprehend | NLP gestionado |
| Transcribir llamadas de soporte | Amazon Transcribe | Audio a texto |
| Crear voz para una app educativa | Amazon Polly | Texto a voz |
| Traducir contenido formativo | Amazon Translate | Traducción automática |
| Predecir abandono de clientes | Amazon SageMaker | Modelo propio con datos históricos |
| Crear chatbot sobre documentación | Amazon Bedrock | IA generativa y RAG |
17. Seguridad en IA y ML
Que un servicio sea de IA no significa que la seguridad desaparezca. Al contrario, muchas veces se vuelve más importante.
Debes pensar en:
- Qué datos se usan para entrenar o consultar.
- Quién puede acceder a los datos.
- Qué permisos tiene cada servicio.
- Si hay datos personales o sensibles.
- Si se guardan prompts, respuestas o predicciones.
- Si los logs contienen información delicada.
- Cómo se cifran datos en reposo y en tránsito.
- Qué roles IAM usa cada componente.
Ejemplo:
Si una aplicación usa Bedrock para responder preguntas sobre documentación interna, el modelo solo debería recibir contexto que el usuario tenga permiso para consultar.
Y si entrenas un modelo con SageMaker, necesitas controlar quién accede al dataset, a los artefactos del modelo y a los endpoints.
18. Coste: entrenar, inferir y generar no cuesta lo mismo
En IA y Machine Learning, el coste puede venir de muchos sitios.
En SageMaker, puedes tener coste por:
- Instancias de notebooks.
- Jobs de entrenamiento.
- Endpoints de inferencia.
- Almacenamiento de datasets y modelos.
- Procesamiento de datos.
- Monitorización y logs.
En Bedrock, el coste puede depender de:
- Modelo utilizado.
- Número de llamadas.
- Tamaño del prompt.
- Tamaño de la respuesta.
- Uso de embeddings.
- Arquitectura RAG alrededor.
Un error típico es dejar recursos encendidos o endpoints desplegados sin uso. Otro error es enviar demasiado contexto a un modelo generativo, aumentando coste y ruido.
19. Observabilidad y calidad
En una aplicación normal, solemos medir errores, latencia y disponibilidad. En ML e IA generativa hay que medir eso y algo más: calidad.
Algunas señales útiles:
- Latencia de inferencia.
- Errores en endpoints.
- Coste por consulta.
- Volumen de peticiones.
- Precisión del modelo.
- Predicciones incorrectas.
- Feedback del usuario.
- Drift de datos.
- Respuestas no fundamentadas.
- Uso de tokens en IA generativa.
En modelos tradicionales, puedes medir métricas como precisión, recall o error. En IA generativa, también debes revisar si la respuesta está fundamentada, si ayuda al usuario y si evita inventar cuando no hay contexto suficiente.
20. Qué es el drift y por qué importa
El drift ocurre cuando los datos reales cambian respecto a los datos con los que entrenaste el modelo.
Ejemplo sencillo:
Entrenas un modelo para predecir demanda de productos usando datos de 2022 y 2023. Pero en 2026 cambian los hábitos de compra, aparecen nuevos productos o cambia el comportamiento del mercado. El modelo puede empezar a fallar más.
Eso es un problema típico en Machine Learning. Un modelo no se mantiene bueno para siempre solo porque el día del despliegue funcionaba bien.
Por eso hay que monitorizar y, cuando toca, reentrenar.
21. Errores típicos al usar ML en AWS
Estos errores son bastante habituales:
- Usar IA donde bastaba una regla simple.
No todo necesita Machine Learning. A veces una consulta SQL, una regla o una validación resuelve mejor el problema. - Empezar por el servicio y no por el problema.
Primero define el caso de uso. Después eliges SageMaker, Bedrock o un servicio gestionado. - No cuidar los datos.
Datos malos generan modelos malos. - No medir calidad con ejemplos reales.
Una demo bonita no demuestra que el modelo funcione en producción. - No controlar coste.
Entrenamiento, inferencia, endpoints y tokens pueden crecer bastante. - No proteger datos sensibles.
Los datos usados en ML pueden contener información personal o confidencial. - No monitorizar drift.
El modelo puede degradarse con el tiempo. - Confundir SageMaker con Bedrock.
Uno se centra en ML y modelos propios; el otro en IA generativa con modelos fundacionales. - No diseñar feedback.
Sin feedback, es difícil mejorar calidad. - Dejar endpoints o notebooks encendidos sin uso.
Puede generar coste innecesario.
22. Cuándo usar SageMaker
Piensa en SageMaker cuando:
- Necesitas entrenar modelos con tus propios datos.
- Quieres controlar el ciclo de vida del modelo.
- Necesitas experimentar con algoritmos.
- Quieres desplegar endpoints de inferencia.
- Tu equipo tiene perfil de datos, ML o ingeniería.
- Necesitas versionado, monitorización y reentrenamiento.
- El problema es predictivo, de clasificación o análisis basado en datos propios.
Ejemplo típico:
Una empresa quiere predecir qué clientes tienen riesgo de abandono. Tiene datos históricos, etiquetas de clientes que se fueron y quiere entrenar un modelo específico para su negocio. Eso suena a SageMaker.
23. Cuándo usar Bedrock
Piensa en Bedrock cuando:
- Quieres crear una aplicación de IA generativa.
- Necesitas usar modelos fundacionales gestionados.
- Quieres construir un asistente conversacional.
- Quieres resumir documentos o generar contenido.
- Quieres hacer RAG sobre documentación propia.
- No quieres administrar infraestructura de modelos fundacionales.
- Quieres consumir modelos mediante API y centrarte en la aplicación.
Ejemplo típico:
Una plataforma de formación quiere crear un asistente que responda preguntas de alumnos usando la guía CLF-C02. El sistema busca fragmentos relevantes y usa un modelo generativo para explicar la respuesta. Eso suena a Bedrock + RAG.
24. Cuándo usar un servicio de IA gestionado
Piensa en servicios como Rekognition, Textract, Comprehend, Polly, Transcribe o Translate cuando el caso de uso ya está bastante definido.
Ejemplos:
- “Quiero sacar texto de facturas”. Textract.
- “Quiero detectar objetos en imágenes”. Rekognition.
- “Quiero convertir llamadas en texto”. Transcribe.
- “Quiero leer texto en voz alta”. Polly.
- “Quiero traducir descripciones”. Translate.
- “Quiero analizar sentimiento de comentarios”. Comprehend.
La ventaja es que puedes avanzar muy rápido sin montar un proyecto completo de Machine Learning.
25. Ejemplo completo: plataforma de formación cloud
Imagina una plataforma de formación donde tienes alumnos, cursos, simuladores, resultados y contenido de estudio.
Podrías usar IA y ML de varias formas:
- Bedrock + RAG: asistente que responde preguntas usando la guía.
- SageMaker: modelo que predice riesgo de abandono del alumno o probabilidad de aprobar.
- Comprehend: analizar feedback escrito de alumnos.
- Polly: convertir apuntes en audio para repaso.
- Translate: traducir contenido a otros idiomas.
- Textract: extraer datos de documentos o certificados subidos.
- CloudWatch: monitorizar errores, latencia y uso.
- IAM: controlar permisos entre servicios.
Fíjate que no hay un único servicio “de IA” para todo. Cada problema tiene una pieza más adecuada.
26. Cómo puede aparecer en el examen CLF-C02
En CLF-C02, este tema suele aparecer como preguntas de asociación entre necesidad y servicio.
| Necesidad en la pregunta | Servicio probable |
|---|---|
| Crear, entrenar y desplegar modelos de ML | Amazon SageMaker |
| Crear aplicaciones con modelos fundacionales | Amazon Bedrock |
| Analizar imágenes o vídeo | Amazon Rekognition |
| Extraer texto de documentos escaneados | Amazon Textract |
| Analizar sentimiento o entidades en texto | Amazon Comprehend |
| Convertir audio a texto | Amazon Transcribe |
| Convertir texto a voz | Amazon Polly |
| Traducir texto | Amazon Translate |
| Crear recomendaciones personalizadas | Amazon Personalize |
| Monitorizar métricas y logs | Amazon CloudWatch |
Si entiendes esa tabla, tienes mucho ganado para preguntas de servicios de IA/ML a nivel Cloud Practitioner.
27. Checklist para elegir bien
Antes de elegir servicio, revisa esto:
- ¿El problema necesita IA de verdad?
No uses ML si una regla sencilla resuelve el caso mejor. - ¿Necesitas entrenar con tus datos?
Si sí, mira SageMaker. - ¿Quieres usar IA generativa?
Si sí, mira Bedrock. - ¿El caso ya existe como servicio gestionado?
Para imagen, texto, voz, traducción o documentos, quizá hay un servicio listo. - ¿Tienes datos suficientes y de calidad?
Sin buenos datos, el modelo no hará magia. - ¿Hay datos sensibles?
Revisa permisos, cifrado, logs y cumplimiento. - ¿Sabes medir si funciona?
Define métricas antes de ponerlo en producción. - ¿Has calculado el coste?
Entrenamiento, inferencia, endpoints, tokens y logs suman. - ¿Necesitas monitorización continua?
Los modelos pueden degradarse con el tiempo. - ¿El equipo puede operar la solución?
Una solución compleja sin capacidad de operación acaba siendo un problema.
28. Resumen para quedarte con lo importante
Si estás preparando CLF-C02, quédate con estas ideas:
- Machine Learning aprende patrones a partir de datos.
- IA generativa crea o transforma contenido.
- Amazon SageMaker sirve para construir, entrenar y desplegar modelos ML.
- Amazon Bedrock sirve para crear aplicaciones con modelos fundacionales gestionados.
- Rekognition analiza imágenes y vídeo.
- Textract extrae texto y datos de documentos.
- Comprehend analiza texto.
- Transcribe convierte voz en texto.
- Polly convierte texto en voz.
- Translate traduce texto.
- Los datos son una parte crítica del éxito en ML.
- Hay que controlar seguridad, coste, calidad y operación.
Conclusión
Machine Learning en AWS se entiende mucho mejor cuando separas tres mundos: servicios de IA ya preparados, plataformas para modelos propios y servicios de IA generativa.
No hay un servicio “mejor” para todo. Hay un servicio más adecuado según el problema.
Si necesitas entrenar, desplegar y operar modelos propios, piensa en Amazon SageMaker. Si quieres construir aplicaciones de IA generativa con modelos fundacionales, piensa en Amazon Bedrock. Si tienes un caso concreto como analizar imágenes, extraer texto de documentos o convertir voz a texto, probablemente hay un servicio gestionado que te evita empezar desde cero.
Para alumnos de AWS Certified Cloud Practitioner CLF-C02, la clave no es dominar cada configuración avanzada, sino reconocer qué hace cada servicio, qué problema resuelve y qué responsabilidades siguen siendo tuyas: datos, permisos, seguridad, costes y calidad.