Saltar al contenido

Introducción a Apache Hudi: Gestión de Datos Cambiantes en Big Data

Introducción a Apache Hudi: Gestión de Datos Cambiantes en Big Data

¿Sabes cómo las grandes empresas de Big Data mantienen sus datos siempre actualizados? La clave es Apache Hudi. Esta herramienta revoluciona la gestión de datos cambiantes en Big Data.

Los datos cambian muy rápido hoy en día. Mantener la calidad y eficiencia de los análisis es crucial. Apache Hudi es la solución para esto. Permite procesar y actualizar datos en tiempo real, ayudando a las empresas a mantenerse al día con los análisis de Big Data.

En este artículo, veremos los beneficios de Apache Hudi. Hablaremos de cómo mejora el rendimiento y reduce costos de almacenamiento. También descubriremos cómo puede cambiar la forma en que tu empresa maneja y analiza los datos cambiantes, dándote una ventaja competitiva en el mundo del Big Data.

Puntos clave:

  • Apache Hudi es una solución innovadora para gestionar datos cambiantes en entornos de Big Data.
  • Permite actualizaciones incrementales, garantiza la consistencia y mejora el rendimiento de los análisis.
  • Es especialmente útil en escenarios que requieren procesar y analizar datos en tiempo real o casi real.
  • Ofrece beneficios clave, como mejor rendimiento, reducción de costos de almacenamiento y mayor flexibilidad en la gestión de datos.
  • Transforma la forma en que las empresas gestionan y analizan los datos cambiantes, impulsando su ventaja competitiva en el mundo del Big Data.

¿Qué es Apache Hudi?

Apache Hudi es un framework de código abierto. Se enfoca en manejar grandes conjuntos de datos en sistemas de almacenamiento distribuido. Su objetivo es mejorar el procesamiento de datos incrementales y en tiempo real sobre lagos de datos.

Hudi nació de la necesidad de manejar datos cambiantes en Big Data. Ofrece herramientas para upserts, deletes y streamings de datos.

Definición y propósito

Apache Hudi mejora la gestión de datos en arquitectura de datos y lagos de datos. Ayuda a resolver problemas comunes con datos cambiantes en grandes cantidades. Esto incluye mejorar la eficiencia en operaciones de actualización, inserción y borrado.

Historia y evolución de Hudi

Hudi comenzó en Uber para manejar procesamiento de datos en tiempo real. Luego, se donó a la Fundación Apache en 2019. Desde entonces, ha crecido y se ha convertido en una opción popular en Big Data.

«Apache Hudi es un proyecto de código abierto que ha ganado una adopción significativa en el ecosistema de Big Data debido a su enfoque en optimizar la gestión de datos cambiantes en lagos de datos.»

Características principales de Apache Hudi

Apache Hudi es una herramienta clave en el mundo del Big Data. Ofrece características que la hacen muy atractiva para manejar datos que cambian rápido. Una de sus grandes ventajas es el soporte para datos en tiempo real. Esto permite hacer actualizaciones y procesar streaming de datos de manera eficiente.

Otra gran ventaja de Apache Hudi es su manejo de datos duplicados. Usando técnicas de deduplicación, Hudi elimina registros repetidos. Esto mejora el almacenamiento y la calidad de los datos.

Integración con otras herramientas de Big Data

Hudi se integra fácilmente con herramientas populares como Apache Spark, Apache Hive y Presto. Esta integración hace que sea más fácil usar Hudi en ecosistemas de Big Data. Así, los equipos pueden aprovechar las herramientas que ya conocen y usan.

CaracterísticaDescripción
Soporte para datos en tiempo realPermite actualizaciones incrementales y procesamiento de streaming de datos
Manejo de datos duplicadosUtiliza técnicas de deduplicación para eliminar registros duplicados
Integración con otras herramientas de Big DataSe integra fácilmente con Apache Spark, Apache Hive y Presto
Apache Hudi integration

«Apache Hudi se destaca por su capacidad para manejar datos en constante evolución, optimizando el almacenamiento y mejorando la calidad de la información.»

Arquitectura de Apache Hudi

La arquitectura de Apache Hudi incluye varios componentes clave. Estos trabajan juntos para ofrecer sus funciones. Hudi usa un sistema de indexación y un formato de archivo optimizado.

Esto permite actualizaciones rápidas y eficientes en grandes conjuntos de datos. Su diseño permite la coexistencia de datos históricos y actualizados. Esto facilita consultas eficientes tanto para datos recientes como para análisis históricos.

Componentes clave

  • Módulo de ingesta de datos: Responsable de la captura y procesamiento de los datos en tiempo real o por lotes.
  • Índice de datos: Mantiene un índice efectivo de los datos para permitir actualizaciones eficientes.
  • Almacenamiento de datos: Utiliza un formato de archivo optimizado, como Parquet o Avro, para el almacenamiento de datos.
  • Motor de consultas: Permite ejecutar consultas SQL sobre los datos almacenados en Hudi.

Cómo funciona Hudi internamente

Hudi emplea un enfoque innovador para la gestión de datos cambiantes. Utiliza índices y formatos de archivo optimizados para un alto rendimiento. Esto permite mantener un lago de datos consistente y coherente.

Los datos históricos y actualizados coexisten sin problemas. Esto facilita consultas eficientes tanto para datos recientes como para análisis a largo plazo.

«Hudi emplea un enfoque innovador para la gestión de datos cambiantes en entornos de procesamiento de datos a gran escala.»

Ventajas de utilizar Apache Hudi

Apache Hudi es una solución innovadora para el manejo de datos en Big Data. Ofrece ventajas importantes para empresas y profesionales del análisis de datos, el big data y el procesamiento de datos.

Rendimiento mejorado

Apache Hudi mejora el rendimiento de las consultas y el procesamiento de datos. Su sistema de indexación y formato de archivo optimizado hacen las cosas más rápidas. Esto aumenta la eficiencia y mejora la productividad.

Reducción de costes de almacenamiento

Hudi usa técnicas avanzadas de compresión y gestión de espacio. Esto ayuda a las organizaciones a reducir costes en big data y procesamiento de datos. Esto significa ahorro a largo plazo.

Flexibilidad en la gestión de datos

Hudi maneja datos cambiantes de forma flexible. Permite actualizaciones incrementales y en tiempo real. Esto es crucial para aplicaciones que necesitan información actualizada constantemente.

CaracterísticaDescripción
Rendimiento mejoradoHudi optimiza la indexación y el formato de archivos para acelerar las consultas y el procesamiento de datos.
Reducción de costesTécnicas de compresión y gestión eficiente del espacio permiten ahorrar en los costes de almacenamiento.
Flexibilidad en la gestiónHudi maneja actualizaciones incrementales y en tiempo real, adaptándose a las necesidades cambiantes de los datos.

En resumen, Apache Hudi mejora el rendimiento, reduce costes y ofrece flexibilidad en la gestión de datos. Es una herramienta valiosa para optimizar análisis de datos y procesos de big data.

Análisis de datos con Apache Hudi

Casos de uso de Apache Hudi

Apache Hudi es una solución innovadora para el análisis de datos. Se usa en varios sectores industriales y en el mundo del big data. Permite manejar datos que cambian en tiempo real. Esto hace que sea esencial para empresas que necesitan datos actualizados y confiables.

Ejemplos en sectores industriales

En el sector financiero, Hudi es clave para actualizar registros de transacciones continuamente. Esto asegura que siempre se tenga la información más reciente para tomar decisiones. En el comercio electrónico, Hudi ayuda a mantener inventarios actualizados en tiempo real. Esto permite a las empresas ajustarse rápido a los cambios en la demanda y mejorar sus operaciones.

En el ámbito de streaming de datos, Hudi sobresale al manejar flujos de datos de dispositivos IoT. Procesa estos datos continuamente, permitiendo análisis y decisiones más rápidas. Esto es muy útil en sectores como la fabricación, la logística y la energía.

Aplicaciones en análisis de datos

Hudi también se destaca en el análisis de datos. Facilita la creación de pipelines de datos que mezclan información histórica con actualizaciones en tiempo real. Esto permite obtener insights más precisos y útiles para tomar decisiones. Es una herramienta invaluable para empresas que quieren sacar el máximo provecho de sus datos y tener ventajas competitivas.

SectorCaso de uso de Apache Hudi
FinanzasActualización continua de registros de transacciones
Comercio electrónicoMantenimiento de inventarios en tiempo real
IoTGestión de flujos de datos de dispositivos conectados
Análisis de datosCreación de pipelines de datos que combinan datos históricos y en tiempo real

Apache Hudi es una solución avanzada para la gestión de análisis de datos, big data y streaming de datos. Ofrece a las empresas la capacidad de adaptar sus sistemas de información a las demandas cambiantes. Así, aprovechan al máximo el valor de sus datos.

Diferencias entre Apache Hudi y otras soluciones

Apache Hudi, Apache Iceberg y Delta Lake son soluciones para manejar datos en Big Data. Cada una tiene características únicas. Hudi se enfoca en actualizaciones en tiempo real. Iceberg se centra en la gestión de esquemas y consultas rápidas. Delta Lake es similar a Hudi pero trabaja mejor con Databricks.

Comparación con Apache Iceberg

Una gran diferencia entre Hudi y Iceberg es cómo manejan los datos cambiantes. Hudi es ideal para actualizaciones y eliminaciones de registros. Iceberg se enfoca más en la gestión de esquemas y en mejorar el rendimiento de las consultas.

Comparación con Delta Lake

Hudi y Delta Lake tienen capacidades similares para manejar datos en tiempo real. Pero Delta Lake trabaja mejor con Databricks. Hudi, por otro lado, se integra con muchas herramientas de Big Data.

CaracterísticaApache HudiApache IcebergDelta Lake
Enfoque principalGestión de datos cambiantes en tiempo realGestión de esquemas y rendimiento de consultasIntegración con el ecosistema de Databricks
Soporte para upsert y deleteNo
Integración con herramientas de Big DataAmpliaModeradaEstrecha con Databricks

La elección entre estas soluciones depende de las necesidades de cada proyecto. Esto incluye manejo de datos cambiantes, gestión de esquemas, rendimiento de consultas y integración con tecnologías existentes.

Comparación entre Apache Hudi, Apache Iceberg y Delta Lake

Instalación y configuración de Apache Hudi

Para instalar Apache Hudi, primero debes preparar un entorno de Big Data. Esto significa tener un sistema con Apache Hadoop o usar una plataforma en la nube como Amazon EMR. Es crucial tener Java 8 o superior y Apache Spark 2.x o 3.x bien configurados.

Requisitos previos

  • Java 8 o superior
  • Apache Spark 2.x o 3.x
  • Un sistema basado en Hadoop o una plataforma de procesamiento de datos en la nube

Pasos para la instalación

  1. Descarga los JAR de Apache Hudi desde el repositorio oficial.
  2. Configura las dependencias de Hudi en tu entorno de Apache Spark.
  3. Ajusta los parámetros de configuración de Hudi según las necesidades específicas de tu proyecto de procesamiento de datos.

Una vez instalado y configurado, Apache Hudi estará listo para ayudarte a manejar datos cambiantes en tus proyectos de big data.

«La instalación de Apache Hudi es un paso fundamental para aprovechar sus características y beneficios en la gestión de datos en tiempo real.»

CaracterísticaDescripción
Compatibilidad con Java 8+Apache Hudi requiere una versión de Java 8 o superior para su correcto funcionamiento.
Integración con Apache SparkHudi se integra perfectamente con Apache Spark, permitiendo la ejecución de operaciones de lectura, escritura y gestión de datos en tiempo real.
Configuración flexibleLos parámetros de Hudi pueden ajustarse según las necesidades específicas de cada proyecto de big data.

Cómo crear y gestionar tablas en Apache Hudi

Apache Hudi es una herramienta clave para manejar datos cambiantes en Big Data. Ofrece tablas adaptadas a diferentes necesidades. Las tablas principales son:

Tipos de tablas en Hudi

  1. Copy On Write (COW): Este tipo mejora el rendimiento de escritura. Al actualizar, crea una nueva versión del registro. Así, los datos se procesan más rápido.
  2. Merge On Read (MOR): Las tablas MOR optimizan la lectura. Mantienen versiones antiguas y nuevas, fusionándolas al leer. Esto ofrece una visión completa de los datos.

La elección entre COW y MOR depende de las necesidades de latencia y rendimiento.

Operaciones básicas de gestión de tablas

Apache Hudi facilita varias operaciones básicas:

  • Creación de tablas: Permite crear tablas COW o MOR según lo necesario.
  • Inserción de datos: Los datos se pueden insertar mediante procesos batch o streaming.
  • Upserts: Hudi actualiza registros existentes y inserta nuevos de manera unificada. Esto simplifica el manejo de datos cambiantes.
  • Eliminación de datos: Permite borrar registros, manteniendo un registro de los cambios.

Estas operaciones y la flexibilidad de COW y MOR hacen a Apache Hudi versátil. Se adapta a muchos escenarios de Big Data.

Procesamiento de datos en Apache Hudi

Consultas sobre datos en Apache Hudi

Apache Hudi tiene muchas opciones para consultar datos. Los usuarios pueden usar Spark SQL, Presto y Hive para analizar datos de forma eficiente.

Métodos de consulta

Hudi mejora el rendimiento de las consultas gracias a su formato de archivo y estructura de indexación. Los usuarios pueden usar Spark SQL para realizar consultas SQL. Presto y Hive también son compatibles, ofreciendo flexibilidad en la elección de herramientas.

Ejemplo de consultas SQL

Aquí hay un ejemplo de consulta SQL en una tabla Hudi:


SELECT
product_id,
SUM(quantity) AS total_quantity,
AVG(price) AS avg_price
FROM hudi_table
WHERE order_date BETWEEN '2022-01-01' AND '2022-12-31'
GROUP BY product_id
ORDER BY total_quantity DESC
LIMIT 10;

Esta consulta muestra los 10 productos más vendidos en 2022. Muestra el total de unidades vendidas y el precio promedio. Hudi mejora la ejecución de esta consulta, logrando un rendimiento superior.

«Hudi ha demostrado una mejora de hasta 33 veces en la eficiencia de las consultas SQL con joins en tablas particionadas, en comparación con soluciones tradicionales como Apache Spark

Las mejoras en rendimiento se deben a la optimización de Hudi. Esto permite a los equipos de análisis de datos y big data obtener respuestas rápidas. Así, pueden tomar decisiones más rápido.

Integración de Apache Hudi con Spark

La integración de Apache Hudi con Apache Spark es clave para manejar grandes cantidades de datos. Se configura Spark para usar las herramientas de Hudi. Se ajustan los parámetros según sea necesario.

Configuración de Spark para Hudi

Para unir Hudi con Spark, hay que seguir estos pasos:

  1. Agregar las dependencias de Hudi al proyecto de Spark.
  2. Configurar Spark para Hudi, como las rutas de acceso y opciones de compactación.
  3. Configurar la seguridad y control de acceso para proteger los datos.

Ejemplos de procesamiento de datos

Con Spark y Hudi, se procesan datos de forma eficiente. Algunos ejemplos son:

  • Leer datos de Hudi con la API de DataFrame de Spark.
  • Transformar y analizar los datos con Apache Spark.
  • Escrebir resultados a tablas Hudi, aprovechando Hudi para upsert y delete.
Integración de Apache Hudi con Apache Spark

«La integración de Hudi y Spark simplifica la gestión de datos cambiantes y brinda un alto rendimiento en el procesamiento de big data

Unir las fuerzas de Hudi y Spark mejora la gestión de datos. Así, los equipos de procesamiento de datos enfrentan los desafíos con más eficiencia y rapidez.

Seguridad y gobernanza en Apache Hudi

La gestión de datos cambiantes en big data es un gran desafío. Apache Hudi ofrece soluciones sólidas en este campo. Destaca por su enfoque en seguridad y gobernanza de los datos.

Proporciona mecanismos de control de acceso y auditoría de cambios. Esto garantiza la integridad y trazabilidad de la información.

Mecanismos de control de acceso

Apache Hudi se integra con sistemas de seguridad de Hadoop. Esto permite a los administradores definir políticas de acceso granulares. Se pueden establecer permisos específicos para usuarios y roles.

Así, solo las personas autorizadas pueden acceder y manipular los datos almacenados en Hudi.

Auditoría de cambios en datos

La gobernanza en Hudi incluye la capacidad de auditar cambios en los datos. Hudi mantiene un registro detallado de todas las operaciones de escritura. Esto permite rastrear con precisión cualquier modificación, adición o eliminación de información.

Esta trazabilidad es fundamental para garantizar la integridad de los datos. También facilita el cumplimiento normativo en entornos de big data.

CaracterísticaDescripción
Control de accesoIntegración con sistemas de seguridad de Hadoop para definir políticas de permisos granulares
Auditoría de cambiosRegistro detallado de todas las operaciones de escritura para una trazabilidad completa

La combinación de estos mecanismos de seguridad y gobernanza en Apache Hudi permite a las organizaciones manejar eficientemente los datos cambiantes. Garantiza la integridad de los datos y cumple con los requisitos normativos.

«La gobernanza de datos es fundamental en el mundo del big data, y Apache Hudi lo aborda de manera integral con sus soluciones de control de acceso y auditoría.»

Monitorización y mantenimiento de Apache Hudi

La gestión eficiente de Apache Hudi es clave para un buen procesamiento de datos. Es esencial contar con herramientas de monitorización y seguir prácticas de mantenimiento. Esto asegura un alto rendimiento en entornos de big data.

Herramientas de monitorización

Para monitorear Apache Hudi, se pueden usar Prometheus y Grafana. Estas herramientas recopilan y muestran métricas importantes. Estas incluyen el rendimiento, el uso de recursos y el estado general del sistema.

Al analizar estos datos, los equipos de procesamiento de datos pueden identificar problemas. También pueden optimizar el rendimiento y tomar decisiones informadas sobre el mantenimiento.

Mejores prácticas para el mantenimiento

  1. Es importante realizar compactaciones de datos regularmente. Esto optimiza el almacenamiento y mejora el rendimiento de las consultas. Se debe establecer una estrategia de compactación adecuada.
  2. Configurar parámetros de limpieza es crucial. Hudi permite gestionar versiones antiguas de los datos. Esto mantiene un tamaño de almacenamiento óptimo y evita la acumulación innecesaria de datos.
  3. Es vital supervisar constantemente el rendimiento de las consultas y operaciones de escritura en Hudi. Esto permite identificar cuellos de botella y tomar medidas correctivas a tiempo.

Al seguir estas mejores prácticas, los equipos de big data pueden asegurar la escalabilidad, eficiencia y confiabilidad de sus sistemas basados en Apache Hudi.

Rendimiento de Apache Hudi

Para mejorar el rendimiento de Apache Hudi, es clave ajustar varios parámetros importantes. Esto incluye optimizar el tamaño de los archivos, la frecuencia de las compactaciones y elegir la mejor estrategia de indexación.

Optimización del rendimiento

Es vital considerar varios aspectos para mejorar el rendimiento de Apache Hudi:

  • Tamaño de los archivos: Cambiar el tamaño de los archivos puede mejorar mucho las consultas. Un tamaño adecuado reduce la fragmentación y mejora la eficiencia.
  • Frecuencia de compactación: Compactar los datos mantiene los archivos eficientes. Ajustar la frecuencia de compactación según la carga de trabajo mejora el rendimiento.
  • Estrategia de indexación: Hudi ofrece varias estrategias, como Bloom Filters y estadísticas de columnas. Escoger la mejor según los patrones de acceso mejora el rendimiento de las consultas.

Técnicas de ajuste

Además de ajustar parámetros, hay otras técnicas para mejorar el rendimiento de Apache Hudi:

  1. Optimización de consultas: Analizar y optimizar las consultas SQL mejora el uso de Hudi. Esto incluye aprovechar la partición y los índices.
  2. Paralelización en Spark: Configurar la paralelización en Apache Spark acelera el procesamiento de datos.
  3. Selección de tablas COW y MOR: Elegir entre tablas Copy-on-Write (COW) y Merge-on-Read (MOR) según los patrones de acceso mejora el rendimiento.

Estas técnicas, junto con una buena configuración, mejoran mucho el rendimiento de Apache Hudi en entornos de big data.

MétricaValor
Mejora en rendimiento de consultas SQL con joins en tablas particionadasHasta 33x
Soporte de Delta Lake para operaciones de actualización y eliminación
Soporte de Apache Hudi para operaciones de upsert
Madurez de Delta Lake en el manejo de mutaciones de datosMás madura que Apache Hudi e Iceberg

En resumen, para optimizar el rendimiento de Apache Hudi, es importante ajustar parámetros clave. Esto incluye el tamaño de los archivos, la frecuencia de compactación y la estrategia de indexación. Además, técnicas como la optimización de consultas, la paralelización en Spark y la selección de tablas COW y MOR mejoran mucho el rendimiento en entornos de big data y análisis de datos.

Futuro de Apache Hudi

El futuro de Apache Hudi está ligado a las nuevas tendencias en la gestión de datos cambiantes en big data. Las organizaciones enfrentan desafíos cada vez más complejos. Se espera que Hudi juegue un papel más importante en la administración de estos datos.

Tendencias en la gestión de datos

Una tendencia clave es el procesamiento de datos en tiempo real. Las empresas quieren obtener insights rápidos y tomar decisiones con agilidad. La capacidad de Hudi para manejar datos cambiantes y ofrecer vistas actualizadas en tiempo real se vuelve más valiosa.

Se espera una mayor integración de Hudi con sistemas de machine learning. Las organizaciones quieren aprovechar al máximo sus datos. La habilidad de Hudi para ofrecer un modelo de datos confiable y coherente será fundamental para alimentar modelos de aprendizaje automático precisos y eficientes.

Proyecciones y desarrollos esperados

  • Mejoras en el rendimiento de Hudi, con optimizaciones en el procesamiento y consultas para satisfacer las crecientes demandas de big data.
  • Mayor soporte para diversos formatos de datos, permitiendo a las empresas integrar y gestionar aún más tipos de información en un único sistema.
  • Una integración más profunda con otras herramientas del ecosistema de Big Data, como Spark, Hive y Presto, para una experiencia de usuario más fluida y completa.
  • Avances en la seguridad y gobernanza de datos dentro de Hudi, brindando a las organizaciones mayores controles y visibilidad sobre sus datos.

Apache Hudi se perfila como una solución clave para satisfacer las necesidades en constante evolución. Las empresas continúan enfrentando desafíos cada vez más complejos en la gestión de datos cambiantes en big data.

Comunidad y soporte de Apache Hudi

Apache Hudi es un proyecto de código abierto con una comunidad activa. Los desarrolladores de todo el mundo contribuyen regularmente. Se puede participar en la comunidad a través de listas de correo, foros y contribuciones al código.

Participación en la comunidad

  • Unirse a las listas de correo de Apache Hudi para mantenerse al tanto de las últimas novedades, discusiones y solicitudes de mejoras.
  • Participar en los foros de Apache Hudi, donde los miembros de la comunidad comparten conocimientos, resuelven problemas y debaten sobre el futuro de la herramienta.
  • Contribuir con código al repositorio de Apache Hudi en GitHub, ya sea solucionando problemas existentes o proponiendo nuevas funcionalidades.

Recursos y documentación disponible

El sitio web oficial de Apache Hudi ofrece una amplia gama de recursos y documentación. Estos recursos son perfectos para aprender más sobre esta tecnología o implementarla en proyectos de big data y procesamiento de datos. Algunos de los recursos disponibles incluyen:

  1. Guías de inicio rápido y tutoriales detallados para configurar y utilizar Apache Hudi.
  2. Ejemplos de código y casos de uso que ilustran las diferentes funcionalidades de Hudi.
  3. Documentación técnica exhaustiva, que abarca desde la arquitectura hasta las mejores prácticas de implementación.
  4. Foros y listas de correo activas donde los miembros de la comunidad intercambian conocimientos y resuelven problemas.

La comunidad de Apache Hudi y los recursos disponibles brindan un sólido respaldo y soporte. Esto es ideal para aquellos que deseen adoptar esta tecnología en sus proyectos de big data y procesamiento de datos.

«La modernización de los datos marca un momento crucial para cualquier organización que busca reinventarse.»

Conclusiones sobre Apache Hudi

Apache Hudi es una solución clave para manejar datos cambiantes en Big Data. Ofrece mejor rendimiento, menos costos de almacenamiento y más flexibilidad en la gestión de datos.

Resumen de beneficios

Hudi une el almacenamiento de un data lake con el análisis de un data warehouse. Esto permite procesar datos en tiempo real y manejar datos duplicados eficientemente. Además, se integra bien con otras herramientas de Big Data.

Consideraciones finales para su adopción

Evaluar los requisitos del proyecto y la compatibilidad con la infraestructura es crucial. La migración a un enfoque de Data y manejar grandes volúmenes de datos con Apache Hudi son aspectos importantes.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *