Hadoop, sus componentes, ecosistemas y distribuciones

Loading...
Thumbnail Image
Date
2022-09
Journal Title
Journal ISSN
Volume Title
Publisher
Centro de Estudios en Línea
Abstract
Hadoop es un marco de trabajo para big data que surgió gracias a dos desarrollos importantes de Google, como son Google File System y Map Reduce. A través de los años se ha convertido en el conjunto de herramientas para big data más usado. Hadoop es un marco de trabajo (framework) que permite el procesamiento distribuido de grandes conjuntos de datos a través de clústers de computadoras, utilizando modelos de programación sencillos. Está diseñado para escalar desde simples servidores a miles de máquinas, cada una ofreciendo computación local y almacenamiento. El presente material le ofrece al estudiante la oportunidad de estudiar y conocer sobre el origen de esta herramienta, sus características, componentes y ecosistema, ya que el mismo es conocido por ser un complejo ecosistema de proyectos diversos que trabajan a la par, con el objetivo de crear un conjunto común de servicios capaces de transformar lo que se le conoce como commodity hardware en un servicio coherente que permita almacenar de forma redundante petabytes de datos y procesarlos eficientemente. Asimismo, se estudiarán las distribuciones de Hadoop y la importancia de las mismas en el mundo de big data.
Description
Conocer el origen de Hadoop, cómo es su ecosistema y qué son sus distribuciones.
Keywords
Citation
APA