sábado, 7 de enero de 2012

Hadoop, almacenamiento escalable y procesamiento por lotes de grandes conjuntos de datos (Big Data)

Los desarrolladores de The Apache Software FoundationApache Hadoop, el marco web de código abierto para el análisis de grandes volúmenes de datos, ha anunciado la disponibilidad de la primera versión estable de la plataforma. Hadoop, es un marco basado en java, Mapa libres, que  reducen las aplicaciones distribuidas y manejo intensivo de datos. Permite el procesamiento de datos para el almacenamiento escalable y procesamiento por lotes de grandes conjuntos de datos (Big Data). Después de más de seis años de desarrollo, Hadoop, ha alcanzado una etapa importante en su desarrollo mediante la actualización a la versión " 1.0.0 ". Esta versión basada en la rama de seguros Hadoop 0,20 introduce varias mejoras de rendimiento y nuevas características, incluyendo la integración y el pleno apoyo de Gran Mesa de Google, el sistema de gestión de base de datos de compresión de alto rendimiento de Google. Hadoop 1.0.0 también ofrece mejoras significativas en las características de seguridad para el sistema de archivos HDFS (Hadoop Sistema de archivos distribuido) que WebHDFS ahora pueden acceder a un volumen HDFS a través del protocolo HTTP y el marco para el cálculo de MapReduce distribuidos. La seguridad en los nodos es proporcionado por la autenticación Kerberos. La plataforma ya muy popular para el análisis de "Big Data" es ahora más fiable, estable y proporcionan la base para los principales proveedores de Hadoop. Un popularidad incluso ha llevado al abandono de su propia tecnología de datos de procesamiento paralelo y distribuido por Microsoft LINQ to HPC , para centrarse en el apoyo de Hadoop en sus productos (SQL Server, SQL Server Data Warehouse en paralelo, Windows Azure, etc. ).

Descargar aquí



No hay comentarios:

Publicar un comentario