¿Qué son la computación en la nube y los big data?
La computación en la nube es un modelo de aumento, uso y entrega de servicios relacionados basado en Internet, que generalmente implica proporcionar recursos dinámicamente escalables y a menudo virtualizados a través de Internet. La nube es una metáfora de la red y de Internet. En el pasado, la nube se usaba a menudo para representar redes de telecomunicaciones en diagramas y, más tarde, también se usó para representar la abstracción de Internet y la infraestructura subyacente. La computación en la nube en sentido estricto se refiere al modelo de entrega y uso de la infraestructura de TI, que se refiere a la obtención de los recursos necesarios a través de la red de manera bajo demanda y fácilmente escalable; en el sentido amplio, la computación en la nube se refiere al modelo de entrega y uso; de servicios, que se refiere a la forma bajo demanda y fácilmente escalable a través de la red para obtener los servicios que necesita. Dichos servicios pueden ser de TI, software, relacionados con Internet u otros servicios. Significa que la potencia informática también puede circular como mercancía a través de Internet.
Big data, o datos masivos, se refiere a la cantidad de datos involucrados que es tan grande que no se puede capturar, administrar, procesar y procesar en un tiempo razonable a través de las herramientas de software convencionales y organizar la información. en un propósito más positivo para ayudar a las empresas a tomar decisiones comerciales. Las características de los 4V del big data: volumen, velocidad, variedad y veracidad.
Técnicamente, la relación entre big data y computación en la nube es tan inseparable como las dos caras de una misma moneda. Los big data no pueden ser procesados por una sola computadora y se debe utilizar una arquitectura informática distribuida. Su característica radica en la extracción masiva de datos, pero debe depender del procesamiento distribuido, la base de datos distribuida, el almacenamiento en la nube y la tecnología de virtualización de la computación en la nube.
Gestión de big data, sistemas de archivos distribuidos, como Hadoop, segmentación de datos Mapreduce y ejecución de acceso, soporte SQL, soporte de interfaz SQL representado por Hive + HADOOP, utilizando computación en la nube en tecnología de big data; La construcción de almacenes de datos de próxima generación se ha convertido en un tema candente. Desde la perspectiva de los requisitos del sistema, la arquitectura de big data plantea nuevos desafíos al sistema:
1. Un chasis estándar completa una tarea específica en la mayor medida posible.
2. La configuración es más razonable y la velocidad es más rápida. El diseño equilibrado de almacenamiento, controlador, canal de E/S, memoria, CPU y red, así como el diseño óptimo para el acceso al almacén de datos, son más de un orden de magnitud superiores a las plataformas similares tradicionales.
3. Menor consumo energético general. Para las mismas tareas informáticas, el consumo de energía es el más bajo.
4. El sistema es más estable y confiable. Puede eliminar varios puntos únicos de falla y unificar la calidad y los estándares de un componente o dispositivo.
5. Bajos costes de gestión y mantenimiento. La gestión rutinaria de las recopilaciones de datos está totalmente integrada.
6. Hoja de ruta de ampliación y actualización del sistema planificada y previsible.