Que son Macrodatos

Macrodatos

Nota: (Big-data es el término que describe los volumen de datos masivos (Macrodatos), que nos inundan masivamente todos los días a las empresa y corporaciones, big data es el analizado para obtener la información que oriente a tomar las mejores decisiones y acciones en los negocios) .

 

Que son los Macrodatos

-. Big-data , Macrodatos, es un término que hace referencia a conjuntos de datos tan grandes y complejos que precisan de aplicaciones informáticas no tradicionales de procesamiento de datos para tratarlos adecuadamente. Los datos son la reproducción simbólica de un atributo o variable cuantitativa o cualitativa, es la Información sobre algo concreto que permite su conocimiento exacto o sirve para deducir las consecuencias derivadas de un hecho. los procedimientos usados para encontrar patrones repetitivos dentro de esos datos son más sofisticados y requieren un software especializado aquí es donde entra en juego Apache.spark.

-. Big-Data últimamente tiende a referirse al análisis del comportamiento del usuario,(Internet de las CosasIoTpuedes rastrear los hábitos de compra, de sueño o la calorías que quemas cuando se correr y pronto lo que soñamos). extrayendo valor de los datos almacenados, y formulando predicciones a través de los patrones observados. La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos.

-. Las dificultades más habituales vinculadas a la gestión de estos grandes volúmenes de datos se centran en la recolección y el almacenamiento de los mismos, en las búsquedas, acción y efecto de compartircomparticiones”, y los análisis, y en las visualizaciones y representaciones. La tendencia a manipular enormes volúmenes de datos se debe en muchos casos a la necesidad de incluir dicha información para la creación de informes estadísticos y modelos predictivos utilizados en diversas materias, como los análisis sobre negocios, sobre publicidad, sobre enfermedades infecciosas, sobre el espionaje y el seguimiento a la población.

-. El límite superior de procesamiento ha ido creciendo a lo largo de los años. Se estima que el mundo almacenó en 2020 64,2 Zetabytes de datos 1 Zettabyte ZB = 1 099 511 627 776 Gigabyte GB. Los expertos encuentran límites en el análisis debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica, las complejas simulaciones de procesos físicos y las investigaciones relacionadas con los procesos biológicos y ambientales.

-. Los Data-sets crecen en volumen debido en parte a la recolección masiva de información procedente de los sensores inalámbricos y los dispositivos móviles, el constante crecimiento de los históricos de aplicaciones, las cámaras teledetección, los micrófonos, los lectores de identificación por radiofrecuencia.

 

Nota: Un conjunto de datos conocido como data-set, es una colección de datos habitualmente tabulados.

 

-. Los sistemas de gestión de bases de datos relacionales y los paquetes de software utilizados para visualizar datos, tienen dificultades para manejar big-data. Este magia de este trabajo puede requerir un software  masivamente paralelo que se ejecute en decenas, cientos o incluso miles de servidores un ejemplo de esto es Apache-Spark. Lo que podemos califica como big-data varía según las capacidades de los usuarios y sus herramientas, y las capacidades de expansión hacen que big-data sea un objetivo en movimiento, podemos necesitar mas o menos capacidad de computación .

-. El Big-Data tiene un gran potencial y aumenta el progreso de la tecnología. Usando Big-Data somos capaces de tomar decisiones más rápido y con mejor criterio. Las empresas pueden incluso predecir con exactitud qué segmentos de sus clientes pueden querer sus productos y en qué momento, lo que les permite lanzar sus campañas de publicidad en el instante oportuno. El Big-Data cambia la manera en la que las organizaciones y las personas toman sus decisiones , sin duda, incluso conociendo el porcentaje de exactitud en la decisión.

 

Recapitulando:

Big-Data se convierte en una necesidad para manipular datos tan grandes y complejos a medida que las computadoras han mejorado en capacidad y velocidad, las mayores posibilidades de almacenamiento y procesamiento también han generado nuevos problemas. Pero estos nuevos requisitos, que pueden observarse en patrones y tendencias nunca antes vistos en el manejo de estos conjuntos de datos masivamente grandes, pueden ser difíciles de implementar sin nuevas herramientas analíticas que permitan ir orientando a los usuarios, destacando los posibles puntos de interés.