003 Big Data
003 Big Data
003 Big Data
Hoy en día, casi más de 7.000 millones de dispositivos comparten información por
Internet. Se estima que esta cifra se elevará hasta los 20.000 millones en 2025. En este
sentido, el Big Data se encarga de analizar este océano de datos para convertirlo en la
información que está transformando el mundo.
Las necesidades de gigantes como Google fueron incrementándose con el paso del
tiempo. En un momento dado, se tuvieron que plantear qué hacer con tanta cantidad
de datos y cómo sacar provecho de los mismos. Esto les llevó a comprender que, si
analizaban toda la información que recopilaban, podían llegar a entender mejor el
mercado y a crear estrategias personalizadas en base a esos datos con el objetivo de
satisfacer mejor las necesidades de los consumidores.
Así, toda esa información se convirtió en la nueva clave para tomar decisiones
inteligentes y acertadas minimizando riesgos. Además, lo más importante, podían
predecir el comportamiento de los consumidores y estar en el momento exacto en el que
quisieran satisfacer alguna necesidad.
A la hora de recoger, procesar y analizar Big Data, suele hablarse de datos operativos o
datos analíticos que se almacenan según distintos criterios.
El Big Data es usado por la mayoría de industrias para identificar patrones y tendencias.
También para responder preguntas, detectar las necesidades del mercado, las demandas
y para obtener información sobre los clientes. Las empresas usan esta información para
mejorar sus negocios, entender las decisiones de los clientes, realizar investigaciones,
Estas empresas que han entendido qué es Big Data y para qué sirve tienen:
A la hora de clasificar los “grandes datos” podemos hacerlo según dos criterios:
procedencia y estructura. Así, según su procedencia, los datos pueden llegar desde
distintas fuentes, entre otras:
Así, luego de entender qué es Big Data y para qué sirve, veamos algunas de sus
principales herramientas:
Hadoop: es una herramienta de código abierto que nos permite tanto gestionar
los grandes volúmenes de datos, como analizarlos y procesarlos. Hadoop
implementa MapReduce, un modelo de programación que da soporte a la
computación paralela sobre grandes colecciones de datos.
NoSQL: se trata de sistemas que no utilizan SQL como lenguaje de consultas, lo
que, a pesar de no poder garantizar la integridad de los datos (principios ACID:
atomicidad, consistencia, integridad y durabilidad), les permite obtener
ganancias significativas en escalabilidad y rendimiento a la hora de trabajar con
Big Data. Una de las bases de datos NoSQL más populares es MongoDB.
Spark: es un framework de computación en clúster de código abierto que
permite procesar los datos de forma rápida. Permite escribir aplicaciones en
Java, Scala, Python, R y SQL y funciona tanto sobre Hadoop, Apache Mesos,
Kubernetes, como de forma independiente o en la nube. Puede acceder a
centenares de fuentes de datos.
Storm: es un sistema de computación en tiempo real distribuido de código libre.
Storm permite procesar flujos ilimitados de datos en tiempo real de manera
sencilla, pudiendo usarse con cualquier lenguaje de programación.
Hive: es una infraestructura de Data Warehouse construida sobre Hadoop.
Facilita la lectura, escritura y administración de grandes conjuntos de datos que
residen en almacenamiento distribuido mediante SQL.
R: es uno de los lenguajes de programación más utilizados en análisis
estadísticos y en minería de datos . Puede integrarse con distintas bases de datos
y permite generar gráficos con alta calidad.
D3.js: es una biblioteca de JavaScript para producir visualizaciones dinámicas e
interactivas de datos en navegadores web, usando HTML, SVG y CSS.
Ventajas del uso del Big Data
Como hemos comentado en el punto anterior, el Big Data es enormemente beneficioso
si se usa correctamente. Las organizaciones pueden aprovechar toda la información que
se les brinda para mejorar la toma de decisiones, ser más eficientes y optimizar los
costes, así como segmentar a los clientes y conseguir nuevas fuentes de ingreso.
Además: