Las principales tendencias del 2014

El 2014 propone la consolidación de tecnologías que han venido gestándose durante los últimos años (IoE, Cloud, Big Data, Mobility, Data Analytics, Bitcoin, Smart Devices, 3D Printing, entre otras). A continuación vamos entender un poco más acerca de algunas de ellas y cómo creemos que pueden cambiar el mundo.

IoE (Internet of Everything)

IoE se refiere a la interacción entre personas, procesos, cosas y datos, aportando valor a individuos y organizaciones. ¿Cómo funciona? Nosotros, las personas, nos comunicamos utilizando dispositivos electrónicos y plataformas sociales de comunicación, pero en el futuro seremos un punto más de conexión con esa red de redes que es IoE. A modo de ejemplo, la ropa tendrá sensores que podrán medir nuestros signos vitales, inferir en situaciones de stress, etc. Los procesos, se refiere a como personas, datos y cosas interactúan virtualmente entre sí. Las cosas, (incluye cosas físicas como ser sensores, dispositivos de consumos y cualquier otra cosa que pueda tener conexión a internet) tendrán la capacidad de interactuar y hasta de tomar decisiones. Los datos, los dispositivos tecnológicos dejarán de enviar información a un punto central y pasarán a procesar, entender y tomar ciertas decisiones para luego interactuar con otros dispositivos o nodos del IoE.
Según Cisco, el crecimiento de Internet ocurre en distintas olas y las mismas permitirán la evolución natural de IoE que llegará al año 2020 con más de 50 billones de cosas conectadas. El futuro sin duda está en conectar aquello que aún está desconectado y que tenga cierta capacidad de procesamiento que permita tomar decisiones y proveer información de valor.

Big Data

Big Data resume el desafío de las organizaciones para gestionar el enorme y creciente volumen de datos generados desde diversas fuentes, lugares y tecnologías. Podemos resumirlo en 4 “v´s”: volumen (enormes cantidades de datos), velocidad (necesidad de analizar esos datos de forma rápida y precisa), veracidad (capacidad de lidiar con los problemas de calidad de datos ya que las fuentes pueden ser desconocidas o no confiables) y variedad (capacidad de lidiar con distintos tipos de datos que no respetan necesariamente una estructura o estándar).
Referirse a “big data” como un volumen enorme de datos puede significar una simpleza que no refleja del todo la realidad. Los siguientes números nos demuestran la magnitud de la herramienta:
Para el 2015 se espera que hayan 3 billones de personas online, creando y subiendo contenido por un tamaño cercano a los 8 zettabytes. Para el 2020 ese volumen puede llegar a los 40 zettabytes (que representan unos 43 trillones de gigabytes).
Más de 2 billones de videos son vistos por YouTube cada día.
Más de 32 millones de búsquedas ocurren diariamente en Twitter.
Más de 30 billones de piezas de contenido se crean en Facebook cada mes.
El 90% de los datos que existen hoy en Internet fueron creados en los últimos 2 años.
Dos de cada tres compañías en EEUU reconocieron que en los próximos 5 años, Big Data será un problema serio con el cual tendrán que lidiar.
Las tecnologías capaces de lidiar con esas 4 v´s de manera cost effective serán sin duda las que se posicionen mejor en el mapa de proveedores de soluciones; que al día de hoy ya es bastante amplio y colorido.

Data Analytics

Data Analytics (DA) suele confundirse con business inteligence pero, aun cuando existen una relación estrecha entre ambos conceptos, lo cierto es que data analytics es una evolución más compleja que, a partir del análisis de ciertos patrones en los datos, puede establecer un modelo más predictivo (suceso futuro que eventualmente podría ocurrir) que descriptivo (suceso del pasado – un hecho fáctico).
La importancia de DA en el negocio es realmente muy importante, ya que permitirá eficientizar procesos de negocios completos y hasta incluso automatizar determinadas conclusiones del análisis de datos. Este enfoque de análisis aplica perfectamente dentro del mundo Big Data, donde existen enormes volúmenes de información con un modelo de datos no necesariamente estándar pero que, al estudiar el comportamiento de los mismos como un todo, podemos identificar patrones que infieren algo más concreto que solo un mar de datos. Las operadoras telefónicas, las operadoras de tarjetas y los bancos han sido los primeros en implementar soluciones que permiten identificar fraudes y evitarlos en el futuro, dado que en general se puede entender cuál es la brecha en los procesos y con ello establecer los controles necesarios.
Lo más interesante de este concepto es que puede ser aplicado a un sinfín de otras industrias. Por ejemplo, un gobierno podría tener un mejor control de salud de su población (ej.: gripes que suceden todos los años) a partir de la realización de un Análisis Descriptivo que reflejaría lo sucedido en años anteriores (ej.: localización de las áreas de mayor infección), que a su vez se combinaría con un Análisis de Diagnóstico para entender las razones (ej.: las vacunas no llegaron a esa zona por una demora del laboratorio o la cepa de ese año se detectó demasiado tarde). El proceso concluiría con un Análisis Predictivo, que permitirá inferir en un escenario simulado por computadora lo que sucederá el próximo año. De este modo, se podría establecer planes de salud y de acción orientados a tratar el tema de forma más proactiva y eficiente. Esto es, saber de antemano donde estarán los focos de mayor infección para direccionar el envío de vacunas y evitar cometer los mismos errores del año anterior. Sin duda, una ventaja sustancial en la calidad de vida de las personas.