Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
40. agosto-septiembre 2013
Está preparado para enfrentar el próximo meta-problema
del mundo de los negocios? Le quitará el sueño.
Se trata de la administración de los grandes volúmenes de
datos que se generan por minuto —en redes sociales, en la
Web, en los servidores de las empresas, en las millones de
computadoras y dispositivos móviles conectados a Inter-
net—, más conocidos como “Big Data”.
Como es sabido, las empresas dependen de la toma ¿
BIGTENDENCIAS GLOBALES
IlustracIones: murIel frega
41.wobi.com/magazine
de decisiones para hacer funcionar sus negocios, y las me-
jores decisiones, a su vez, dependen de contar con infor-
mación confiable y oportuna. Tener los datos que necesi-
tamos en tiempo y forma para las decisiones que debemos
tomar es un problema gigantesco en una era en la que la
capacidad de captura, almacenamiento y procesamiento de
información se duplica cada 18 a 24 meses.
Pero el manejo de grandes cantidades de datos no es solo
una dificultad técnica: no se trata de una cuestión de alma-
cenamiento o de comunicación o de diseño del micro-
procesador. De hecho, los avances realizados en busca de
una solución en realidad complican el problema: brindan
acceso a más información, que cambia con rapidez, a me-
dida que un nuevo dispositivo o nuevas innovaciones des-
de el punto de vista de la arquitectura permiten disponer
de “datos instantáneos”.
El interrogante es el siguiente: ¿cómo transformar de manera
efectiva, eficiente y confiable los datos relevantes en informa-
BIGSe necesita mucho ingenio para gestionar y
extraer patrones útiles de los grandes volúmenes
de datos disponibles en la actualidad y generados
por el mundo digital. Este es el terreno de Big Data, donde aún manda
el desorden: la tecnología no está lista para analizar
la información, y el talento tampoco está
entrenado. ¿Qué dicen los que saben?
DATA
TENDENCIAS GLOBALES
42. agosto-septiembre 2013
ción útil? La generación de grandes cantidades de datos en
todas las industrias está demandando a gritos una herra-
mienta eficiente para gestionarlos. Los instrumentos con-
vencionales para el management de base de datos, como
los sistemas relacionales (RDBMS), no tienen la capacidad
de administrar estos volúmenes crecientes de información
no estructurada. Lo cual está impulsando el desarrollo de
varias herramientas y tecnologías para administrarla por
parte de los proveedores de tecnología.
ElcosmosEl mercado global de Big Data moverá US$ 48.300 millo-
nes para 2018, según la firma de investigación Transparen-
cy Market Research. En 2012 movió US$ 6.300 millones.
Norteamérica dominará, con una participación del 54,5%
de esos ingresos, seguida por Europa. Luego, la región de
Asia-Pacífico será la de mayor crecimiento acumulado en-
tre 2012 a 2018, con un 42,6%.
Este crecimiento —y el del resto de las empresas de otros
países— puede ser atribuido al interés de las firmas de
mejorar sus capacidades analíticas para perfeccionar la
toma de decisiones a través de la ob-
tención de conocimiento más ade-
cuado y de mejor calidad.
Los componentes básicos del mer-
cado de proveedores de servicios de
análisis de Big Data incluyen software
y soluciones, hardware y capacidad de
almacenamiento. El segmento de soft-
ware y servicios se come la porción
más grande de la torta de producción
de soluciones: más del 50% del total.
Pero el segmento de mayor y más rá-
pido crecimiento se estima será el del
almacenamiento, que crecerá hasta
un 45,3% hacia 2018. El sector finan-
ciero será el que más contribuirá a
este crecimiento, por la cantidad de
información que genera. De hecho, en
2012, ya dominaba el 20% del merca-
do de generación de datos.
Hoy, por ejemplo, los países emer-
gentes representan una enorme opor-
tunidad para la venta de productos y
servicios de las empresas occidentales. Pero para ganar
en este escenario, como advierte McKinsey, las empresas
deben predecir las preferencias, gustos y patrones de con-
ducta específicos de un grupo flamante, grande y diverso
de usuarios específicos.
¿Cómo hacerlo? Internet convirtió a cada usuario conec-
tado en su propio “hub interconectado” de enlaces con
otros usuarios, productos, tecnologías, filosofías y for-
mas de ser y proceder; una auténtica colmena lista para
ser explotada, siempre que podamos darle sentido a esta
base de datos masivamente interactiva.
En realidad, podríamos tomar a cada uno de los 7.000 millo-
nes de habitantes del planeta como un proceso constante
de generación de datos. Sus opciones de compra y estilo de
vida, sus estados de ánimo, generan información que pue-
de ayudarnos a entender y predecir su conducta, colaborar
con ellos en las emergencias y responder a sus preocupa-
ciones. ¿Cómo abrirse paso en medio de esta enorme can-
tidad de información que producen?
Convertir los datos relevantes en información útil es un in-
conveniente enorme; en realidad, es un conjunto de grandes
complicaciones. Si tuviera una base de datos que rastrea sus
tentaciones, estados de ánimo, deseos y gustos —que da-
ría forma a un retrato completo y resuelto de su persona—,
esa información sería sin duda valiosa para muchas de sus
decisiones. Podría hasta evitar el engaño y el autoengaño;
convencerse de abandonar los hábitos contraproducentes, o
seguir de cerca el clima de su ambiente laboral.
Los datos están allí. Pero son demasiados. A menos que
encuentre la manera de convertirlos en información ju-
gosa —en predicciones de sus respuestas a los estímu-
los, en modelos optimizados de cómo debería compor-
tarse su empresa o usted como líder—, su “disco rígido”
es un mero almacén de hechos que deben procesarse
para descartar la información innecesaria. El problema es
grande porque contiene muchas variables, cantidad de
relaciones entre ellas y, por lo tanto, requiere cuantiosas
operaciones para alcanzar una solución.
De hecho, podemos medir el tamaño del problema que
generan los grandes volúmenes de datos según el número
Las 6 “V”
En 2011, el analista de Gartner, Doug Laney, acuñó la defini-
ción de las 3 V que componen el término Big Data: Volumen, Velocidad y Variedad. Hoy se han agregado nuevas “V”:
Validez, que tiene que ver con la confiabilidad.
Venue, o campo, que habla de la complejidad que deviene de
tener una alta diversidad de fuentes de datos no estructurados.
Y Visualización, una herramienta útil para trasformar análisis
complejos en formatos procesables.
Por ejemplo, estas herramientas permiten estudiar datos no
estructurados, multidimensionales. Algunas herramientas exis-
tentes están construidas sobre HTML5 y hay hasta paquetes de
soluciones como Clickview, Microstrategy, Spotfire y Tableau.
Según la consultora, la V más importante es la de valor: ¿cómo
las organizaciones extraen verdadero valor de negocios sobre
una base sostenible en el tiempo?
Los datos, dice Gartner, deben tener “rostro”: es necesario
convertirlos en algo personal; uno debe buscar una relación que
tenga significado y sentido.
TENDENCIAS GLOBALES
44. agosto-septiembre 2013
de operaciones necesarias para convertirlos en información
que sirva para algo. En esencia, las empresas deben resolver
dos tipos de dilemas diferentes:
nDilemasdepredicción:¿quésucEDEsIhAGoEsTo?
nDilemasdeoptimización:¿cuálEslAmEjormAnErApArAconsEGuIrquEEsTosucEDA?
Estos dilemas toman los grandes volúmenes de datos
como un registro y, como resultado, generan información
útil: planes, estrategias, modelos. Y a medida que se acre-
cienta el tamaño de lo que ingresa y se registra, el proble-
ma se “mega-acrecienta” también. La relación entre el nú-
mero de variables de registro y el número de operaciones
requeridas para procesar la información no es lineal. La
mayoría de las dificultades que enfrentan las compañías
son irresolubles desde una óptica técnica, debido a que el
tamaño del problema aumenta exponencialmente en rela-
ción con el del ingreso y registro de datos.
Piense en analizar el patrón de relaciones generadas por
sus contactos en LinkedIn para predecir quién presen-
tará quién a quién, o el patrón de decisiones de compra
en Amazon de la gente que pertenece a la misma red de
amigos en Facebook, con el objetivo de predecir quiénes
influyen de manera clave.
Para resolver las ecuaciones que derivan de los modelos que
buscan identificar estos patrones hay una explosión de ope-
raciones que usted debe explicar, y no solamente una explo-
sión de memoria requerida para observar los datos. ¿Ayuda la
creciente potencia computacional? Apenas en parte.
unproBlEmAsExySi todo lo que hiciera falta fuera más y mejor poder com-
putacional, quizá el problema de Big Data se reduciría al
diseño de un chip y a un inconveniente de la ciencia: darle
más “operaciones de punto flotante por segundo” (FLOPS,
por su sigla en inglés). Esto es precisamente lo que la Ley
de Moore —que sostiene que el número máximo de transis-
tores que podemos colocar en un chip se duplica cada 24
meses— dice que ya estamos haciendo.
Pero, a pesar del hecho de que la inteligencia computacio-
nal colectiva crece con rapidez, el manejo de los grandes
volúmenes de datos no se simplifica. Todo lo contrario, es
cada vez más difícil de resolver, razón por la cual algunos
expertos en el análisis de información, como Tom Daven-
port, dicen que la tarea de los “científicos de datos” es “la
más sexy del siglo XXI”, mientras que Dominic Barton y Da-
vid Court, de McKinsey, sostienen que la capacidad de las
herramientas analíticas para procesar Big Data será un di-
ferenciador importante de las empresas a escala mundial.
¿Por qué Big Data es un meta-problema? La respuesta sim-
ple es: cuando se trata de dificultades gigantescas, no al-
canza con la inteligencia. El tamaño de nuestras dificultades
no solo crece de forma lineal respecto de la cantidad de
variables que tomamos en cuenta, sino que crece exponen-
cialmente o super-exponencialmente y, por lo tanto, con
mayor rapidez que lo que la Ley de Moore puede explicar.
Aquí no se necesita inteligencia —la capacidad para hacer
muchas operaciones en un período breve— sino ingenio;
es decir, la habilidad para encontrar e implementar el mejor
método de búsqueda de una solución.
lAsAlsAsEcrETAIngenio no es lo mismo que inteligencia. No es realizar
operaciones con rapidez, sino poder diseñar la manera en
la que secuenciamos las operaciones; es decir, el diseño de
los algoritmos y la heurística que usamos para resolver los
ChiCago Lo hizoDesde seguir estadísticas de crímenes hasta permisos de
construcción de edificios, la ciudad de Chicago ha recolec-
tado la suficiente cantidad de información para llenar más
de 400 servidores. La alcaldía está usando estos datos para
convertir a la ciudad en un mejor lugar para vivir. La ciudad
usa software libre para recolectar datos no estructurados,
como registros en tiempo real de llamados a la línea 911 e
información estructurada de sistemas disímiles de 30 depen-
dencias y departamentos del estado.
El objetivo del portal creado es darle a la ciudad una manera
de combinar datos de diferentes dependencias para llegar a
nuevas conclusiones. Por ejemplo, si la tasa del crimen está
aumentando en un área, los analistas pueden buscar factores
casuales, como la densidad de las licencias de venta de alcohol
o patrones que han cambiado respecto de la protección policial.
Los funcionarios pueden usar los datos para prevención.
Por ejemplo, una investigación reveló que los tachos de basura
en una localidad en particular generalmente desaparecían cuan-
do las luces de los callejones se quemaban. Si la ciudad podía
reemplazar las luces más rápidamente, evitarían gastar tanto
dinero en nuevos tachos.
46. agosto-septiembre 2013
grandes problemas que plantean
los enormes volúmenes de datos.
Es el ingenio el que permite opti-
mizar las plantas de fabricación,
calcular las interacciones críticas
entre los genes en los genomas de
los individuos en riesgo y diseñar
algoritmos para explotar las varia-
ciones —minuto a minuto— del
precio de las acciones de Apple. A
continuación, algunas de las habi-
lidades que hay que cultivar para
enfrentar la gestión de Big Data.
1.moDElAcIónPara interactuar con los grandes vo-
lúmenes de datos, es necesario en-
tender el proceso que los produce.
La conducta de compra, la de apa-
reamiento y la de navegación son
producidas por procesos de decisión
y elección. Los modelos y métodos
de las ciencias económicas y la teo-
ría de las decisiones, de la teoría de
las redes, de la teoría de la evolución,
de la teoría del procesamiento de la
información deben dominarse de la
misma forma que los estudiantes de
física dominan las Leyes de Newton.
La famosa ocurrencia de Google
de que “en un mundo en el que la
información es gratuita y abundan-
te usted no necesita modelos” es
equivocada, porque sin un modelo
del proceso subyacente que gene-
ra los datos, no tenemos manera de
saber qué es relevante y qué no, ni
tenemos filtros para los conjuntos
de información masiva capturada.
Pero necesitamos algo más que
solo modelos para los fenómenos
subyacentes: también necesitamos
modelos de los problemas que los
grandes volúmenes de datos ali-
mentan: modelos de la algoritmia
de los meta-problemas de los gran-
des datos.
2.coDIfIcAcIónLos grandes volúmenes de datos
resultan esquivos para la mayoría
de los graduados de las escuelas de negocios porque están
en un territorio al que no pueden acceder: están en el cibe-
respacio, en bases
de datos dispares,
codificados por
protocolos y len-
guajes de progra-
mación disímiles. Entonces, se
gradúan sintiendo que no tie-
nen habilidades para el juego
de talento en el terreno de Big
Data. La codificación —como
habilidad y capacidad— es la
“clave de acceso” al juego. Es el
requisito básico.
3.pErcEpcIónLa información no se da, se
produce y, en cierto sentido, se
construye. Hay que sentirla, per-
cibirla. La ciencia de la medición
se dedica a convertir la calidad
en cantidad, a transformar un
pálpito, una intuición, una per-
cepción, en un dato observable
y medible en términos subjeti-
vos. Los estados de ánimo im-
portan para las maneras en que
los seres humanos interactúan,
como importa el ritmo, el tono y
la intensidad de la voz o los ni-
veles de azúcar en sangre. Pero
hasta que no podamos medir de
forma instantánea lo que pensa-
mos que importa, nos quedare-
mos escribiendo documentos
sobre relaciones entre variables
a las que percibimos como inú-
tiles pero que, no obstante, son fácilmente
accesibles. La ciencia de la percepción, de
la medición, está en sus inicios. Pero las se-
millas ya fueron sembradas.
conclusIónLa gran oportunidad para las empresas
está en la construcción de negocios
capaces de explotar y dar sentido a
los terabytes de datos generados por
los usuarios en el mundo digital. Los
nuevos maestros de Big Data serán los
reyes del ingenio. z
© WoBIfuentes: rotman magazIne, por mIlhnea moldoveanu, dIrectora del desautels centre for IntegratIve thInkIng de la escuela de gestIón rotman; Informes del mercado.
TENDENCIAS GLOBALESBeth ComstoCk, directora de marketing de ge
“La empresa mantie-
ne un enorme ‘hub’ de
datos que incluye la
posibilidad de analizar
variables para revelar
información como
cuánta energía gastan
sus electrodomésticos
y cuánto le costará al
comprador utilizarlos.”
stephen Quinn, director de marketing de Wal-mart
“Wal-Mart desarrolló Polaris,
un motor de búsqueda
semántico que estudia
algoritmos para entender lo
que desea la gente y, de esa
manera, impulsar las ventas.
Sobre ese motor está mon-
tada la tecnología que de-
nominamos Social Genome
Product (con aplicaciones
varias como Shopycat, para
analizar los comentarios
en Facebook), que repasa
miles de tuits, mensajes en
Facebook, posts en blogs
y videos en YouTube de la
marca para detectar las
intenciones de compra e
impulsar el e-commerce.”
CaroLine haLLiWeLL, directora de marketing del Financial times
“El periódico tiene un equipo de aná-
lisis de datos de más de 30 personas
divididos en tres grupos: Data Analytics &
Campaigns, Data Product Development
y Data Technology. Actualmente estamos
usando los datos generados por nuestros
lectores para aumentar la circulación
del diario y crear productos publicitarios
gráficos más productivos y competitivos.
Todo sucede a través de nuestro sistema
de registro —tenemos más de 5 millones
de usuarios—; cada uno debe declarar
su dirección de email, dirección real,
código postal, industria en la que opera y
cargo. De esta manera, los anunciantes
pueden, por ejemplo, dirigir una campaña
publicitaria a ejecutivos en la industria de
las telecomunicaciones o de RR.HH. en
Brasil o cualquier otro país. El sistema
también sigue el comportamiento de los
lectores para que podamos convertirlos en
suscriptores.”
48. agosto-septiembre 2013
#BigData influencers en Twitter
FUENTES: ESTUDIOS DE EJECUTIVOS DE IBM, SAP, WIPRO, THE ECONOMIST, MCKINSEY.
TEXTO: LUZ LANDA
INFOGRAFÍA: GUIDO DELLAMEA
@bigdata: Ben Lorida, director científico de Datos en @OreillyMedia (de Tim O’Reilly, especialista en tecnología e innovación).@ibmbigdata: IBM Big Data.@JeffJonas: célebre investigador de Big Data.
La cantidad de información disponible hoy en
día es tan grande, compleja y dinámica que las
herramientas convencionales no sirven para
captarla, administrarla, almacenarla y analizarla.
>BIG DATA_INSIDE
LAS 3 “V” DE LOS DATOS
VOLUMENGrandes cantidades de datos.
VELOCIDADDeben analizarse rápidamente para obtener rédito de ellos.
VARIEDADDiferentes tipos de datos: estructurados y no estructurados (texto, audio, video, metadata, páginas web, streams de clicks, información de eventos, etc.). El 80% no están estructurados.
57,6%Analizar Big Data es nuestro mayor desafío. (Estudio de McKnisey)
72,7%El mayor beneficio, conseguir la eficiencia operacional.
50% Este análisis nos ayudará a satisfacer las demandas del consumidor y el crecimiento de la firma.
50%Bajaremos los costos de IT.
54%Impulsaremos las ventas.
46%Atraeremos y retendremos más clientes.
48%La firma será más ágil.
70% Esperamos un retorno de la inversión en herramientas de Big Data de un año.
Interrogantes sin respuesta EN 1 MINUTO
DE INTERNET…
Instantánea del nuevo mundo
● US$ 232.000 millones en gastos durante 2016 generará la gestión de grandes volúmenes de datos, según Gartner.
● 10.000 Librerías del Congreso de los Estados Unidos harían falta para llenar el volumen de datos creados por las compañías de ese país anualmente.
● US$ 200 millones invierte el gobierno de Barack Obama en proyectos de investigación de Big Data.
● 2015: 3.000 millones de personas online generarán y compartirán 8 zettabytes (1 ZB equivale a 10 a la 21 bytes de información). Twitter, por ejemplo, procesa 7 terabytes de datos por día; Facebook, 10 TB diarios.
● 4,4 millones de puestos de trabajo se crearán en 2015 en el mundo para gestionar estos datos.
● 2020: se habrán creado 35 zettabytes de datos.
● 2012: la firma Comscore contabilizó 1.400 billones de transacciones digitales por mes.
● Por US$ 600 se puede adquirir un disco que almacene toda la música del mundo.
● El inglés es el idioma dominante en Internet, pero para 2014 lo será el chino.
● 639.800 GB de datos IP se transfieren globalmente● + de 2 millones de búsquedasen Google● 47.000 descargas de aplicaciones● 3.000 cargas de fotos en Flickr● 100.000 nuevos tuits● 204 millones de email enviados. ● + de 100 nuevas cuentas de LinkedIn.
● US$ 83.000 en ventas en Amazon ● 1.300 nuevos usuarios móviles● 1,3 millón de videos vistos en YouTube● 277.000 ingresos en Facebook● 20 nuevas víctimas de robo de identidad● US$ 272.100 gastan los consumidores en compras ● 571 nuevos sitios son creados
1:00
¿Cómo almacenar los datos?
¿Cómo organizarlos y catalogarlos?
¿Cómo mantener los costos bajos y asegurarse de que la información esté disponible cuando se la necesita?
¿Cómo cambiarásu negocio?
> Si analiza 2 terabytesde tuits diarios podrá predecir los sentimientos generados por su producto entre los consumidores.
> Si analiza 500 millones de llamadas diarias en tiempo real podrá predecir el fraude entre clientes. JPMorgan analiza web logs, transacciones y medios sociales con ese fin.
> Monitoree 100 videos en vivo de cámaras de vigilancia y detectará acontecimientos clave.
Ejemplos delo posible
Otros beneficiosesperados
● Mejora en la productividad: 49% de incremento en el nivel de productividad del sector minorista implicó US$ 9.680 millones de nuevas ventas.
● Mejora en I&D.
● Análisis del gráfico social.
● Detección de fraudes.
● Creación de mejores modelos de riesgo.
● Análisis de la experiencia y sentimientosde consumidor.
● Análisis de campañas de marketing, monitoreo de redes, creación de motores de recomendación.
Pero...
● 53% de las organizaciones nota una gran brecha entre la disponibilidad de Big Data y su capacidad de analizarla y extraer conocimiento.
● 56% de las empresas debe implementar estrategias de análisis de datos de alto desempeño para conseguir resultados.
● 85% de las Fortune 500 fracasarán en la explotación efectiva de Big Data para obtener ventaja competitiva, pronostican los expertos.
● 1 de cada 3 líderes de negocios dicen tomar decisiones basadas en información en la que no confían o que no tienen.
● 1 de cada 2 líderes dicen no tener acceso a la información que necesitan para hacer su trabajo.
_“Cada dos días creamos tanta información como la producida desde los albores de la civilización
hasta 2003.”
ERIC SCHMIDT,
presidente
ejecutivo
de Google.
_“Torture a los datos; confesarán todo.”
RONALD COASE, Premio Nobel de Economía1991.
TENDENCIAS GLOBALES
48. agosto-septiembre 2013
#BigData influencers en Twitter
FUENTES: ESTUDIOS DE EJECUTIVOS DE IBM, SAP, WIPRO, THE ECONOMIST, MCKINSEY.
TEXTO: LUZ LANDA
INFOGRAFÍA: GUIDO DELLAMEA
@bigdata: Ben Lorida, director científico de Datos en @OreillyMedia (de Tim O’Reilly, especialista en tecnología e innovación).@ibmbigdata: IBM Big Data.@JeffJonas: célebre investigador de Big Data.
La cantidad de información disponible hoy en
día es tan grande, compleja y dinámica que las
herramientas convencionales no sirven para
captarla, administrarla, almacenarla y analizarla.
>BIG DATA_INSIDE
LAS 3 “V” DE LOS DATOS
VOLUMENGrandes cantidades de datos.
VELOCIDADDeben analizarse rápidamente para obtener rédito de ellos.
VARIEDADDiferentes tipos de datos: estructurados y no estructurados (texto, audio, video, metadata, páginas web, streams de clicks, información de eventos, etc.). El 80% no están estructurados.
57,6%Analizar Big Data es nuestro mayor desafío. (Estudio de McKnisey)
72,7%El mayor beneficio, conseguir la eficiencia operacional.
50% Este análisis nos ayudará a satisfacer las demandas del consumidor y el crecimiento de la firma.
50%Bajaremos los costos de IT.
54%Impulsaremos las ventas.
46%Atraeremos y retendremos más clientes.
48%La firma será más ágil.
70% Esperamos un retorno de la inversión en herramientas de Big Data de un año.
Interrogantes sin respuesta EN 1 MINUTO
DE INTERNET…
Instantánea del nuevo mundo
● US$ 232.000 millones en gastos durante 2016 generará la gestión de grandes volúmenes de datos, según Gartner.
● 10.000 Librerías del Congreso de los Estados Unidos harían falta para llenar el volumen de datos creados por las compañías de ese país anualmente.
● US$ 200 millones invierte el gobierno de Barack Obama en proyectos de investigación de Big Data.
● 2015: 3.000 millones de personas online generarán y compartirán 8 zettabytes (1 ZB equivale a 10 a la 21 bytes de información). Twitter, por ejemplo, procesa 7 terabytes de datos por día; Facebook, 10 TB diarios.
● 4,4 millones de puestos de trabajo se crearán en 2015 en el mundo para gestionar estos datos.
● 2020: se habrán creado 35 zettabytes de datos.
● 2012: la firma Comscore contabilizó 1.400 billones de transacciones digitales por mes.
● Por US$ 600 se puede adquirir un disco que almacene toda la música del mundo.
● El inglés es el idioma dominante en Internet, pero para 2014 lo será el chino.
● 639.800 GB de datos IP se transfieren globalmente● + de 2 millones de búsquedasen Google● 47.000 descargas de aplicaciones● 3.000 cargas de fotos en Flickr● 100.000 nuevos tuits● 204 millones de email enviados. ● + de 100 nuevas cuentas de LinkedIn.
● US$ 83.000 en ventas en Amazon ● 1.300 nuevos usuarios móviles● 1,3 millón de videos vistos en YouTube● 277.000 ingresos en Facebook● 20 nuevas víctimas de robo de identidad● US$ 272.100 gastan los consumidores en compras ● 571 nuevos sitios son creados
1:00
¿Cómo almacenar los datos?
¿Cómo organizarlos y catalogarlos?
¿Cómo mantener los costos bajos y asegurarse de que la información esté disponible cuando se la necesita?
¿Cómo cambiarásu negocio?
> Si analiza 2 terabytesde tuits diarios podrá predecir los sentimientos generados por su producto entre los consumidores.
> Si analiza 500 millones de llamadas diarias en tiempo real podrá predecir el fraude entre clientes. JPMorgan analiza web logs, transacciones y medios sociales con ese fin.
> Monitoree 100 videos en vivo de cámaras de vigilancia y detectará acontecimientos clave.
Ejemplos delo posible
Otros beneficiosesperados
● Mejora en la productividad: 49% de incremento en el nivel de productividad del sector minorista implicó US$ 9.680 millones de nuevas ventas.
● Mejora en I&D.
● Análisis del gráfico social.
● Detección de fraudes.
● Creación de mejores modelos de riesgo.
● Análisis de la experiencia y sentimientosde consumidor.
● Análisis de campañas de marketing, monitoreo de redes, creación de motores de recomendación.
Pero...
● 53% de las organizaciones nota una gran brecha entre la disponibilidad de Big Data y su capacidad de analizarla y extraer conocimiento.
● 56% de las empresas debe implementar estrategias de análisis de datos de alto desempeño para conseguir resultados.
● 85% de las Fortune 500 fracasarán en la explotación efectiva de Big Data para obtener ventaja competitiva, pronostican los expertos.
● 1 de cada 3 líderes de negocios dicen tomar decisiones basadas en información en la que no confían o que no tienen.
● 1 de cada 2 líderes dicen no tener acceso a la información que necesitan para hacer su trabajo.
_“Cada dos días creamos tanta información como la producida desde los albores de la civilización
hasta 2003.”
ERIC SCHMIDT,
presidente
ejecutivo
de Google.
_“Torture a los datos; confesarán todo.”
RONALD COASE, Premio Nobel de Economía1991.
49.wobi.com/magazine