Publicado por Alejandro Marticorena el 9 Diciembre, 2015

Marcello Dantas fue curador de la muestra “Ecosistema de la Comunicación“, que acaba de terminar y estuvo expuesta desde principios de julio en el Espacio Fundación Telefónica.

Su currículum dice que es un conocido diseñador y curador de exposiciones, director de documentales desde 1986, que se graduó en Cine y Televisión en New York University y que hizo una maestría en Telecomunicaciones Interactivas en la misma universidad. Ademàs, estudió Historia del Arte en Florencia y Diplomacia en Brasilia. En sus actividades multidisciplinares el arte, la curaduría, la dirección y la producción se juntan en áreas diversas, pero siempre orientadas a la convergencia entre arte y tecnología. En el 2006 fue el director artístico del Museo interactivo de la Lengua Portuguesa en São Paulo.

Nos pareció interesante entrevistarlo, poco antes de su última conferencia en el Espacio Fundación Telefónica, para que nos hablara sobre su visión acerca del Big Data, los impactos y desafíos de la tecnología en la sociedad actual, y sobre la revolución digital que atraviesa todas las capas de la vida social.

Y nos contestó con algunas afirmaciones provocativas. Por ejemplo: consultado sobre cómo imagina las comunicaciones en 2020 nos dijo “exactamente como están aquí hoy“. O bien la que dió título a este post, “la revolución digital ya terminó, no existe más“. O esta otra: “nos estamos transformando en una especie de software“.

O, refiriéndose al Big Data: “con mucha estadística, con muchas evidencias, se puede probar cualquier cosa: entonces la cuestión es con qué intención uno va a buscar una verdad en Big Data, porque se va a enocntrar una verdad. Todas las verdades habitan el Big Data“.

Aquí, la entrevista. Como imaginarás, vale la pena verla.

Publicado por Alejandro Marticorena el 20 Noviembre, 2015

Las máquinas, sensores, dispositivos e, incluso, objetos que te rodeen en tu entorno cotidiano y que aún no estén conectados entre sí, podrían estarlo en 2024.

¿Cuáles? Muchos. Y muy variados. Desde smartphones, tablets y computadoras de escritorio hasta autos, pasando por una miríada de objetos cuya conexión podría parecer ridícula o incomprensible a priori: electrodomésticos variados, luces hogareñas, relojes, pulseras, anillos, cámaras de vigilancia, semáforos, portones eléctricos, lámparas de alumbrado público, carteles luminosos… y podríamos estar así buena parte del día.

En efecto, según lo que se informa en esta nota, “las conexiones de máquina a máquina [también conocidas por sus siglas M2M, por machine to machine] pasarán en la Argentina de 1,2 millones en el 2014 a 15,4 millones en el 2024, si se mantiene la expansión de las redes inalámbricas, según los datos difundidos hoy por la organización sin fines de lucro 4G Américas, integrada por empresas del sector” y entre las que Telefónica está presente.

Eso, en nuestro país. ¿Y cuál es la previsión para la región de América latina y el Caribe? La misma nota asegura quepasará de los 14,6 millones de enlaces M2M del 2014 a los 158,9 millones para el 2024, según el estudio de Machina Research difundido por la entidad“.

Unos crecimientos explosivos para los próximos nueve años: 1283 por ciento para la Argentina, y 1088 para la región. Y, dentro del panorama regional, el informe citado sostiene que Brasil y México concentran el 63,7% de las conexiones de este tipo, y hacia el 2024 Brasil registrará el 40,7% del mercado regional con 64,6 millones de conexiones“.

Internet, las cosas, el conocimiento

A grandes rasgos, y sin ponernos muy exquisitos con las precisiones técnicas, cuando hablamos de M2M a futuro estamos muy próximos a hablar de algo más abarcativo y cotidiano: el famoso Internet de las cosas (o IoT, por Internet of Things, su denominación en inglés).

Y, está a la vista, es un fenómeno tecnológico que generará impactos múltiples y variados en la economía y el trabajo, por mencionar sólo dos aspectos de la cuestión.

Pero, ¿cómo puede generar impactos en el trabajo -o en la economía- el conectar cosas a Internet? Por un elemento central del IoT, que viene siendo algo así como la “sangre” de este fenómeno: el Big Data, entendido como ese conjunto de tecnologías y plataformas que posibilitan no sólo la recolección de ingentes volúmenes de datos, no estructurados, altamente heterogéneos, pertenecientes a soportes muy disímiles y que exigen procesamiento en tiempo real… sino obtener conocimiento de ellos, gracias a la combinación del Big Data con aquellos procesos y sistemas conocidos como Data Science.

¿Aún no se entiende? Claro: no se trata sólo de la conexión entre cosas. Tampoco de acumular datos. La clave es que ambas cosas (IoT, Big Data) generan negocio… si recordamos que, hoy, numerosas empresas ya ofrecen y comercializan servicios basados precisamente en la cantidad de datos transmitidos entre objetos y dispositivos (smartphones por ejemplo… ¿te suena?).

Y esto, por más que, aún, ese conjunto de cosas sea relativamente reducido. Al menos, en comparación con las previsiones que se manejan, como -justamente- la que acaba de publicar 4G Américas, mencionadas antes.

Algunos (impactantes) números

Comentábamos hace un tiempo que el Big Data generará para dentro de 5 años nada menos que 4,4 millones de puestos de trabajo a nivel mundial.

Y, según esta nota, publicada en el sitio de Telefónica “Sostenibilidad”, “las cifras reclaman de esta nueva tendencia tecnológica un protagonismo que no podemos desmentir. Así, los estudios estiman que entre 2016 y 2020, el tamaño del Open Data aumentará en un 36,9%, lo que se traducirá, a nivel económico, en 75,7 millones de euros de cara al 2020. Además, según el informe ‘Big & Open Data in Europe: A growth engine or a missed oportunity‘, el Big Data supondrá un incremento de 1,9% en el PIB de la Eurozona, de cara a esta misma fecha“.

Son los datos que existen hoy. Y, obviamente, no los únicos, como puede verse en esta búsqueda en Google con los términos “crecimiento Big Data previsiones”. Quizás algunos de los más notables sean, por ejemplo que -según previsiones de IDC, citadas aquí- en 2020 “el 89% del crecimiento de la industria de Tecnologías de la Información (TI)” estará originado en Big Data.

O este otro, más impactante desde el punto de vista económico: sostiene que “el Big Data aportará 206.000 millones de euros a la economía europea en 2020″.

Y, volviendo a los resultados de Machina Research, la nota citada al inicio de este post afirmó que, en relación con “los sectores que más rápidamente adoptaron esta tecnología, la industria automotriz figura en primer lugar con unos 8,5 millones de autos conectados hasta el 2014 y unos 101,4 para el 2024, lo que representa el 58,5% de los enlaces actuales y el 63,8% de los futuros en la región“.

Como sea, el crecimiento se vislumbra como imparable. Según el director de 4G Américas para América Latina y el Caribe, José Otero, “las comunicaciones entre máquinas serán cada vez más habituales en la sociedad conectada. En los próximos años, continuarán en crecimiento vertiginoso algunas aplicaciones como las de los automóviles conectados, pero también veremos surgir nuevos usos para esta tecnología“, afirmó, citado aquí.

Imagen: @geralt, distribuida con licencia CC0 1.0.

Publicado por Alejandro Marticorena el 27 Octubre, 2015

Hace unos días, Chema Alonso, CEO de ElevenPaths (empresa de seguridad informática filial de Telefónica) dio una conferencia en el Espacio Fundación Telefónica donde se refirió al modo en que las tecnologías de cloud computing y el Big Data son capaces de analizar las aplicaciones móviles que se suben a Internet (en este link, el video de la transmisión completa vía Ver más

Publicado por Alejandro Marticorena el 2 Octubre, 2015

Por quinto año consecutivo Telefónica presentó TIC Forum, un espacio de innovación y asesoramiento donde el objetivo es presentar las nuevas tendencias y soluciones que ayudan a optimizar los procesos de los negocios y la seguridad de la información.

De esta forma, Telefónica Business Solutions, la unidad que ofrece soluciones tecnológicas a grandes empresas y Pymes, presentó adelantos y servicios en ámbitos tales como 4G, seguridad informática y Big Data, entre otras, a más de 500 referentes de empresas privadas y de gobierno, entre quienes asistieron CIOs, Gerentes y Jefes de IT, de Marketing, de Compras, de Recursos Humanos de empresas estratégicas en el país y son clientes de Telefónica.

Este año, el slogan fue “Big Data, Big Business“. Dado que estamos frente a un nuevo paradigma en el conocimiento por el cual todos somos generadores de información, los enormes volúmenes que se generan a cada minutos pueden generar grandes negocios a las organizaciones.

La unidad de Telefónica que ofrece soluciones al segmento grandes empresas y Pymes tiene hoy más de 140.000  clientes que utilizan la nueva red 4G de Movistar, que transporta más del 30% del tráfico de datos.

Hoy, Movistar lidera una nueva etapa de las comunicaciones móviles en la Argentina con la red 4G más grande del país, y ofrece cobertura en más de 300 localidades de 14 provincias, y alcanzó ya el 100% de cobertura en la Ciudad de Buenos Aires, todo ello posible gracias a las más de 2000 radiobases en funcionamiento.

En este video, un resumen del encuentro, con el testimonio de portavoces de diversas áreas y empresas de Telefónica.

Más información

Nota de Prensa sobre TIC Forum 2015

Galería de fotos de TIC Forum 2015

Sitio web de TIC Forum 2015

Publicado por Equipo de Tendencias Digitales el 28 Septiembre, 2015

El cine nos ha mostrado, infinita cantidad de veces, que una escena clave de cualquier situación bélica de la historia es la de los generales ubicando a sus propias tropas y al enemigo en un mapa, dentro de una tienda de campaña. Desde Alejandro Magno hasta los jerarcas de la segunda guerra mundial, todo estratega que se precie se ha servido de un mapa, ha visualizado datos en él y ha usado la información así representada como un insumo clave para tomar decisiones.

La guerra, sin embargo, no es la única ni la principal razón que existe hoy, en plena era del Big Data, para visualizar datos en un mapa.

Imaginemos, por ejemplo, cuánto valor tiene para quien define políticas públicas, saber en qué partes de un país o de una provincia se cometen la mayor cantidad de delitos de violencia doméstica. O dónde se dan con mayor frecuencia, dentro de una ciudad, los accidentes automovilísticos. O qué tan relevante es, para un biólogo conservacionista, conocer en tiempo real el mapa de movimientos de los elefantes en Kenia. La lista de posibilidades es tan amplia como estimulante, y ésta fue la idea que llevó a dos emprendedores españoles como Javier de la TorreSergio Álvarez Leiva a crear CartoDB, una startup que, para algunos, va camino a convertirse en la “gran promesa tecnológica española”.

De hecho, sus creadores aseguran que, a pesar de que la compañía es rentable desde el primer día, ellos no la crearon para ser ricos, “sino para ser famosos”, algo que parecen estar logrando a juzgar por la enorme cantidad de resultados que aparecen en cualquier buscador al poner simplemente el nombre de la compañía. Ahora bien, ¿qué hace exactamente CartoDB y cuál es la novedad de lo que aporta?

Según se explica en su propio sitio web, CartoDB es “la manera más simple de mapear y analizar datos de ubicación”. Para esto, tal y como sus creadores explicaron en una nota concedida al sitio especializado Xataka.com, ellos “no se centran en los mapas base (por ejemplo, Google Maps) sino en la capa de datos y de aplicación que se muestra por encima de esos mapas (…). Cualquiera, sin necesidad de tener conocimientos técnicos en exceso, puede crear su mapa interactivo a través del sitio web de CartoDB. Simplemente se sube una tabla con los datos a representar y la plataforma se encarga del resto” explica la nota.

Más aplicaciones en el mapa

Desde ya, CartoDB no es la única aplicación que permite este tipo de visualizaciones de cualquier clase de información sobre un mapa. Más allá del éxito que ha tenido la iniciativa española, tanto el diario inglés The Guardian como el blog colega “Think Big” coincidieron recientemente en señalar a Google Fusion Tables como a una de las principales alternativas para este tipo de prestaciones, que aunque puede no ser especialmente amigable al principio, es capaz de almacenar hasta 100 MB de datos y brinda muchas posibilidades para subir y compartir al instante la información visualizada en un mapa.

Tableau es otra de las plataformas que los especialistas señalan como más completas, junto a las anteriores, para visualizar y compartir información sobre un mapa en minutos. Una aplicación que, según sus dueños afirman, ya ha sido elegida por más de 100.000 personas que han creado más de 500.000 visualizaciones de datos.

Más allá de quién sea el ganador en esta carrera, la visualización de la más amplia cantidad y variedad de datos sobre un mapa parece ser algo cada vez más accesible y fácil de utilizar, para saber desde cosas especialmente complejas hasta otras mucho más simples, pero también de valor.

¿Cuáles? Hay de todo en la viña del Señor. El universo de los datos, en la medida en que se va haciendo posible su registro y recolección gracias a dispositivos varios (encabezados por smartphones y sensores, principalmente) va muchas veces más allá de la imaginación más frondosa, y gracias al Big Data nos vamos acercando al momento en que podremos obtener datos de casi cualquier cosa, desde casi cualquier lugar, y en cualquier momento.

Y desplegarlos sobre un mapa, claro.

Imagen: Gabriel Flores Romero distribuida con licencia Attribution 2.0

Publicado por Alejandro Marticorena el 18 Septiembre, 2015

Otra vez con Big Data. Y es que, aunque aún no terminemos de darnos cuenta, supone un cambio de paradigma que es capaz de impactar en muchas áreas de la vida cotidiana.

Hoy es el turno de un área bastante específica, como es  la capacidad del Big Data de democratizar el acceso a la información confiable a la hora de hacer operaciones bursátiles.

No es un secreto que el ahorrista medio le tiene cierta desconfianza a la Bolsa de Valores. Percibida como un ámbito hermético, difícil de comprender y sobre todo riesgoso, el pequeño inversor se ha mantenido tradicionalmente lejos de este espacio, destinado fundamentalmente a los grandes expertos.

Sin embargo, tras el estallido de la crisis de 2008, cuando la confianza en el sistema financiero tradicional estaba en su punto más bajo, emprendedores en finanzas, negocios y tecnología pusieron en el mercado soluciones innovadoras enfocadas a atender a un público nuevo, más exigente y más informado, y surgieron así los emprendedores Fintech.

Un rubro complejo

La estructura fundamental de una Bolsa de Valores está basada en la inclusión de un segmento heterogéneo de inversores con diferentes estrategias, experiencias, capacidades de inversión y objetivos.

Los mercados financieros no son ni ciento por ciento eficientes ni ciento por ciento caóticos como muchos creen. Pero cada vez hay más herramientas que permiten entender de forma precisa la complejidad de sus fluctuaciones, ya que cada Bolsa de Valores cuenta con un componente de azar y de sistematicidad diferente, propio de cada región.

Analizar las tendencias y fluctuaciones de los mercados financieros siempre ha sido una tarea compleja, que se ha profesionalizado al punto de conformarse por grupos multidisciplinarios que incluyen las más variopintas profesiones, desde especialistas en física, matemática, computación, finanzas, estadísticas y todas las ciencias duras que podamos enumerar.

Hoy por hoy, la dificultad no está solamente en poder predecir el precio de un instrumento financiero, sino en la correcta interpretación del gran caudal de datos que se genera segundo a segundo; y cómo estos datos se generan, se procesan con la máxima eficiencia y rapidez posible. Ahí radica el diferencial de competitividad que todos buscan.

Fintech: ¿la esperanza de los pequeños ahorristas?

El desafío de estos nuevos proxys radica en entender los métodos analíticos que se deben aplicar para excluir el 99% de toda esa información que resulta innecesaria para nuestro negocio. El objetivo sería lograr descubrir cuál es ese 1% de toda la información online que tendrá el mismo valor que tienen para un banco los datos de los que se sirve para ofrecer sus servicios.

Los grandes fondos de inversión y las compañías de finanzas ya han asimilado y reconocido la ventaja competitiva que estos complejos modelos algorítmicos representan a la hora de tomar decisiones en un mercado cada vez más competitivo.

Por supuesto que no hay, ni probablemente habrá una forma libre de fallos a la hora de tomar decisiones de inversión, pero utilizar información basada en predicciones de Big Data ayuda a invertir convirtiendo el riesgo en un factor minimizando el azar.

La entrada de nuevos jugadores en el tablero de la finanzas, la tecnología  y la web 2.0 como herramienta masiva de difusión y distribución de productos ha permitido la entrada en la partida de nuevos intermediarios, que con unos requerimientos de capital muy inferiores han sabido aprovechar el momento para encontrar nichos de mercado en los que competir con la banca comercial: estamos hablando de las Fintech.

¿Serán las herramientas de Big Data un democratizador a la hora de animarse a invertir en la Bolsa? ¿Llegarán los pequeños ahorristas a contar con información confiable como las grandes compañías de inversión? En esta época donde los cambios se dan más rápido de lo que nadie espera, estas pueden ser herramientas que lleven a los ahorristas a confiar en las Bolsas regionales y así ayudar a capitalizar a las compañías que son el sostén productivo de un país.

El sector financiero se está revolucionado y tratando de adaptarse: nuevos consumidores, clientes mejor informados y más exigentes, más tecnología, más intermediarios y más especializados. En definitiva, mayor exigencia y mayor competencia, como nunca antes habíamos visto.

Imagen: @petrick by license  Attribution 2.0 Generic (CC BY 2.0)

Publicado por Equipo de Tendencias Digitales el 13 Septiembre, 2015

Como hemos comentado en oportunidades previas dentro de este mismo blog, el cada vez más popular término “Big data alude al tratamiento y análisis de repositorios de datos que son tan desproporcionadamente grandes que resulta imposible tratarlos con las herramientas de bases de datos y analíticas convencionales, ya que superan los límites y capacidades de las herramientas de software habitualmente utilizadas para la captura, gestión y procesamiento de datos.

Y si bien el uso del big data estuvo circunscripto en un principio a algunas áreas muy generales, su uso es hoy cada vez más extenso.

Tal y como también hemos mencionado en este mismo espacio en un post de hace unos meses, las ciudades (sus gobiernos) han estado entre las primeras en utilizar información “big” para la planificación de sus políticas de gestión.

Desde hace ya algún tiempo, la ciudad de Seattle, por ejemplo, se ha propuesto para reducir el uso de energía en el área financiera mediante una alianza con Azure de Microsoft, con quienes han puesto en marcha un proyecto que recopilará y analizará cientos de datos procedentes de los sistemas de dirección de los edificios de la zona financiera.

El año pasado, por su parte, investigadores de IBM se unieron con el gobierno de la ciudad de Lyon en Francia, para crear un sistema que ayude a los agentes de tráfico a reducir el tránsito en las carreteras de la ciudad.

En el sector salud, la incorporación de big data también está produciendo transformaciones profundas. La aplicación de estos modelos es ya una realidad en el terreno, por ejemplo, de la oncología. Solo por citar un caso, El Memorial Sloan Kettering Cancer Center de Nueva York, ya ha incorporado una solución con el objetivo de mantener actualizados los conocimientos de sus profesionales con la información disponible a nivel internacional para sugerir tratamientos personalizados.

Grandes datos y empresas pequeñas

En el caso de las compañías y los negocios, casi tres de cada cuatro grandes compañías invertirán en Big Data los próximos dos años. Pero también las Pymes comienzan a conocer las dimensiones de este fenómeno y los beneficios que el tratamiento inteligente de datos puede suponer para sus cuentas de resultados.

La grandeza no se mide por el tamaño, sino por la madurez de las decisiones y esta es una filosofía que las Pymes están empezando a aprovechar con el Big Data, pues a pesar de ser pequeñas o medianas empresas, tienen la capacidad de aprovechar las ventanas de oportunidad que se le presenten en el momento de obtener los resultados de soluciones de este tipo.

No es necesario que los Pymes inviertan miles de dólares en soluciones propias de Big Data, ya que algunas compañías ofrecen a los empresarios la oportunidad de alquilar un espacio dentro de la cartera de soluciones de analítica que poseen y pagar solo las veces que las utilicen en el mes.

Este tipo de servicios, les da la oportunidad de posicionarse en el mercado y competir con las grandes compañías, ya que tienen la oportunidad de hacer un constante monitoreo de las métricas en los aspectos que quieren analizar y tomar decisiones en cuestión de horas.

Analizando su base de datos de usuarios han conseguido una segmentación que ofrece al cliente lo que realmente quiere, aprendiendo de sus gustos, sus necesidades y sus compras pasadas. Esto ha conseguido que se envíen muchos menos e-mails, pero que a la vez tengan más impacto y como consecuencia, las peticiones de baja en sus newsletters han disminuido en más de un 20%.

El Big Data sí funciona en las Pymes porque cuantos más datos tengamos sobre nuestros clientes, más fácil será ofrecerles productos o servicios adaptados a sus necesidades.

Un factor importante para las pymes es aprovechar las aplicaciones SaaS (software como servicio) que pueden dar acceso a proyectos de Big Data para un nicho o sector determinados, de forma que complementen fácilmente sus iniciativas internas.

Como se ve, a medida que se difunde su uso, el aprovechamiento del big data por parte de las empresas no es cuestión de tamaño, sino de inteligencia, flexibilidad y velocidad para incorporar herramientas que puedan ayudar a muchas de ellas a olvidar en poco tiempo el mote de “pequeñas”.

Foto: @geralt by License: CC0 Public Domain

Publicado por Nicolás Otero el 18 Agosto, 2015

La revolución digital transforma nuestras vidas en todos sus aspectos, y el deporte no es una excepción.

En este sentido, el Big Data es una herramienta sumamente poderosa para el análisis y la comprensión del desarrollo de un juego. Pensemos en el ejemplo del fútbol, repasemos cómo evolucionó nuestra forma de vivirlo y consumirlo sin estar en el estadio.

Los medios de comunicación. Ver un partido sin estar ahí

Atrás quedaron los tiempos en los que la radio portátil junto al oído era la única forma que teníamos de ver un partido de fútbol sin estar en la cancha. Cerrar los ojos y dejarse llevar por la capacidad descriptiva del relator nos permitía, de forma más o menos fiel, dibujar en nuestra cabeza lo que estaba ocurriendo en el campo de juego.

Luego llegó la tele. Y aunque las imágenes sean un recorte del todo, nos permitió tener una buena reproducción del partido estando cómodamente instalados en nuestras casas frente a un televisor.

Sin embargo, esto no fue suficiente. El desarrollo tecnológico trajo consigo nuevas opciones que hicieron prescindible incluso el mismísimo televisor: trasmisiones vía streaming o multipantalla, aplicaciones de seguimiento online con múltiples cámaras, apps para bajarnos a nuestro smartphone… nuevas opciones y nuevas formas de ver un partido de fútbol.

Incluso las redes sociales hicieron su aporte a este fenómeno, una especie de tribuna donde se analiza, se opina, se expresa la alegría o el enojo mientras el partido transcurre… y todo en tiempo real.

El análisis de datos. Ver sin mirar

En medio de esta gran catarata de formas de ver y sentir un partido aparece el Big Data abriéndonos una nueva puerta: ver un partido sin siquiera mirarlo.

¿Cómo es esto? La evolución que está experimentando el procesamiento y la analítica de datos en la actualidad nos da la posibilidad de tener una radiografía (o más que una radiografía, una imagen en alta definición) de lo que está ocurriendo durante un encuentro futbolístico en tiempo real.

Ya no hablamos sólo de estadísticas básicas como cantidad de goles, tarjetas amarillas o rojas, minutos que cada jugador estuvo en cancha o disparos al arco. Ahora podemos saber la posesión de pelota de cada uno de los equipos o jugadores, los sectores de la cancha donde se concentró el juego, la cantidad de pases que hizo cada equipo y cada jugador, la cantidad de metros o kilómetros recorridos por cada jugador durante el partido y más.

Es decir, un sinfín de datos que nos permiten entender lo que ocurrió, lo está ocurriendo, o hasta predecir lo que ocurrirá en un match sin necesidad de mirarlo.

De hecho, quizás algo parecido hizo el equipo alemán dirigido por Joachim Löw en el último mundial, cuestión que desarrollamos en este post.

Imagen: @OpenClipArtVectors, distribuida con Licencia CC0 1.0.

Acerca de
Tendencias Digitales es el primer blog corporativo de Telefónica de Argentina. Desde 2007 analizando tecnología, empresa y sociedad en la era de los medios sociales
Calendario
Octubre 2017
L M X J V S D
« Dic    
 1
2345678
9101112131415
16171819202122
23242526272829
3031  
Categorías