Publicado por Alejandro Marticorena el 2 Octubre, 2015

Por quinto año consecutivo Telefónica presentó TIC Forum, un espacio de innovación y asesoramiento donde el objetivo es presentar las nuevas tendencias y soluciones que ayudan a optimizar los procesos de los negocios y la seguridad de la información.

De esta forma, Telefónica Business Solutions, la unidad que ofrece soluciones tecnológicas a grandes empresas y Pymes, presentó adelantos y servicios en ámbitos tales como 4G, seguridad informática y Big Data, entre otras, a más de 500 referentes de empresas privadas y de gobierno, entre quienes asistieron CIOs, Gerentes y Jefes de IT, de Marketing, de Compras, de Recursos Humanos de empresas estratégicas en el país y son clientes de Telefónica.

Este año, el slogan fue “Big Data, Big Business“. Dado que estamos frente a un nuevo paradigma en el conocimiento por el cual todos somos generadores de información, los enormes volúmenes que se generan a cada minutos pueden generar grandes negocios a las organizaciones.

La unidad de Telefónica que ofrece soluciones al segmento grandes empresas y Pymes tiene hoy más de 140.000  clientes que utilizan la nueva red 4G de Movistar, que transporta más del 30% del tráfico de datos.

Hoy, Movistar lidera una nueva etapa de las comunicaciones móviles en la Argentina con la red 4G más grande del país, y ofrece cobertura en más de 300 localidades de 14 provincias, y alcanzó ya el 100% de cobertura en la Ciudad de Buenos Aires, todo ello posible gracias a las más de 2000 radiobases en funcionamiento.

En este video, un resumen del encuentro, con el testimonio de portavoces de diversas áreas y empresas de Telefónica.

Más información

Nota de Prensa sobre TIC Forum 2015

Galería de fotos de TIC Forum 2015

Sitio web de TIC Forum 2015

Publicado por Equipo de Tendencias Digitales el

En su reciente visita a los Estados Unidos, el Papa Francisco hablaba frente a niños de una escuela de Harlem cuando dijo en un momento: “quiero darles un homework, (tarea para el hogar), ¿puede ser?: recen por mí”.

Todos los presentes celebraron la humorada y, desde ya, entendieron fácilmente la idea de que, en una escuela, lo normal es que a uno le den tareas para el hogar. Más allá de que el Papa estaba haciendo una broma, la educación ha funcionado así por siglos y a nadie sorprende que quien habla a un grupo de alumnos termine su prédica encomendando tareas que deban ser luego completadas en casa.

Esta lógica, sin embargo, podría estar a punto de cambiar a partir de la idea de Salman Kahn, un ex analista de fondos de inversión que parece estar  liderando una pequeña gran revolución en el mundo de la educación.

Khan se ha ganado la fama de revolucionario (…). El ingeniero eléctrico, matemático e informático formado en Harvard y el MIT (Instituto Tecnológico de Massachusetts) cree que cada estudiante es único y tiene ritmos de aprendizaje únicos que el sistema prusiano de enseñanza, esencialmente pasivo, no puede satisfacer” cuenta El País en una nota que publicó recientemente sobre este profesor que hoy da clases para “126 millones de alumnos” a través de su plataforma www.khanacademy.org .

Lo que él plantea es una suerte de escuela al revés”, continúa la nota. “Se aprende en casa, con lecciones grabadas en video y los pertinentes ejercicios, y se hacen los deberes en el aula. De esta forma, el estudiante que no ha entendido un concepto, y que quizá en clase se siente cohibido y renuncia a pedir ayuda, no tiene más que rebobinar la lección cuantas veces necesite hasta dominarla”.

Si bien la academia de Kahn no da cursos específicamente, lo cual le impide ingresar en la categoría de los rutilantes MOOC (sigla de “Massive Open Online Courses“), comparte con ellos las primeras tres características, ya que ofrece contenidos masivos, abiertos y online.

Kahn no está solo

Más allá de que el modelo de Kahn no solo se ha vuelto extremadamente popular, sino que ha llamado además la atención de inversores como Bill Gates y Carlos Slim, su propuesta no es la única que propone terminar con el viejo modelo educativo en el que el profesor habla, los alumnos escuchan y la tarea que debe hacerse luego en casa y en soledad.

Con algo más de siete años de trayectoria, iTunes U es también una interesante plataforma de conocimiento que, como explican en Hipertextual, “ofrece cursos y lecciones a las que podemos suscribirnos, descargarlas y aprender con ellas. Los cursos son gratuitos y normalmente son ofrecidos por grandes e importantes instituciones, por lo que cuentan con gran calidad”.

Y si nos ponemos a pensar más genéricamente en plataformas, soluciones o, incluso, programas de código abierto que facilitan el e-learning, hay bastante.

Plataformas como, por ejemplo, Moodle, es una de las más conocidas. Según informan en su sitio web, “Moodle es una plataforma de aprendizaje diseñada para proporcionarle a educadores, administradores y estudiantes un sistema integrado único, robusto y seguro para crear ambientes de aprendizaje personalizados”. Consiste en un programa que, o bien lo puede descargar cada interesado, o solicitarle ayuda a un “Moodle Partner” .

¿Y hay más? Hay más, por supuesto. Como mínimo, 36 opciones más, según lo que informan aquí, al menos en el ámbito de las plataformas educativas virtuales gratuitas. Vale la pena darse una vuelta.

¿Y por casa cómo andamos?

Telefónica también tiene presencia en el mundo de la enseñanza online y los entornos MOOC. De hecho, en julio de 2014 comentábamos en Tendencias Digitales el lanzamiento de MiríadaX, una iniciativa entre la compañía y el Banco Santander que la convirtió en la primera plataforma MOOC del mundo en español.

Y esta iniciativa, claro, no es la única en el campo de la educación digital. Telefónica canaliza estas acciones mediante una compañía creada a tal fin, Telefónica Educación Digital, cuyo sitio web ofrece información acerca de los diferentes proyectos y servicios en los que, actualmente, están trabajando en España, Colombia, Perú, Brasil y Chile.

Esta compañía se especializa en soluciones de formación online y educación digital gracias a la participación de 400 profesionales especializados en esos países, y ya posee más de 300 clientes distribuidos por Europa, Estados Unidos, Bélgica, México, Uruguay, Centro América y Reino Unido.

Ofrece servicios de formación a 4 millones de alumnos en diversas plataformas y dispone de una factoría de contenidos con más de 20.000 horas al año de producción.

En una dimensión más local, la startup Acamica, incubada por Wayra Argentina, es una comunidad abierta de aprendizaje en tecnología que cuenta con clases cortas y desafíos interactivos.

En este video, de noviembre de 2013, los presentábamos cuando acababan de ingresar en la aceleradora de negocios de Telefónica. Según información de Wayra, esta startup cuenta ya con 80.000 usuarios suscriptos y una tasa de cursos terminados del 12%, lo que triplica la media del mercado.

Como se ve, las cosas en el mundo de la educación parecen estar cambiando a ritmo vertiginoso. Y si bien la inclusión de la tecnología es intensamente debatida por los expertos en pedagogía, que buscan definir el qué, el cómo y el cuándo ideal, la tradicional idea de dar tarea para el hogar parece ir camino a convertirse en una reliquia conceptual.

Será cuestión de acompañar el proceso, observarlo de cerca y rezar, quienes quieran hacerlo, no solo por el Papa Francisco sino por una educación moderna, que pueda estar a la altura de los nuevos desafíos que el mundo le plantea.

Imagen: @WikimediaCommons, distribuida con licencia CC BY-SA 3.0.

Publicado por Alejandro Marticorena el 1 Octubre, 2015

Twitter está cambiando. Cada vez más. Ahora bien: ¿Está adaptándose para sobrevivir en el ecosistema de los medios sociales, o está perdiendo su identidad?

A priori, responder “las dos cosas” sonaría cuando menos contradictorio. Porque en una “jungla” tan cruel como la de las redes sociales no se puede sobrevivir a costa de perder la identidad.

¿O sí?

Vayamos por partes.

Lo único permanente es el cambio

Desde julio de 2006, cuando se lanzó, y durante un buen tiempo, Twitter permitía no mucho más que enviar tuits de no más de 140 caracteres, incluyendo links, menciones a otros usuarios “arrobándolos” (o sea, colocando la arroba delante del nombre de usuario) y mensajes directos, siempre que ese usuario nos siguiera. Y no mucho más.

Pero desde hace un buen tiempo (más de un año y medio) Twitter viene introduciendo cambios diversos en su manera de funcionar y en la experiencia que le suministra a sus usuarios.

Muchas, las comentamos aquí en Tendencias Digitales. En abril del año pasado comentábamos, por ejemplo, que añadía varias facilidades en relación con la subida de imágenes en los tuits (etiquetar personas y formar “collages” de fotos, entre otras); que cambiaba la interfaz gráfica de su portada en la red hacia un modelo notoriamente parecido al de Facebook; que comenzaría a permitir los mensajes directos a no seguidores, y que comenzaría a testear un botón para efectuar compras directamente desde los tuits. Y, como si todo fuera poco, que incluiría una nueva funcionalidad para reproducir archivos de audio sin dejar el timeline.

Ah, me olvidaba: también lanzó, en enero de 2013, una facilidad para incluir videos de hasta seis segundos en los tuits, lo cual fue posible tras la compra de Vine, esa app que permite publicar vídeos cortos en forma de loop.

Y otros cambios que, nobleza obliga, la red del pajarito azul anunció a fines del año pasado desde su blog oficial, todos a ejecutar durante este 2015 que ya entró a su último trimestre.

Tres de esos cambios generaron, seguramente, su ruido.

Uno: una información publicada por un medio online consignaba que Twitter había añadido, ya este año, la posibilidad de incrustar videos de hasta 30 segundos en los tuits (y editarlos antes de difundirlos).

Dos, que también sumaba el envío de mensajes a grupos cerrados de pocas personas. Ambas cosas las comentaron acá, y a eso le dimos nuestra propia óptica.

Y tres: Twitter también sumó la posibilidad de usar más caracteres que 140 para retuitear, una facilidad que seguramente amplió la posibilidad de añadir comentarios propios a los “RT”.

Era quizás no mucho más que una sensación. Pero fuerte: Twitter, opinábamos algunos, se comenzaba a desdibujar.

El borde del escándalo

Parecen ser tiempos de cambios simples pero significativos en el mundillo de las redes sociales.

El 15 de setiembre pasado se supo que Facebook está trabajando para incluir el botón “no me gusta”. Todo un hito.

A eso se le suma que hace pocos días se difundió que Twitter introducirá otro cambio. Muy significativo también, y que al igual que en el caso de Facebook se trataría de algo clave.

Pero, en lo personal, algo me dice que aquí estamos al borde del escándalo. ¿Por qué?

La magia de Twitter, al menos para los nostálgicos como quien suscribe y que conocimos a la red del pajarito desde casi su inicio, era la concisión, la brevedad, la frase corta pero con contenido, impacto e inteligencia. Un desafío al ingenio y a la creatividad, para transmitir a veces todo un concepto o idea en apenas 140 caracteres.

Bueno: ha estado circulando en Internet el rumor de que Twitter quizás “traicione” esa característica fundacional permitiendo que los tuits superen el límite de los 140 caracteres, lo cual (quizás) venga de la mano del cambio de CEO de esa red social: Dick Costolo por Jack Dorsey, uno de sus cofundadores, quien desde la partida de su antecesor ejerció el rol de Director Interino y sería nombrado CEO en forma definitiva.

De hecho, hay un antecedente cercano respecto de los famosos 140 caracteres. Hace apenas semanas, se supo que Twitter eliminó aquel límite fundacional en los tuits para los mensajes directos, con lo que -en la práctica- se acercaría a una suerte de WhatsApp. Que, mirá qué casualidad, es propiedad de Facebook.

Una pregunta que ya nos hemos hecho otras veces en este blog: ¿Twitter sigue siendo Twitter? ¿Podría seguir siéndolo si, al parecer, su estrategia para sobrevivir en el ecosistema de las redes sociales es parecerse a Facebook? ¿Está logrando recuperarse de algunos problemas financieros que comentamos en su momento? ¿Logrará con estos cambios modificar su amesetado crecimiento de usuarios?

Un informe muy interesante que encontré aquí, hecho por mi compañera Paula Ravarino a partir de una encuesta a un centenar de personas, arroja algo de luz acerca de los motivos de ese estancamiento y que, seguramente, es quizás el tema principal que desvela a los responsables actuales de la red de los trinos y los retuits: por qué se estancó el crecimiento en la cantidad de usuarios en poco más de 300 millones, mientras que otras redes (Facebook, Instagram y WhatsApp, por ejemplo) no paran de crecer. Y nótese, de paso, que las tres forman un mismo conglomerado empresario: el del amigo Mark Zuckerberg.

Twitter… ¿se muere?

Recuerdo que en abril de 2014 nos preguntábamos, en relación con los cambios que por entonces se conocían en Twitter, esto: “La pregunta del millón, en todo caso, es si Dick Costolo, CEO de Twitter, logrará esa transformación generando cambios que vuelven a la red social del pajarito más parecida a la de un competidor como Facebook, lo que por añadidura está produciendo el descontento de muchos de sus usuarios, en lugar de su adhesión“.

Como siempre pasa, sólo el tiempo dirá cuál será el resultado de estos cambios.

Lo único que espero es que el título “Twitter se muere”, ya publicado por la gente de Hipertextual, no se vuelva una realidad.

Uno no deja de ser un nostálgico.

Imagen: @habergibitv, distribuida con licencia CC0 1.0 Universal.

Más información

Mapa de redes y sitios sociales en 2015

Publicado por Equipo de Tendencias Digitales el 28 Septiembre, 2015

El cine nos ha mostrado, infinita cantidad de veces, que una escena clave de cualquier situación bélica de la historia es la de los generales ubicando a sus propias tropas y al enemigo en un mapa, dentro de una tienda de campaña. Desde Alejandro Magno hasta los jerarcas de la segunda guerra mundial, todo estratega que se precie se ha servido de un mapa, ha visualizado datos en él y ha usado la información así representada como un insumo clave para tomar decisiones.

La guerra, sin embargo, no es la única ni la principal razón que existe hoy, en plena era del Big Data, para visualizar datos en un mapa.

Imaginemos, por ejemplo, cuánto valor tiene para quien define políticas públicas, saber en qué partes de un país o de una provincia se cometen la mayor cantidad de delitos de violencia doméstica. O dónde se dan con mayor frecuencia, dentro de una ciudad, los accidentes automovilísticos. O qué tan relevante es, para un biólogo conservacionista, conocer en tiempo real el mapa de movimientos de los elefantes en Kenia. La lista de posibilidades es tan amplia como estimulante, y ésta fue la idea que llevó a dos emprendedores españoles como Javier de la TorreSergio Álvarez Leiva a crear CartoDB, una startup que, para algunos, va camino a convertirse en la “gran promesa tecnológica española”.

De hecho, sus creadores aseguran que, a pesar de que la compañía es rentable desde el primer día, ellos no la crearon para ser ricos, “sino para ser famosos”, algo que parecen estar logrando a juzgar por la enorme cantidad de resultados que aparecen en cualquier buscador al poner simplemente el nombre de la compañía. Ahora bien, ¿qué hace exactamente CartoDB y cuál es la novedad de lo que aporta?

Según se explica en su propio sitio web, CartoDB es “la manera más simple de mapear y analizar datos de ubicación”. Para esto, tal y como sus creadores explicaron en una nota concedida al sitio especializado Xataka.com, ellos “no se centran en los mapas base (por ejemplo, Google Maps) sino en la capa de datos y de aplicación que se muestra por encima de esos mapas (…). Cualquiera, sin necesidad de tener conocimientos técnicos en exceso, puede crear su mapa interactivo a través del sitio web de CartoDB. Simplemente se sube una tabla con los datos a representar y la plataforma se encarga del resto” explica la nota.

Más aplicaciones en el mapa

Desde ya, CartoDB no es la única aplicación que permite este tipo de visualizaciones de cualquier clase de información sobre un mapa. Más allá del éxito que ha tenido la iniciativa española, tanto el diario inglés The Guardian como el blog colega “Think Big” coincidieron recientemente en señalar a Google Fusion Tables como a una de las principales alternativas para este tipo de prestaciones, que aunque puede no ser especialmente amigable al principio, es capaz de almacenar hasta 100 MB de datos y brinda muchas posibilidades para subir y compartir al instante la información visualizada en un mapa.

Tableau es otra de las plataformas que los especialistas señalan como más completas, junto a las anteriores, para visualizar y compartir información sobre un mapa en minutos. Una aplicación que, según sus dueños afirman, ya ha sido elegida por más de 100.000 personas que han creado más de 500.000 visualizaciones de datos.

Más allá de quién sea el ganador en esta carrera, la visualización de la más amplia cantidad y variedad de datos sobre un mapa parece ser algo cada vez más accesible y fácil de utilizar, para saber desde cosas especialmente complejas hasta otras mucho más simples, pero también de valor.

¿Cuáles? Hay de todo en la viña del Señor. El universo de los datos, en la medida en que se va haciendo posible su registro y recolección gracias a dispositivos varios (encabezados por smartphones y sensores, principalmente) va muchas veces más allá de la imaginación más frondosa, y gracias al Big Data nos vamos acercando al momento en que podremos obtener datos de casi cualquier cosa, desde casi cualquier lugar, y en cualquier momento.

Y desplegarlos sobre un mapa, claro.

Imagen: Gabriel Flores Romero distribuida con licencia Attribution 2.0

Publicado por Equipo de Tendencias Digitales el 25 Septiembre, 2015

Septiembre es el mes en que los fabricantes de tecnología más importantes del mundo ponen “toda la carne al asador” y los fanáticos babean. Así es que, como algún lector sagaz ya se habrá dado cuenta, hoy dedicaremos nuestro espacio a las sorpresas de la feria IFA de Berlín, que volvió a realizarse en este septiembre de 2015 que ya va llegando a su fin.

Como era de esperarse, la feria este año rompió todos sus records, ya que contó con 1.645 empresas expositoras de 50 países y recibió a más de 250 mil espectadores. Vale agregar, como nota de color, que la feria IFA es la más tradicional de Europa y sus orígenes se remontan a 1924, cuando se la conocía como “La Gran Feria de la Radio Alemana”.

Curiosidades de la feria

Por supuesto que smartphones, tablets, y relojes fueron las estrellas de la feria. Pero en los 150.000 metros cuadrados de la expo tecnológica de Berlín hubo mucho más que celulares y relojes inteligentes. En Tendencias Digitales nos gusta ir a veces por lo distinto, así que vamos a contarles lo que probablemente no hayan visto en otro lado.

Si usted es una de las tantas personas que sufre desórdenes de sueño, ya no solo la farmacopea estará de su lado, porque Samsung presentó SleepSense, un dispositivo que monitorea los patrones de sueño y enseña cómo mejorarlos. Desde la compañía esperan que la nueva creación se convierta en una especie de “consultor de sueño personal”, ya que viene con un sensor que se ubica debajo del colchón y mediante una aplicación móvil el usuario recibe al despertarse el resumen de su jornada de sueño.

Otra curiosidad de la feria es el VivoStick de Asus, una mini PC con el tamaño de un pen drive que se conecta por medio de un puerto HDMI, dotando de inteligencia a un monitor o un televisor, y tiene la capacidad de cargar con Windows 10.

En tiempos donde todo es portátil, las PC de escritorio no morirán… pero deberán adaptarse. Así es que Acer presentó el Revo Build Mini PC: otra mini PC pero que, en este caso, está hecha de módulos magnéticos cuya actualización sólo implica quitar un módulo y poner otro. Como dicen en Gizmodo, “la gráfica y el disco duro van en bandejas separadas por lo que, si necesitamos más músculo gráfico o más almacenamiento, solo tenemos que comprar un nuevo módulo y cambiarlo“.

Por otro lado, Lenovo presentó una idea poco ortodoxa que puede convertirse en la fantasía de todos los cinéfilos. Lenovo Yoga Tab Pro 10 es una tableta con la capacidad de generar una pantalla de hasta 70 pulgadas en cualquier pared.

Por supuesto que, más allá de presentar tecnologías de vanguardia y nuevas pequeñas revoluciones año a año, no se amontonan más de 1500 expositores tecnológicos en una feria internacional sin que algunos hagan aportes, digamos, bizarros. Por eso, si tu interés va por este lado la gente de Tech Radar se tomó la molestia de hacer su propio top 10 de las cosas más extrañas que se vieron en la IFA 2015. Y es que hay opciones para todos los gustos en la viña del Señor, y en Tendencias Digitales las compartimos con ustedes.

Imagen: @janitors by license Attribution 2.0 Generic (CC BY 2.0)

Publicado por Equipo de Tendencias Digitales el 23 Septiembre, 2015

Hace pocos días, en Tendencias Digitales, estuvimos contando las novedades que se vienen en el ámbito de la realidad virtual y los videojuegos.  Sin embargo, lo cierto es que la accesibilidad que esta tecnología promete para los próximos años, e incluso meses, va mucho más allá de este tema, y no precisamente porque sea un segmento menor, ya que hace años que la industria de los videojuegos factura más que Hollywood. La capacidad de penetración de esta tecnología todavía es difícil de vislumbrar para la mayoría de nosotros, de la misma manera que nos hubiera costado concebir los sistemas de streaming allá lejos y hace tiempo cuando nos hicimos nuestra primera cuenta de e-mail.

Así, otra de las industrias que ya está planeando su aterrizaje por las tierras de la realidad virtual es la de la música. Curiosamente, lo hará de la mano de tres innovadores argentinos que, desde Silicon Valley, aspiran a patear el tablero y modificar de raíz la forma en la que consumimos música hasta hoy.

La plataforma en cuestión se llama Vrtify, y lo que pretende es permitir experimentar, a través de imágenes obtenidas mediante cámaras de 360º, contenidos virtuales y videos que interactúan con el sonido. Este es, en realidad, el primer paso de lo que finalmente se pretende lograr, que es la capacidad de trasmitir conciertos en vivo vía streaming. El debut de la plataforma está previsto para 2016.

La idea es tentadora: se busca una lista de canciones, se elige un ambiente virtual, se ponen los anteojos de realidad virtual y a un “play” de distancia uno puede estar en la playa escuchando reggae, en un bar escuchando jazz o en pleno ensayo de una banda de rock.

Vrtify nace del trabajo en equipo de Federico González, un experto en Inteligencia Artificial (IA); Guillermo Kelly, desarrollador de videojuegos, y el emprendedor Facundo Díaz. Ellos hicieron algo tan inteligente que pronto parecerá obvio: utilizaron la combinación de las tecnologías más usadas de hoy, tales como la reproducción de música en dispositivos móviles y plataformas de streaming. Y la que está considerada como la siguiente evolución, el siguiente paso de la interfaz humana con la tecnología: La Realidad Virtual (RV). Tengamos en cuenta que la Revista Forbes la declaró como uno de los desarrollos más importantes en el lustro 2015-2020.

¿Quién no se perdió un recital que era en otro país? ¿Quién no se quedó sin entradas para un recital en su país? O ¿quién no quiso revivir un recital que sí presenció? Todas esas horribles sensaciones pueden formar parte del pasado, de la misma forma que antes de la masificación de los discos escuchar una canción a voluntad era algo inconcebible.

Pues bien: esto que comentamos en este post es lo que debemos esperar del futuro de la música. Ahora puede parecernos tan raro como lo fue el walkman cuando atomizó la potencia de la música, pero no se puede avanzar por una ruta mirando solamente el espejo retrovisor. ¿Será esta la solución a la eterna crisis de la industria discográfica? Solo queda esperar a ver cómo nos siguen sorprendiendo… y que siga la música!

Imagen: @evarinaldiphotography, con licencia Attribution-ShareAlike 2.0.

Publicado por Equipo de Tendencias Digitales el 21 Septiembre, 2015

El planteo de la realidad virtual siempre tuvo la capacidad de captar la imaginación de todos y no es para menos. Es que la propuesta es muy tentadora: “Ponete estos anteojos, no vas a ir a ningún lado, pero podés ir a cualquier parte”.

Cualquiera que tenga memoria, de los años 80 para acá, puede dar fe de que los videojuegos en formato de casco de realidad virtual han estado siempre “a punto de salir”. Sin embargo, generaciones de niños se han convertido en adultos sin que esta promesa se cumpla satisfactoriamente y la verdad es que el asunto de la realidad virtual parece haber estado siempre en pañales, desde que empezó hasta nuestros días.

Como en Tendencias Digitales somos gente sensata, le damos crédito a los trabajadores de la industria de los videojuegos y entendemos que el reto de hacernos creer que estamos inmersos en otros mundos (sin que nos aprieten los lentes, con imágenes de calidad creíble, y con un peso que no convierta los cuellos ortopédicos en algo habitual de ver a la salida de un colegio), no es algo menor.  Es muy posible que la tecnología capaz de crear una experiencia realista buena no haya estado disponible hasta hoy (y por favor que sea hasta hoy y no para mañana o la semana que viene).  Como no quisiéramos que esta promesa se cumpla y tome a nuestros lectores desprevenidos vamos a empezar desde las bases.

En el principio, los principios

La piedra fundacional de la realidad virtual es el viejo y bien ponderado principio de la estereoscopía. Es decir: sobre una pantalla, dos imágenes ligeramente diferentes en su perspectiva, una para cada ojo, y el cerebro se encarga de reconstruir el resto. Así es como percibimos la profundidad y la sensación de las tres dimensiones.

Para emular este proceso, reemplazando imágenes visuales reales con imágenes visuales generadas por ordenador, es necesario que el ordenador calcule todos los factores relacionados con la profundidad de cada uno de los objetos y con todos ellos, que calcule el paralaje y que presente a cada ojo la imagen adecuada.

El otro pilar de la realidad virtual tiene que ver con las técnicas de inmersión, que consisten en aislar los estímulos del “mundo real”. Al quedar privado de estas sensaciones, se pierde la referencia con la cual se puede comparar lo real y lo virtual. No nos olvidemos que el cerebro está preparado para creer lo que los ojos vean y los oídos oigan.

Un poco de pasado y de futuro

No será sorpresa para nadie si decimos que el origen de la realidad virtual tiene que ver con las investigaciones militares. Prácticamente, como todo lo demás. Curiosamente, al primer aparato de realidad virtual que se construyó en 1968 en el MIT, se lo conoció como Espada de Damocles. Nos animamos a adjudicarles cierta cuota de sentido del humor por el nombre, ya que contaba con la capacidad de mandarte al hospital si se aflojaba una tuerca.

Para el año 1971,  en el Reino Unido comienzan a fabricar simuladores de vuelo con displays gráficos, pero será un año más tarde, en 1972, cuando General Electric desarrolla el primer simulador computarizado de vuelo.

Éstos operaban en tiempo real, aunque los gráficos eran bastante primitivos. Y pocos años después en 1979, los militares empezaron a experimentar con cascos de simulación.

Entre  los años 80 y comienzo de los 90 es cuando la industria de los videojuegos se obsesiona con la idea de los cascos de realidad virtual.  En esta etapa sobran los ejemplos, ya que fue una especie de carrera tecnológica, que hoy, con el diario del lunes, no nos sorprende que haya fracasado. En 1982, SEGA lanzó el primer arcade comercial del mundo con un juego de vídeo estereoscópico, Subroc-3D, que pretendía imitar al periscopio de un submarino. En 1987, Nintendo concibe y produce su Famicom 3D System, un sistema que consistía en unas gafas de obturación con pequeñas pantallas LCD. Esta tecnología nunca salió de Japón.

Unos años más tarde, en 1991, Sega contraatacó con SEGA VR. La prensa especializada reaccionó con poco entusiasmo y no tardaron en circular los rumores de que podría dañar los ojos de los niños. Si al leer esto no tenés el menor recuerdo de haber escuchado sobre estos lentes, es porque no tardaron en caer al cajón de los olvidos.  Así podríamos continuar con quince años más de lanzamientos donde se da un paso para adelante y dos para atrás.

De paso, y haciendo un brevísimo páréntesis (aunque con algo íntimamente relacionado) podés ver en este post una entrevista a un especialista en la historia de los videojuegos, que entrevistamos con motivo de la muestra “Play the game”, en el Espacio Fundación Telefónica, quien detalla las características del proceso tecnológico e histórico que, desde las primeras consolas y simples videojuegos, allá por la segunda mitad de los años ’70, nos llevó hasta el día de hoy, con juegos tan populares como -por ejemplo- el famoso Call of Duty.

Antes de Oculus, después de Oculus

El gran punto de inflexión se da en 2013, cuando la empresa Oculus VR (a la sazón comprada por Facebook en marzo del año pasado) lanza el Oculus Rift. El proyecto fue lanzado mediante una campaña de crowdfunding. Con una inversión inicial de 255.000 dólares, ahora el proyecto está capitalizado por más de 20 millones de la misma moneda.

Por otro lado, Sony lanzó para su consola PlayStation el Proyecto Morfeo.  La pantalla actual es OLED de 5.7 pulgadas con resolución de 1920×1080 y puede correr hasta 120 cuadros por segundo. En cuanto al campo de visión que permite, es de 100 grados. Que tras un tiempo largo de investigación, desarrollo y misterio anunciaron pasará a llamarse Playstation VR.

La compañía de videojuegos Valve, no se pensaba quedar afuera y para el próximo fin de año lanza los lentes llamados HTC Vive, que entre el mundillo especializado en el tema es el que más expectativa genera.

Así como hace 10 años nadie podría visualizar los celulares que estamos usando actualmente, podemos asumir que por impresionante que nos parezcan hoy estas innovaciones, no harán otra cosa que mejorar.

¿Qué habrá después? ¿Se hablará de adicción a la realidad virtual en el futuro? Podemos ir suponiendo que sí.  Pero como aprendimos de Mitrísdates VI, la dosis hace al veneno. Así que a no ser antipáticos y permitámonos cumplir nuestras fantasías de la infancia con estos nuevos juguetes.

Image: @philliecasablanca by license Attribution 2.0 Generic

Publicado por Alejandro Marticorena el 18 Septiembre, 2015

Otra vez con Big Data. Y es que, aunque aún no terminemos de darnos cuenta, supone un cambio de paradigma que es capaz de impactar en muchas áreas de la vida cotidiana.

Hoy es el turno de un área bastante específica, como es  la capacidad del Big Data de democratizar el acceso a la información confiable a la hora de hacer operaciones bursátiles.

No es un secreto que el ahorrista medio le tiene cierta desconfianza a la Bolsa de Valores. Percibida como un ámbito hermético, difícil de comprender y sobre todo riesgoso, el pequeño inversor se ha mantenido tradicionalmente lejos de este espacio, destinado fundamentalmente a los grandes expertos.

Sin embargo, tras el estallido de la crisis de 2008, cuando la confianza en el sistema financiero tradicional estaba en su punto más bajo, emprendedores en finanzas, negocios y tecnología pusieron en el mercado soluciones innovadoras enfocadas a atender a un público nuevo, más exigente y más informado, y surgieron así los emprendedores Fintech.

Un rubro complejo

La estructura fundamental de una Bolsa de Valores está basada en la inclusión de un segmento heterogéneo de inversores con diferentes estrategias, experiencias, capacidades de inversión y objetivos.

Los mercados financieros no son ni ciento por ciento eficientes ni ciento por ciento caóticos como muchos creen. Pero cada vez hay más herramientas que permiten entender de forma precisa la complejidad de sus fluctuaciones, ya que cada Bolsa de Valores cuenta con un componente de azar y de sistematicidad diferente, propio de cada región.

Analizar las tendencias y fluctuaciones de los mercados financieros siempre ha sido una tarea compleja, que se ha profesionalizado al punto de conformarse por grupos multidisciplinarios que incluyen las más variopintas profesiones, desde especialistas en física, matemática, computación, finanzas, estadísticas y todas las ciencias duras que podamos enumerar.

Hoy por hoy, la dificultad no está solamente en poder predecir el precio de un instrumento financiero, sino en la correcta interpretación del gran caudal de datos que se genera segundo a segundo; y cómo estos datos se generan, se procesan con la máxima eficiencia y rapidez posible. Ahí radica el diferencial de competitividad que todos buscan.

Fintech: ¿la esperanza de los pequeños ahorristas?

El desafío de estos nuevos proxys radica en entender los métodos analíticos que se deben aplicar para excluir el 99% de toda esa información que resulta innecesaria para nuestro negocio. El objetivo sería lograr descubrir cuál es ese 1% de toda la información online que tendrá el mismo valor que tienen para un banco los datos de los que se sirve para ofrecer sus servicios.

Los grandes fondos de inversión y las compañías de finanzas ya han asimilado y reconocido la ventaja competitiva que estos complejos modelos algorítmicos representan a la hora de tomar decisiones en un mercado cada vez más competitivo.

Por supuesto que no hay, ni probablemente habrá una forma libre de fallos a la hora de tomar decisiones de inversión, pero utilizar información basada en predicciones de Big Data ayuda a invertir convirtiendo el riesgo en un factor minimizando el azar.

La entrada de nuevos jugadores en el tablero de la finanzas, la tecnología  y la web 2.0 como herramienta masiva de difusión y distribución de productos ha permitido la entrada en la partida de nuevos intermediarios, que con unos requerimientos de capital muy inferiores han sabido aprovechar el momento para encontrar nichos de mercado en los que competir con la banca comercial: estamos hablando de las Fintech.

¿Serán las herramientas de Big Data un democratizador a la hora de animarse a invertir en la Bolsa? ¿Llegarán los pequeños ahorristas a contar con información confiable como las grandes compañías de inversión? En esta época donde los cambios se dan más rápido de lo que nadie espera, estas pueden ser herramientas que lleven a los ahorristas a confiar en las Bolsas regionales y así ayudar a capitalizar a las compañías que son el sostén productivo de un país.

El sector financiero se está revolucionado y tratando de adaptarse: nuevos consumidores, clientes mejor informados y más exigentes, más tecnología, más intermediarios y más especializados. En definitiva, mayor exigencia y mayor competencia, como nunca antes habíamos visto.

Imagen: @petrick by license  Attribution 2.0 Generic (CC BY 2.0)

Publicado por Equipo de Tendencias Digitales el 17 Septiembre, 2015

Hoy fuimos parte de la novena edición de #Craneando, que -como en oportunidades anteriores- se realizó en el Espacio Fundación Telefónica. Allí, en un debate innovador y enriquecedor moderado por el periodista Álvaro Liuzzi, los invitados a esta edición, Carlos Scolari y Pablo Aristizabal, intercambiaron experiencias y opiniones sobre el tema de esta edición: “La nueva ecología de la educación transmedia”.

Cuestión -nos referimos a lo “transmedia”- que no es la primera vez que abordamos en este blog: ya lo habíamos hecho cuando comentamos lo que pasó en el evento “Mediamorfosis”.

El objetivo de este nuevo #Craneando fue proponer a los asistentes –y luego extenderlo a la comunidad- un diálogo abierto sobre comunicación y educación en el cruce entre el mundo académico y el profesional, a partir de la incorporación de nuevos actores, productos, procesos, formatos y experiencias que enriquecen y transforman diariamente  la oferta educativa.

Aprender haciendo

La jornada comenzó con la proyección de trailers de trabajos realizados por Pablo Aristizabal, tales como -por ejemplo- la serie “Los Creadores”. Luego, y a partir de la famosa frase de Marshall McLuhan (“el medio es el mensaje”), Aristizabal desarrolló la idea de que la escuela era “el medio de la sociedad industrial, y que en la sociedad del conocimiento los medios son otros“.

Además, se planteó interrogantes sobre la naturaleza de la conexión entre la escuela y los medios hoy, la dificultad del maestro frente a las tecnologías y el reto no menor de lograr la atención en los alumnos. “Lo primero que tenemos que hacer con los niños es emocionarlos, para después buscar crear“, dijo.

A la hora de explicar los alcances y el significado del concepto de “I-do-tainment“, habló sobre la necesidad de “aprender haciendo”. “A negociar se aprende negociando, a rezar se aprende rezando y a crear se aprende creando”, dijo, y agregó que “en Aula365 buscamos que exista un aprendizaje student to student”.

Ecología de la educación

A su turno, Carlos Scolari explicó que hubo un cambio en los actores de la educación, y que ya no son las universidades quienes lideran las alternativas de formación profesional. Los cursos online y la educación peer to peer, donde todos son alumnos y maestros, son dos de los muchos modelos alternativos que han crecido en los últimos tiempos para disputar el espacio de las tradicionales casas de estudio.

Según Scolari, se modificaron los roles y es preciso generar aprendizaje en red actualizando las aulas mediante el rediseño de interfaces.”Cuando los chicos tienen un problema en un videojuego van a Youtube o a un foro y lo resuelven. Hay que investigar que pasa ahí y llevar esa metodología a las escuelas“, dijo, y afirmó que “en la red se invierte la lógica del capitalismo, son pocos los que escriben y muchos los que aprovechan de ese conocimiento. Un ejemplo es wikipedia“.

Entre otras frases inspiradoras para pensar en el nuevo paradigma educacional, Scolari afirmó que  ”los chicos son más eficientes que los adultos en la gestión de sus identidades digitales” y que “la innovación nunca aparece en el centro del sistema educativo“.

Aquí te dejamos la grabación completa de todo el encuentro, para que la disfrutes.

Publicado por Alejandro Marticorena el 15 Septiembre, 2015

Desde que el mundo es mundo y desde que existimos los seres humanos existió la opción (y la necesidad) de expresar gusto o disgusto por las cosas de la vida.

En la era de las redes sociales esto se trasladó al “universo Facebook”. Y no podía ser de otra manera, ya que la red social más popular del mundo (que si fuera un país sería el más poblado de la Tierra) ofrece a sus más de 1.400 millones de usuarios la posibilidad no sólo de expresar sentimientos sino, casi literalmente, de publicar y compartir sus vidas en la red social creada por Mark Zuckerberg.

En este marco, el famoso botón del “like” se transformó en sí mismo casi en un sinónimo del logo de la “f” blanca sobre fondo azul. Donde hubiera una manito con el pulgar hacia arriba todos entendíamos que se trataba del “like” o el “me gusta” de Facebook.

Pero claro: si lo queremos expresar así, la red social del pulgar arriba nació con un pecado original: no existía el opuesto (y, vamos a decirlo) equitativo botón del “dislike, o el “no me gusta”, tan reclamado durante años por miles de fans.

El principio de la era del “No me gusta”

Hoy se supo que, al parecer, Zuckerberg y compañía harán justicia dándole lugar al ansiado botón del “dislike“.

¿Por qué hubo desde el vamos tanta reticencia por parte de los responsables de Facebook para darle lugar a la opción del pulgar abajo?

Al menos por lo que se sostiene aquí, pareciera que los motivos serían al menos dos. Primero, porque “provocaría situaciones donde los usuarios puedan sentirse discriminados o agredidos“.

Y segundo, aunque -en mi opinión- quizás más importante que lo primero, porque esto involucraría un espinoso asunto de corte netamente comercial. Cientos de miles de empresas de todo el mundo y de todos los tamaños tienen cuenta en esta red social o, como mínimo, lanzan campañas publicitarias para darse a conocer, ofrecer productos y servicios, promociones, y un sinfín de etcéteras.

Por lo tanto, seguramente el resquemor de los “Facebook boys” tuvo que ver con eso: ¿cuántas empresas pautarían en una red social que las arriesga a encontrarse con -pongamos- cientos o miles de “no me gusta” debajo de sus posteos o promociones?

Pero, como dice aquella canción, “cambia, todo cambia”. Y Facebook no pudo ser ajeno a esta realidad. Hoy, Zuckerberg anunció, durante una conferencia de prensa, que su empresa está trabajando en el desarrollo del “no me gusta”. “La gente pregunta por el botón ‘dislike’ hace años y hoy es un día especial, porque anuncio oficialmente que estamos trabajando en ello, aseguró.

Parece una pavada estar escribiendo un post entero que gira en torno a un nuevo botón que Facebook incluirá para que la gente exprese disgusto. Pero lo que se mueve detrás de esta aparente nimiedad no es para nada un tema menor.

Quizás por eso Zuckerberg tuvo que matizar el anuncio diciendo que “el objetivo de esta herramienta será mostrar empatía y no para lastimar a nadie“, y agregó que no buscan “que los usuarios se sientan agredidos ni atacados, sino que se sientan acompañados. No queremos que Facebook se vuelva un foro donde la gente vote con un pulgar arriba o abajo las publicaciones“, dijo.

Un desafío para las empresas (por empezar)

¿Supondrá el “no me gusta” algún impacto en particular? Por empezar, las empresas seguramente deberán incorporarlo como termómetro del sentimiento negativo, que de manera transparente e irrefutable aparecerá plasmado, y ante la vista de todos, en caso de mensajes o publicidades cuyos anuncios no caigan bien a los clientes.

Quizás, una manera algo más cruenta (pero también más justa) de pulsar las emociones de los clientes en particular, y los fans en general, que -si le vemos el lado positivo- ayudará a monitorear con mayor exactitud el estado de ánimo de los públicos respecto de los productos o servicios de una empresa.

Y en lo que respecta a los usuarios en general… quién sabe. Más allá de ciertas “maldades” que por ejemplo podremos hacerle a ciertos amigos, sí servirá en el caso de que a alguien le esté pasando algo realmente malo o triste.

Porque hasta ahora, seamos sinceros, sonaba cuando menos contradictorio colocar un “me gusta” cuando alguien contaba que se había muerto de viejo su querido perro, tras 15 años de fiel compañía.

Acerca de
Tendencias Digitales es el primer blog corporativo de Telefónica de Argentina. Desde 2007 analizando tecnología, empresa y sociedad en la era de los medios sociales
Calendario
Octubre 2017
L M X J V S D
« Dic    
 1
2345678
9101112131415
16171819202122
23242526272829
3031  
Categorías