Video 360 multicapa

Seamos claros: lo de la Realidad Virtual (VR en sus siglas en inglés) y su hermano pequeño, el vídeo en 360, se nos ha ido de las manos. Y marea. Pasado el boom inicial, cuesta verle aplicaciones más allá de las típicas operativas de cirugía, arquitectura, etc. Principalmente porque nuestra narrativa lleva construyéndose un siglo y medio en base a la mirada del señor o señora que nos dice qué mirar.

28 de agosto de 2018, por Joaquim Fonoll

Más allá del momento de "sorpresita" que nos da toda tecnología bien utilizada, los contadores de historias no han acabado de sacarle partido al invento. Atención: si alguien encuentra algo realmente interesante, que nos lo mande que estaremos encantados de equivocarnos. No valen videojuegos.

Al lío. En el mundo de la comunicación, son productos que necesitan mucho trabajo y tienen unos costes de producción con los que muy pocos clientes quieren lidiar. Ya nos cuesta suficiente vender lo que vendemos. Así que, queriendo aterrizarlo a lo mundano, se nos ocurrió algo interesante y muy simple: agregar una capa de información en forma vídeo 360 a nuestros contenidos audiovisuales convencionales.

Algo simple con sentido

Todo empezó con The Revenant. Sí, esa salvajada maravillosa de Iñárritu en la que un oso deja hecho trizas a DiCaprio.

En los primeros 15 minutos, con la cámara moviéndose con una pavorosa tranquilidad en medio de una batalla campal, cada vez que dejaba atrás un personaje, pensaba “¡¿Pero qué le va a pasar a éste?!”. Quería saber si al pobre desgraciado de turno le abrirían la cabeza o escaparía en el último segundo. La mirada de Iñárritu me provocaba mucha tensión, pero no me quedaba otra que seguirla. La segunda vez que la vi con la misma sensación en mi televisión, empecé a dar vueltas a cómo podría hacer funcionar una segunda mirada, la mía.

Algo simple y con sentido: ¿por qué no dotar a las unidades de rodaje con una cámara 3D sincronizadas con la cámara principal? Hacía poco habíamos estado trasteando con las cámaras Theta de Ricoh. Tienen el tamaño de una chocolatina y pesaban casi nada, así que se podían pegar con cinta adhesiva a un palito en la cabeza del operador de cámara, como quién dice. Alta tecnología de sujeción. Lo más importante: con un hardware de menos de 500 dólares, se podía conseguir esa segunda capa de información que tanto me interesaba.

2 capas de información que deben interactuar

La idea estaba bastante bien, pero se nos planteaban un par de dudas: ¿era siempre relevante (y necesaria) esta segunda capa? Y, por otro lado, ¿qué hacer con ella? Respondiendo a la primera pregunta: no, no siempre es relevante y/o necesaria. Sólo en algunos contextos. No necesitamos toda la peli también en 360. Decidir cuándo, forma parte del diseño de la narrativa interactiva. Y esto nos lleva a la segunda parte: ¿cómo generamos esa interacción para que tenga sentido? Podríamos emitir independientemente en forma de material complementario el contenido 360, pero fuera de contexto, ¿qué gracia tendría? Para resolver esta segunda cuestión había que encontrar una forma que convivieran ambas capas y, cuando la segunda estuviera disponible, poder interactuar con ella de forma fluida y cómoda.

Y en ese mismo momento, la famosa sala de conciertos de Hamburgo que había costado un ojo de la cara, sacaba esta pieza:

Nos fascinó la sencillez de la interacción. Esa era la clave. Pulsar un botón, una tecla, para cambiar. Dejar de pulsarlo para volver al timeline principal. En nuestro caso, con el ratón se podría orientar la mirada hacia donde quisiéramos. ¡Resuelto!

¿Y el móvil? Sí, podríamos tocar la pantalla en vez de pulsar el botón, pero ¿cómo dirigiríamos la mirada? Pues más fácil si cabe porque la cuestión ya la había resuelto el mercado tiempo antes.

A vista de pájaro y en directo

La primera aplicación que se nos ocurrió fue para los vídeos con drones que estaban tan de moda en ese momento. Era muy fácil y, en ese caso, sí que todo el metraje iba a ser útil. En realidad lo primero que pensamos fue en cómo sería rehacer el vídeo de la Elbphilharmonie con este sistema. Sencillo, impactante pero sin mucho recorrido desde una perspectiva narrativa.

Un par de meses más tarde, se empezaron a anunciar las primeras cámaras 360 asequibles que podían emitir en directo (4k por menos de 400$). Lógicamente coincidió con el boom de los livestreamings en Facebook y la proliferación de contenidos 360 en Youtube. Y la guinda: Smart TVs que admitían contenido en ese formato

Nuestra pequeña idea tenía recorrido más allá: podíamos conectar ambos mundos en directo y ver, en ese concurso, qué estaba pasando tras las cámaras. Podíamos ver, por fin, si al público le hacían gracia los chistes del presentador de esa gala. Podíamos, del mismo modo que algunas aplicaciones te permiten cambiar de cámara, ver todo lo que sucedía en el circuito de la carrera de turno. Podríamos, en definitiva, girar la cabeza en directo de aquello que nos estaba mostrando la pantalla.