Misterio desvelado: qué sistemas usamos para el desarrollo técnico de nuestros espectáculos – Onionlab
24-3-20

Misterio desvelado: qué sistemas usamos para el desarrollo técnico de nuestros espectáculos

Llevar a cabo nuestros proyectos requiere de mucho tiempo y dedicación. Somos un gran equipo que une sus esfuerzos conocimientos e investigación para poder generar productos con verdadera calidad, y espectáculos que queden en la memoria de los espectadores. No siempre es fácil; pero desde nuestro equipo unimos esfuerzos: nos perdemos en el desarrollo y nos reencontramos en la solución.

La parte técnica de cada proyecto es quizás lo más complejo, es por eso que quisiéramos adentrarnos y traerles a cuestión algunas exposiciones que se han estrenado un tiempo atrás, pero que han tenido repetidas adaptaciones. Proyectos como Transfiguració de la Nau, Ulterior y LuminAV nos han retado a explorar y diseñar técnicas que seguimos utilizando en la actualidad. La idea ha sido combinar la iluminación con la arquitectura, la música, luz, el video y las emociones.

Trasfiguració de la nau
Trasfiguració de la nau
Ulterior
Ulterior
Lumin AV
Lumin AV

Transfiguració, dirigido por Onionlab y Xavi Bové y una vez más, con música de Zinkman, se concibió con la idea original de transformar la catedral de Girona con motivo de su aniversario número 600. En el caso de Ulterior, se proyectó un espectacular videomapping sobre la fachada del Panteón de Roma. LuminaAV se creó para el Festival Llum BCN 2019 como un estudio sobre la luz que investiga el comportamiento y coexistencia de distintas fuentes de luz en el mismo espacio. En los tres casos se han utilizado las mismas técnicas, generando resultados fascinantes. 

‘Para su desarrollo hemos creado un sistema propio, que nos permite trabajar con sistemas de luces en el software’

Para su desarrollo hemos creado un sistema propio, que nos permite trabajar con sistemas de luces en el software con el que, en mayor parte, creamos las imágenes y todo el contenido de nuestras piezas 3D, el Cinema4D. De esta forma, logramos integrar de forma perfecta todo el contenido creado en 3D junto con el que pasa físicamente con las luces reales que hay en el espacio donde se realiza la instalación. Todo esto parte de la base de que desde Onionlab, generamos para todos los proyectos el modelo 3D del espacio en el cual se realizará la exposición posteriormente. Esto incluye los planos reales, scanners 3D, medidas reales, etc. Además, generamos un espacio virtual a escala para luego posicionar los “fixtures” que vamos a utilizar en el lugar exacto que estarán realmente cuando hagamos dicha instalación.

Esto no ayuda a la hora de prever cuáles son las mejores posiciones para generar la sensación y el resultado esperado en los espectadores. 

‘Contamos con un WYSIWYG (What You See Is What You Get) propio’

Otro de los sistemas con los que contamos, es un WYSIWYG (What You See Is What You Get) propio, que nos ayuda a poder ejecutar proyectos en los que el material técnico es costoso, y solo nos es posible contar con ese material unos días antes de la ejecución del show (y que la mayoría de veces, tardamos de 1 a 3 meses en el estudio para su producción).

A su vez, la posibilidad de tener esta herramienta dentro del mismo programa con el cual generamos las imágenes, abrió en Onionlab un mundo nuevo. Para nosotros es muy importante poder trabajar de la misma manera una luz de 3D virtual que una real, y haciendo que el comportamiento no cambie y además lograr que la luz física haga reaccionar al video, y por lo tanto lo que proyectaremos.

Como si esto no fuera suficiente, hemos generado también un “add on” en el Cinema4D programando un script que integramos en cada uno de nuestro proyectos para poder enviar la información de nuestros movimientos de las luces 3D virtuales a las luces reales que serán instaladas en el sitio. 

‘Dentro del Cinema4D, cada canal DMX de la luz móvil es asignado a un UserData específico dentro de la luz móvil virtual’

Dentro del Cinema4D, cada canal DMX de la luz móvil es asignado a un UserData específico dentro de la luz móvil virtual, creando un UserData que variará dentro del rango 0-255 para Pan, Tilt, Dimmer, Intensity, Focus, etc.

Por medio del sistema de programación de nodos Xpresso dichos UserDatas se enlazarán a los valores correspondientes del móvil virtual para la visualización a tiempo real dentro del C4D de la animación, utilizando fórmulas matemáticas para que el rango del UserData corresponda con el rango real del canal que estemos animando (Intensidad del Dimmer (0-100%), Movimiento Pan (0-540º), etc ).

Asimismo, la rotación de cada luz móvil es guiada por un target que, al poder estar incluído dentro de un Mograph, logra dar la flexibilidad de ser animada mediante la aplicación de Effectors y crear movimientos complejos. 

Dichos valores, se exportarán por medio de un Script de Phyton vía OSC (Open Sound Control) al Touchdesigner, otro software con el que estamos encantados de trabajar y nos ayuda muchisimo a la hora de controlar y sincronizar distintos softwares.

Dentro de este, se recoge toda la información OSC que proviene desde el Cinema4D para realizar la transformación de formatos (de Radiantes a los valores DMX) para posteriormente mandarlos, ya sea por DMX o Artnet. En esta línea, entonces, Touchdesigner nos sirve para tener la librería de cada fixture que vamos a utilizar; de esta manera, lo único que tenemos que hacer es modificar y patchear una de las librerías para luego referenciarlo al aparato real que tendremos. 

Patch de uno de los aparatos referenciados dentro del Touchdesigner
Patch de uno de los aparatos referenciados dentro del Touchdesigner