Sonido para videojuegos: “En la parte artística y creativa, no creo que la IA pueda reemplazar lo humano”
Pilar, de Neuquén, se especializa en audio para videojuegos. En una amena charla explicó cómo lo sonoro en los juegos crea una experiencia envolvente y dinámica. También hizo mencionó los desafíos que atraviesa el sector.
Desde Neuquén, Pilar se dedica al diseño de sonido para videojuegos. En una distendida charla, contó cómo el aspecto sonoro en los juegos une técnica, imaginación y relato para crear una experiencia envolvente y dinámica. El audio no se limita a acompañar la acción: reacciona en tiempo real, moldea ambientes y suma sentido, incluso ante los nuevos desafíos del sector.
PREGUNTA: ¿Cómo se construye el sonido de un videojuego?
RESPUESTA: El diseño sonoro de un videojuego se parece bastante al diseño de sonido para cortometrajes o películas. En ambos casos, lo ideal es partir de una idea, una historia o una narrativa, y construir el sonido a partir de eso. En los videojuegos sucede algo similar: la mayoría tiene una historia detrás, aunque hay distintos tipos. Algunos juegos se enfocan más en la mecánica que en la narrativa —por ejemplo, Candy Crush puede tener una historia mínima, pero no es lo importante—, mientras que otros son mucho más narrativos. A la hora de crear sonidos para un videojuego, lo fundamental es tener muy claro qué se hace en el juego, qué se necesita y cómo lograr que el jugador se sienta inmerso en ese universo. El sonido cumple justamente ese rol: favorecer la inmersión, hacer que el jugador sienta que está dentro del juego y que recibe respuestas (feedback) a las acciones que realiza. De esa forma, el sonido contribuye a que el jugador perciba constantemente lo que pasa a su alrededor.
P: ¿Qué herramientas se utilizan en la industria?
R: Depende mucho del tamaño del proyecto. En los juegos grandes suele haber equipos de audio enormes. En esos casos, las tareas están muy distribuidas. En cambio, en los equipos más chicos —como suele pasar acá— el trabajo es mucho más reducido. A veces el equipo de audio está formado por una o dos personas. En esos casos, una sola persona puede encargarse de todo: componer la música, crear los efectos de sonido, los ambientes, el foley y además insertar todo en el juego. No es lo ideal, porque termina siendo un trabajo muy cargado para una sola persona. Uno de los más populares es Reaper, aunque hay muchos otros DAW (Digital Audio Workstations, o estaciones de trabajo de audio digital). La forma de integrar los sonidos en el juego depende del motor con el que esté desarrollado. Por ejemplo, en Neuquén la mayoría de los proyectos se hacen con Godot, un motor creado por desarrolladores argentinos. En esos casos, suele ser el programador quien inserta los sonidos y la música, y luego se hacen ajustes en conjunto. En otros motores como Unity o Unreal, también se pueden usar programas que conectan directamente el software de audio con el motor del juego. Esa tarea la realiza un implementador de audio, que puede ser la misma persona que creó los sonidos. Los programas más usados para eso son FMOD y Wwise.
P: El sonido responde en tiempo real a las acciones. ¿Cómo se logra eso?
R: El diseño sonoro de un videojuego combina mucha técnica y mucha creatividad. Si lo comparamos con algo lineal, como el cine, es más complejo, porque en un juego el jugador puede hacer cosas impredecibles. Durante la pandemia, me juntaba virtualmente con un amigo de Jujuy a jugar Warframe. A veces simplemente encendíamos una fogata dentro del juego y nos quedábamos charlando durante horas. Todo ese tiempo, el ambiente sonoro seguía acompañando la experiencia. Eso implica que alguien tuvo que diseñar ese entorno de forma que no se note que el sonido se repite cada 30 segundos. El objetivo del diseño es sumergir al jugador en ese mundo. Los ambientes suelen crearse con loops, es decir, sonidos que terminan y vuelven a empezar de manera fluida, con pequeñas variaciones. Si se usan herramientas intermedias —los middleware como FMOD o Wwise—, estas permiten mezclar y alternar varios sonidos para evitar la repetición. Por ejemplo, se pueden combinar pistas de ambiente distintas que se van rotando. No se pueden usar audios muy largos porque ocuparían demasiado espacio y el peso del juego suele destinarse más a los gráficos que al sonido. Entonces, hay que ingeniárselas. Además, existen elementos llamados emitters (emisores o disparadores), que se colocan dentro del mundo del juego. No son visibles para el jugador, pero están ubicados estratégicamente —por ejemplo, cerca de un río o entre los árboles— y se activan cuando el personaje cruza ciertas zonas programadas con código. Así, el sonido de un río no está sonando permanentemente: comienza a escucharse cuando el jugador se aproxima, y el volumen aumenta a medida que se acerca, gracias a un código de proximidad. Este tipo de programación hace que la experiencia sea más realista. También se aplican efectos como la reverberación para simular distintos espacios.

P: ¿En qué etapa suele integrarse el audio?
R: En los proyectos más chicos —que son los más comunes en la industria independiente— suele pasar algo que no es lo ideal: el equipo de desarrollo llega con el juego casi terminado y recién ahí pide algunos sonidos específicos. En esos casos, no hay mucho margen para crear un mundo sonoro integral. Lo ideal sería que el área de sonido partícipe desde la preproducción. A partir de eso, cada área desarrolla su parte y se genera una iteración constante: el animador crea una pequeña animación, el programador la incorpora al juego, el sonidista la sonoriza, y así se van haciendo pruebas y ajustes entre todos. Esa sería la forma de trabajo ideal, porque el sonido también puede contar muchas cosas que no aparecen en lo visual. Pasa algo similar con la música: puede anticipar emociones o situaciones.
P: ¿La IA está redefiniendo la experiencia del jugador?
R: Está redefiniendo la experiencia del jugador, pero también está transformando el modo de producción en la industria. Como ocurre con todo lo artístico, hay juegos pensados más como productos de consumo y otros que se desarrollan desde un enfoque más expresivo. Dentro del mundo indie, por ejemplo, hay muchos juegos que abordan temas como el duelo, la salud mental o los procesos de superación personal, e incluso hay propuestas educativas. En esos casos, el diseño sonoro —como el diseño visual— es fundamental, porque requiere de personas capaces de transmitir emociones. El problema aparece cuando la IA se usa de manera inapropiada o por personas que no tienen experiencia. En la comunidad se debate mucho: ¿va a reemplazarnos la inteligencia artificial? Muchos piensan que sí, porque hay una tendencia a tomar atajos. Es la misma lógica de precarización. Pero, si se la usa bien, la inteligencia artificial puede ser una herramienta útil, sobre todo para agilizar tareas. Sin embargo, en la parte artística y creativa, no creo que pueda reemplazar lo humano. Quizás ahora esté en auge y se use mucho, pero tarde o temprano se va a quedar corta, porque hay cosas que solo las personas pueden crear y sentir.

* Pilar Hidalgo Lopez estudió diseño de sonido en la UBA. Reveló que su formación estaba más enfocada en lo audiovisual, pero luego decidió especializarse en audio para videojuegos. Destacó la formación interna dentro de la comunidad porque se trata de un proceso “enriquecedor y colaborativo”.
Desde Neuquén, Pilar se dedica al diseño de sonido para videojuegos. En una distendida charla, contó cómo el aspecto sonoro en los juegos une técnica, imaginación y relato para crear una experiencia envolvente y dinámica. El audio no se limita a acompañar la acción: reacciona en tiempo real, moldea ambientes y suma sentido, incluso ante los nuevos desafíos del sector.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios