Skip to main content

El cineasta Justin Hackney ocupa actualmente el cargo de director creativo de ElevenLabs, la herramienta de clonación y generación voz con IA. Antes de unirse a la empresa en 2023, fundó Realdreams.io, un estudio dedicado a democratizar las herramientas de IA generativa.

Hackney, conocido por fusionar técnicas tradicionales con IA, considera la tecnología de voz un «gigante dormido» con el poder de transformar la creatividad y la comunicación. Conversamos con él en la Upscale Conf de Málaga, y nos insiste en la idea de que la IA amplifica el proceso creativo y conecta a personas de formas que antes parecían imposibles: «Nuestra tecnología abre la puerta a una comunicación global más auténtica».

Texto: Laia Herranz. Entrevista: Adrián Soler. Edición: Eduard Milà.

Pregunta: Empezaste como director creativo en una agencia tradicional, pero diste un giro hacia la inteligencia artificial. ¿Qué te llevó a hacerlo?

Respuesta: Siempre me ha fascinado la IA, ¿sabes? Desde niño, con cosas como The Matrix y The Sims, ya estaba pensando en simulaciones y mundos virtuales. Hace unos cuatro años, cuando empecé a ver los primeros trabajos generativos, me obsesioné. Tuve la suerte de tener una formación en cine —publicidad, documentales, videoclips…—, pero siempre quise aprender a programar e involucrarme en la IA. Un día, desde OpenAI vieron lo que publicaba sobre Starry AI y DALL·E 1, y se pusieron en contacto conmigo.

«Desde niño, con cosas como The Matrix y The Sims, ya estaba pensando en simulaciones y mundos virtuales»

Así fue como me invitaron a su primer programa de despliegue, cuando ChatGPT era Playground y DALL·E 2 generaba imágenes sin filtrar. Tener acceso a esas herramientas, que en ese momento eran un salto enorme en comparación con todo lo que había visto antes, y la velocidad con la que podían producir esas imágenes, fue impactante. Esa misma noche me quedé hasta las 4 de la mañana creando sin parar. Me dije: «OK, la IA está aquí, y no hay vuelta atrás». Como si se hubiera abierto la caja de Pandora. Así que terminé dejando mi trabajo, saqué mis ahorros y los invertí en construir comunidad, organizando tantos eventos como fuese posible.

También comentaste que Danny Boyle asistió a uno de esos eventos de IA. ¿Cómo fue esa experiencia?

Ha sido increíble. La IA impacta a cada persona de manera diferente: fascinación, miedo, curiosidad… Es una montaña rusa. Mostrar estas herramientas a gente de diversas industrias —educación, ingeniería, creatividad— ha sido muy interesante. Pero mostrarla a héroes como Danny Boyle, eso fue especial.

Danny fue una gran inspiración para mí. Actué en su película 28 Days Later, y eso me marcó. Tenía como ocho o nueve años y pensé: «Quiero hacer películas». Así que años después, poder decirle: «Ven, tengo algo que mostrarte», y enseñarle cómo funcionaba la IA, fue mágico. No es un truco de magia, pero se siente como uno.

«Algunas empresas usan nuestra tecnología de voz en tiempo real para ayudar a personas ciegas»

Ahora trabajas en Eleven Labs. ¿Cuál es tu rol allí?

Me uní hace un año. Al principio, era como un trabajo en medios, algo más técnico, pero les dije: «Soy un director creativo. Creo que puedo serviros mejor ayudando a construir comunidad, colaboraciones y conectar con el ecosistema de la IA». Tienen un equipo increíble, con ingenieros brillantes que están desarrollando herramientas rapidísimo. Mi trabajo es conectar estas tecnologías con actores de voz, productoras, educadores  y empresas que ni siquiera saben que las necesitan todavía.

También gestionamos un programa de subvenciones para apoyar proyectos en educación, accesibilidad y entretenimiento. Es mucho más que simplemente construir herramientas. Es tratar de conectar estas piezas de una manera que tenga sentido y, si lo hacemos bien, todos podemos crecer juntos como una especie de colectivo, lo cual es muy importante en un espacio como este, que puede sentirse muy competitivo.

¿Cuál ha sido el caso de uso más sorprendente que has visto de ElevenLabs?

Hay muchos, pero uno que me impacta es el de accesibilidad. Algunas empresas usan nuestra tecnología de voz en tiempo real para ayudar a personas ciegas a navegar por su entorno. Una voz puede decirles: «Estás en esta calle, gira a la izquierda, esto está en el menú». Eso cambia vidas.

Otro ejemplo es el doblaje. Imagina esta entrevista en 32 idiomas, con nuestras voces reales. Eso abre la puerta a una comunicación global más auténtica. No se trata solo de traducir, es crear un puente entre culturas. Ahora cualquiera puede hacer su trabajo accesible en todo el mundo, como Mr. Beast, que creció internacionalmente gracias a traducir y doblar su contenido.

«No es que nos volvamos más robóticos, al contrario: la IA nos devuelve nuestra humanidad»

¿Qué tan fácil es clonar una voz?

Súper fácil. Puedes crear un modelo de voz en dos minutos. Si grabas en un estudio profesional, sonará como una narración de cine. Pero incluso con grabaciones de móvil funciona. Además, tienes control total: decides si tu voz es pública, privada o incluso si quieres monetizarla. Algunos actores de voz están ganando ingresos pasivos con estas herramientas. Es increíble porque pueden trabajar internacionalmente sin necesidad de hablar todos los idiomas.

También habéis lanzado herramientas como los agentes de IA. ¿Qué posibilidades tienen?

Los agentes de IA son el futuro. Permiten que todas las capacidades —imagen, vídeo, lenguaje— estén al alcance de tu mano o integradas en cualquier dispositivo: en tu nevera, en el cristal de tu coche, en unas gafas. Esto hace que cualquier objeto sea inteligente y accesible. Ya no tendrás que esperar en llamadas de atención al cliente; la IA estará ahí para resolverlo al instante.

Lo interesante es que esto liberará a las personas de tareas repetitivas, permitiéndoles centrarse en conexiones reales, en cosas humanas. No es que nos volvamos más robóticos, al contrario: la IA nos devuelve nuestra humanidad.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.