Los asistentes codifican y decodifican los mensajes a través de sonidos similares a los pitidos y que son ininteligibles para los humanos
Que los ordenadores se comunican entre sí, no es ninguna novedad. Y que los humanos hablemos con la IA, tampoco. Pero los creadores del vídeo viral de dos asistentes virtuales hablando entre ellos, creo que es una muestra de cómo adelantarse a su tiempo.
A pesar de los avances en capacidades técnicas en los algoritmos, cierto es que todavía hay usuarios –entre los que yo me incluyo–, que le pedimos a Google Home hacer una división y nos responde que no ha encontrado restaurantes con estas características. No obstante, toda tecnología exitosa tiende volverse a invisible, y calificar a la IA de éxito me parece hasta poco. Por lo tanto, tras haber probado GiberLink me pregunto: ¿es el primer paso hacia invisibilizar la comunicación de la IA?
No es un nuevo algoritmo
Aviso para navegantes: GibberLink Mode no es un nuevo algoritmo como tal. Sino que se trata de un nuevo protocolo –en fase de pruebas– que usarían los asistentes virtuales para comunicarse entre ellos. En mi cabeza está presente la idea de que sea un lenguaje estándar, similar a Mater –que es el protocolo que usan los sistemas operativos para conectarse con bombillas, enchufes o cualquier electrodoméstico compatible–.
Pero lo que realmente me ha gustado es el hecho de que es un sistema muy rápido y eficiente. Los asistentes codifican y –a su vez– decodifican los caracteres a través de sonidos. Es cierto que el lenguaje natural lo vemos escrito en pantalla. Porque, de no ser así, me temo que además del traductor de “perro a humano”, tendríamos que sacar el “traductor de algoritmos”. Y eso sí que sería ineficiente.
Tecnología invisible
El roce –a nivel de interacción con la IA– se minimiza gracias a GibberLink. Y una de las aplicaciones con más utilidad que le puedo ver a esto es la burocracia. Si se trata de llevar a cabo tareas logísticas, como agendar reuniones, citas o entrevistas, ¿por qué no hacer que mi móvil “hable” con el de otra persona, usando mis datos, para que después me diga que ha agendado un hueco? Si soy yo el que lanzo el comando, adiós el tener que estar haciendo un “tira y afloja” y puedo centrarme en otras cosas.
No creo que se trate de un sistema que nosotros lleguemos a ver “de puertas a fuera”. Es verdad que todavía está en una fase muy experimental, y que la interfaz web está diseñada con unos pocos recursos de texto. Pero siendo realistas, no creo que ahora todos nos pongamos a imitar estos pitidos. Sino que, más bien, lo pienso como un sistema de comunicaciones que llegue a ser inaudible, o que se ejecute en segundo plano.
Tú también puedes probarlo
A través de la web gbrl.ai, todo el mundo puede probar funcionalidades gratuitas. Porque sí, también hay funciones de pago algo más avanzadas.
¿Cómo funciona? Tan sólo se necesitan dos dispositivos diferentes, cada uno con la web en marcha. En ambos habrá que seleccionar un estado de ánimo del bot –aquí han decidido apostar por IA generativa de texto que lanza mensajes en función de la emoción que queramos que tenga–.
Eso sí, hay que asegurarse de que los dos están cerca y que el volumen de los altavoces es alto para que se puedan escuchar. Y ya está: realmente no hay que hacer mucho más. Es posible que la web crashee –cosa que me ha pasado ya–, o que se pare la conversación en caso de que uno de los dos deje de escuchar al otro. Más allá de eso: no hay que hacer nada. Agarrar unas palomitas y disfrutar del espectáculo. Aunque ya te hago spoiler de que después los pitidos se te quedan metidos en la cabeza.