Hace tres años, los artistas de la voz —como se autonombran los artistas y locutores que trabajan en la industria del doblaje, la publicidad y la locución— se encontraron con un problema grande y pocos oídos dispuestos.
En una página de internet, almacenados como si fueran opciones para elegir un sabor de helado, estaban sus voces y algunas de sus lecturas. Parte de su trabajo y específicamente con lo que ellos generan ingresos.
Estaban a disposición de cualquiera que pudiera usar la red y conociera la página, listas para procesarse y colocarse gracias a la inteligencia artificial en varios comerciales, narraciones o propuestas sin una paga y, por supuesto, sin consentimiento de sus dueños.
Ellos se enteraron de la página en un congreso entre pares, la voz se corrió y algunos pudieron hacer uso de las leyes del país de origen de la página, donde sí está protegido parte de su derecho de autor como titular de la voz. Solo así lograron quitar de la disposición pública algo que les pertenece.
Pero ese fue el primer día de una pelea que contrario a lo que uno pueda pensar, ha sido bastante silenciosa. Los artistas llevan peleando desde hace tres años por registrar y mantener su voz como un dato personal. Algo que no pueda ser sustraído y usado sin el consentimiento explícito.
Liliana Barba, actriz de doblaje, platicó en entrevista que desde abril había dos iniciativas que estaban presentadas en el Congreso de Ciudad de México, “pero también estaba pasando mucho en la ciudad y simplemente las iniciativas se quedaron en el tintero”.
La propuesta planteó un marco de regulación para marcar límites frente a la inteligencia artificial. Garantizar la protección de la originalidad y sobre todo, los datos biométricos. El primer intento no prosperó, pero parece haber una oportunidad nueva.
Y es aquí donde creo que todos deberíamos estar volcados en la revisión y en el seguimiento de la regulación. El marco regulatorio en este caso es indispensable para que los artistas puedan proteger sus obras, es un debate constante que se ha tenido en relación a la inteligencia artificial.
Pero también está abierta la discusión sobre qué puede almacenarse, qué puede usarse y para qué. Las aplicaciones posibles de una replicación de la voz con tecnología son múltiples y algunas son de riesgo.
Hace poco, por ejemplo, se debatía sobre la utilidad de los bots de duelo. O aquellos que permiten a las personas dolientes hablar con un familiar muerto a partir de algunas grabaciones. También está la posibilidad de que a través de tu voz, haya actos de extorsión, invasión de la privacidad, fraudes.
Por eso es importante tener un marco controlado desde donde tengamos certezas y límites a la tecnología. Donde su uso sea útil o, cuando sea perjudicial, pueda ser posible tener responsables.
Y aquí la duda genuina. Esta manifestación la hicieron los primeros que están expuestos, pero, ¿qué pasará cuando la práctica sea generalizada? Los controles tienen que fijarse ahora que todavía podemos domarla.
@Micmoya