¿Qué pasaría si descubrieras que una voz de IA suena sorprendentemente similar a la de Scarlett Johansson? Este intrigante escenario es exactamente lo que OpenAI enfrentó recientemente con su voz de ChatGPT conocida como «Sky». Aunque OpenAI afirma que la similitud no fue intencional, la compañía ha decidido retirar la voz después de que numerosos titulares y hasta Saturday Night Live señalaran la similitud.
¿Imitación o Coincidencia?
«La voz de Sky no es una imitación de Scarlett Johansson, sino que pertenece a una actriz profesional diferente usando su propia voz natural», aclaró OpenAI. Sin embargo, el CEO de la compañía, Sam Altman, pareció admitir la similitud al publicar un críptico mensaje «ella» en X tras la controversia.
¿Hay Problemas Legales en Juego?
OpenAI no ha confirmado si ha recibido contactos legales relacionados con las similitudes de su asistente de voz con la actriz. The Verge intentó contactar a un representante de Johansson, pero aún no ha habido comentarios oficiales.
Las Nuevas Capacidades del Asistente de Voz
La voz Sky y el modo de voz de ChatGPT existen desde el año pasado, pero se destacaron recientemente cuando OpenAI presentó los avances del nuevo modelo GPT-4o. Este modelo permite que el asistente de voz sea más expresivo, incluso leyendo expresiones faciales a través de la cámara de un teléfono y traduciendo el lenguaje hablado en tiempo real.
Selección de Voces y Privacidad
OpenAI seleccionó los cinco perfiles de voz de ChatGPT de más de 400 presentaciones de casting. La compañía decidió no revelar los nombres de los actores para proteger su privacidad.
Lo Que Viene para ChatGPT
Las nuevas capacidades del asistente de voz se lanzarán “en las próximas semanas” como una versión “alfa” limitada para los suscriptores de ChatGPT Plus. OpenAI también planea introducir más voces para satisfacer mejor las diversas preferencias de los usuarios.
Salidas Controvertidas y Confidencialidad en OpenAI
Mientras tanto, OpenAI también ha estado en el centro de otra controversia. Dos investigadores de alto nivel abandonaron la empresa, uno de los cuales criticó la supuesta falta de compromiso de OpenAI con la seguridad de la IA. Además, Vox informó que los trabajadores que dejan OpenAI deben firmar acuerdos de confidencialidad draconianos para conservar su capital, prohibiéndoles criticar a la empresa en el futuro.
Sam Altman y la Gestión de la Crisis
Sam Altman, CEO de OpenAI, reconoció públicamente su culpa y se comprometió a corregir el error. «Esto es culpa mía y una de las pocas veces que me he sentido realmente avergonzado al ejecutar OpenAI», escribió en X. Altman también afirmó que la disposición de cancelación de capital no debería haber existido en ningún documento y que se está corrigiendo.
Respuesta del Presidente de OpenAI
El presidente de OpenAI, Greg Brockman, también emitió una respuesta extensa a la situación, enfocándose en la necesidad de tener un circuito de retroalimentación riguroso y seguridad de clase mundial. Sin embargo, no aclaró si los ex empleados ahora pueden hablar libremente sobre la empresa.
Reflexión Final: Un Futuro Ético y Transparente
La situación actual en OpenAI subraya la importancia de la transparencia y la gestión ética en el desarrollo de tecnologías avanzadas. A medida que OpenAI navega por estos desafíos, es crucial que continúe enfocándose en mantener un enfoque responsable y proteger los intereses de todos los involucrados.
OpenAI sigue comprometida en ofrecer innovaciones seguras y responsables, ajustándose a las expectativas y necesidades de sus usuarios mientras maneja las complejidades éticas que trae consigo la inteligencia artificial.