La actriz Scarlett Johansson ha arremetido contra OpenAI, afirmando que la empresa utilizó una voz notablemente similar a la suya en su sistema de inteligencia artificial ChatGPT sin su consentimiento. Según Johansson, OpenAI la contactó hace nueve meses con la propuesta de usar su voz en el sistema, pero ella declinó por razones personales. A pesar de su rechazo, se sorprendió y enfureció al escuchar la versión de voz femenina llamada "Sky", que era tan parecida a la suya que ni siquiera sus amigos más cercanos podían distinguir la diferencia.
En respuesta a las quejas de Johansson y al malestar generalizado que la situación generó, OpenAI decidió retirar la opción de voz "Sky" de ChatGPT. La voz promocionada, descrita como coqueta y femenina, incrementó las comparaciones con la interpretación de Johansson en la película "Her" de 2013, donde ella dio vida a una inteligencia artificial. Aunque OpenAI insistió en que la voz pertenecía a una actriz profesional diferente, las similitudes fueron demasiado notorias para pasar desapercibidas.
Esta controversia surgió justo cuando OpenAI enfrentaba otros problemas internos, incluida la renuncia de varios miembros clave de su equipo de seguridad. Estos excolaboradores argumentaron que la empresa estaba priorizando "productos llamativos" por encima de la seguridad y los procesos internos adecuados. La situación nos recuerda los desafíos inherentes a equilibrar la innovación tecnológica con la ética y la protección de los derechos individuales.
Las reacciones a estos eventos han reflejado preocupaciones sobre los límites éticos en el desarrollo y la utilización de tecnologías de inteligencia artificial, especialmente en lo que respecta a la apropiación de elementos personales sin consentimiento explícito. Johansson ha declarado que continuará explorando acciones legales y otros medios para asegurar que su voz no sea utilizada sin su autorización.