OpenAI dijo el lunes que está uniendo fuerzas con Bryan Cranston, SAG-AFTRA y los principales grupos de talentos de Hollywood para abordar el creciente desastre de deepfakes realizados en su herramienta de video de inteligencia artificial, Sora.
Esto ocurre después de que aparecieran en línea clips falsos del rostro y la voz de Cranston justo después del lanzamiento de Sora 2 a finales de septiembre. Cranston no tenía ni idea de su existencia hasta que se los compartieron, y no estaba contento.
Hablando a través de SAG‑AFTRA, que publicó al respecto en X, Cranston dijo: “Estoy agradecido con OpenAI por su política y por mejorar sus barreras de protección, y espero que ellos y todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la replicación de nuestra voz e imagen”.
Esa línea apareció justo cuando OpenAI anunció que se asociaría con SAG-AFTRA, la agencia de Cranston, United Talent Agency (UTA), y otros grupos importantes como Creative Artists Agency (CAA) y la Asociación de Agentes de Talentos para acabar con los usos no autorizados de las identidades de los dent .
OpenAI se enfrenta a críticas de las agencias por el mal uso de Sora 2
OpenAI ha estado bajo la lupa de las agencias de talento desde hace tiempo. Tanto CAA como UTA criticaron duramente a la compañía a principios de este año por usar material protegido por derechos de autor para entrenar a sus modelos, calificando a Sora de amenaza directa a la propiedad intelectual de sus clientes.
Esas advertencias se hicieron realidad cuando los usuarios empezaron a subir a Sora videos irrespetuosos de Martin Luther King Jr. Los videos eran tan malos que los herederos de King tuvieron que intervenir la semana pasada y solicitar su bloqueo, y OpenAI accedió.
La tensión no se detuvo ahí. Zelda Williams, hija del fallecido comediante Robin Williams, también les pidió a las personas que dejaran de enviarle videos de su padre hechos por IA tras el lanzamiento de Sora 2. Hizo pública su frustración poco después del lanzamiento, lo que echó más leña al fuego que ya se estaba gestando en torno a la falta de control de OpenAI sobre las dent .
Ante la acumulación de quejas, la empresa decidió endurecer sus políticas. Sora ya exigía el consentimiento expreso para el uso de voz e imagen, pero OpenAI afirmó que ahora también promete responder con rapidez a cualquier queja que reciba sobre suplantaciones de identidad o uso indebido.
Sam Altman actualiza la política e impulsa la Ley NO FAKES
El 3 de octubre, Sam Altman, director ejecutivo de OpenAI, lo hizo oficial: ¿La antigua política que permitía a la compañía usar material a menos que alguien les dijera que no lo hicieran? Se descartó. La compañía ahora ofrece a los titulares de derechos un control más detallado sobre la generación de personajes, lo que significa que las agencias finalmente pueden gestionar cómo y cuándo se usandentde sus clientes en Sora.
Sam también redobló su apoyo a la Ley NO FAKES, un proyecto de ley estadounidense destinado a detener las réplicas no autorizadas de IA. "OpenAI está profundamente comprometido con la protección de los artistas intérpretes o ejecutantes de la apropiación indebida de su voz e imagen", declaró. "Fuimos de los primeros en apoyar la Ley NO FAKES cuando se presentó el año pasado y siempre defenderemos los derechos de los artistas intérpretes o ejecutantes".
OpenAI ha pasado de ser una empresa de investigación a un imperio de la IA que lo abarca todo: aplicaciones de chat, plataformas sociales y herramientas empresariales. Pero con miles de millones invertidos en chips de IA y su gigantesco centro de datos aún necesitado de cash, está buscando activamentetracgubernamentales y corporativos para cubrir sus gastos. Esto significa que evitar demandas y liberarse de actores, agentes y legisladores es ahora tan importante como entrenar al próximo modelo de IA.
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.