Por Martina Cardenas

El 26 de noviembre, OpenAI, la empresa matriz de ChatGPT, suspendió temporalmente el acceso anticipado a Sora debido a una filtración no autorizada del innovador modelo.

¿La causa de la filtración? Artistas que participaron en la fase beta, descontentos con lo que consideraron prácticas poco éticas en el uso de la herramienta.

¿Qué es Sora?

Sora es un modelo de inteligencia artificial (IA) desarrollado por OpenAI para generar videos a partir de descripciones en texto. Este modelo permite crear videos de hasta un minuto con coherencia visual y narrativa, integrando tecnologías avanzadas como las utilizadas en DALL-E 3.

Su capacidad para traducir texto en videos ya es un hito técnico en el campo de la inteligencia artificial generativa.

OpenAI presentó a Sora como un avance significativo en su objetivo hacia la IA general, diseñada para realizar tareas intelectuales humanas con razonamiento y adaptabilidad.

La protesta de los beta testers

Durante la fase de investigación, iniciada a principios de 2023, Sora estuvo disponible para unos 300 usuarios seleccionados, muchos de los cuales pertenecían a sectores creativos. Su tarea era identificar fallos técnicos y posibles vulnerabilidades de seguridad.

Sin embargo, aproximadamente 20 de estos evaluadores decidieron crear una interfaz pública, lo que permitió el acceso generalizado a la herramienta.

Los artistas involucrados afirman que OpenAI utilizó sus conocimientos y aportes para perfeccionar y promover la tecnología sin compensar adecuadamente su trabajo ni reconocer su contribución.

Los comentarios compartidos en Hugging Face expresaron un malestar generalizado entre los colaboradores iniciales. Muchos manifestaron sentirse utilizados como recursos explotables en lugar de ser considerados como socios creativos en el proceso.

Esta protesta resalta la creciente mercantilización de la creatividad en el ámbito de la inteligencia artificial y denuncia lo que los artistas perciben como un desprecio por el valor económico de su trabajo artístico.

“Recibimos acceso anticipado y gratuito con la promesa de ser evaluadores iniciales y socios creativos. En cambio, estamos siendo utilizados en un proceso de ‘lavado de arte’, destinado a hacer creer al mundo que Sora es una herramienta útil para artistas. No somos evaluadores de errores, ni marionetas de relaciones públicas, ni [proveedores de] datos de entrenamiento gratuitos”, afirman los denunciantes en su comunicado.

La respuesta de OpenAI

Tras la filtración de Sora, OpenAI decidió suspender temporalmente el acceso anticipado a la herramienta como una medida inmediata. Durante el tiempo que estuvo activa, decenas de usuarios tuvieron la oportunidad de generar videoclips de 10 segundos con una resolución de 1080 píxeles.

Más tarde, un portavoz de OpenAI ha respondido en un comunicado que enfatiza el carácter experimental y colaborativo de la fase de pruebas.

Según la organización, la participación de los beta testers era completamente voluntaria, y los evaluadores no estaban obligados a proporcionar comentarios ni usar la herramienta de forma intensiva.

La empresa destacó que a cambio del acceso anticipado ofrecieron beneficios, como subvenciones y oportunidades en eventos creativos.

¿Y ahora qué sigue?

El futuro de Sora permanece incierto, ya que OpenAI no ha anunciado una fecha de lanzamiento oficial. El director ejecutivo, Sam Altman, reconoció en octubre que su equipo enfrenta dificultades para resolver problemas de seguridad asociados con la herramienta, particularmente en lo relativo a su uso responsable.

La controversia generada por los artistas, que denuncian falta de compensación y reconocimiento, junto con acusaciones de uso no autorizado de contenido de plataformas como YouTube para entrenar el modelo, ha exacerbado las preocupaciones éticas en torno a su desarrollo.

Tal vez te interese: La Unión Europea sanciona a Meta por monopolio publicitario

Deja un comentario