
Sora IA: Generador de Vídeo Expone Problemas de Sesgos
A pesar de los impresionantes avances en la calidad del video, los generadores de video de IA como Sora de OpenAI están mostrando sesgos persistentes. Una nueva investigación revela que Sora perpetúa estereotipos dañinos relacionados con el género, la raza y la discapacidad.
Estereotipos en Videos Generados por IA
La investigación descubrió que Sora a menudo representa a hombres como pilotos, CEOs y profesores, mientras que a las mujeres se las muestra como azafatas, recepcionistas y niñeras. Los individuos con discapacidad son consistentemente retratados en sillas de ruedas, y el sistema tiene dificultades con las relaciones interraciales. La falta de diversidad y el refuerzo de los roles tradicionales plantean preocupaciones sobre el impacto potencial del contenido generado por IA.
OpenAI reconoce el problema del sesgo y afirma tener equipos dedicados a reducirlo. Sugieren ajustar los datos de entrenamiento y los prompts del usuario para generar videos menos sesgados. Sin embargo, la empresa no ha proporcionado detalles específicos sobre sus métodos.
La Raíz del Problema
El sesgo en la IA generativa proviene de las grandes cantidades de datos de entrenamiento, que a menudo reflejan los prejuicios sociales existentes. Las elecciones de los desarrolladores durante la moderación de contenido pueden reforzar aún más estos sesgos. La investigación sugiere que los sistemas de IA pueden incluso amplificar los prejuicios humanos.
Daño Potencial y Mitigación
El uso generalizado de videos de IA en publicidad y marketing podría exacerbar la estereotipación y la eliminación de grupos marginados. Los videos generados por IA utilizados para capacitar a sistemas de seguridad o militares podrían conducir a resultados aún más peligrosos. Abordar el sesgo de la IA requiere un enfoque multidisciplinario que involucre diversas perspectivas y pruebas en el mundo real, no solo soluciones técnicas.
Fuente: Wired