
Meta usará IA para evaluación de riesgos de productos
Meta planea un cambio significativo en su proceso de evaluación de riesgos de productos. En lugar de depender principalmente de revisores humanos, la empresa está recurriendo cada vez más a la inteligencia artificial para acelerar la evaluación de los posibles daños asociados con las nuevas funciones y actualizaciones en sus plataformas, incluidas Instagram y WhatsApp.
Documentos internos sugieren que Meta pretende que la IA gestione hasta el 90% de estas evaluaciones. Esto incluye áreas previamente supervisadas por equipos humanos, como el riesgo para los jóvenes y la integridad del contenido (incluido el contenido violento y la desinformación).
Preocupaciones Sobre la Supervisión de la IA
Sin embargo, esta transición ha generado preocupaciones entre los empleados actuales y anteriores. Expresan aprensión de que la IA pueda pasar por alto riesgos críticos fácilmente identificables por los revisores humanos. El potencial de aumento de externalidades negativas como resultado de un escrutinio menos riguroso es una preocupación significativa.
Si bien Meta mantiene que seguirá utilizando la experiencia humana para cuestiones complejas, la creciente dependencia de la IA para las decisiones de "bajo riesgo" plantea interrogantes sobre la solidez de este enfoque. La velocidad y la eficiencia que ofrece la IA son innegables, pero la compensación en términos de supervisión potencial sigue siendo un punto de controversia.
Informes de integridad recientes de Meta revelan una disminución en la eliminación de contenido tras los cambios de políticas, junto con un ligero aumento en el acoso, el acoso escolar y el contenido violento. Estos datos alimentan aún más el debate sobre las posibles consecuencias de cambiar a un sistema de revisión más centrado en la IA.
1 Imagen del Cambio IA Meta:

Fuente: Engadget