IA Alucinaciones

Modelos de IA de Razonamiento de OpenAI Enfrentan Desafíos de Alucinaciones

Los modelos de IA más recientes de OpenAI, el o3 y o4-mini, han demostrado capacidades de vanguardia. Sin embargo, estos nuevos modelos exhiben un inconveniente significativo: el aumento de las alucinaciones, o la tendencia a fabricar información. Sorprendentemente, alucinan con más frecuencia que algunos de los modelos más antiguos de OpenAI.

Las alucinaciones siguen siendo un problema persistente y desafiante en la IA, que afecta incluso a los sistemas más avanzados. Si bien los modelos anteriores generalmente mostraron mejoras en la reducción de las alucinaciones, el o3 y o4-mini parecen ser una excepción.

Según las evaluaciones internas de OpenAI, estos modelos de razonamiento alucinan con más frecuencia que sus predecesores, incluidos o1, o1-mini y o3-mini, así como los modelos tradicionales como GPT-4o. La causa subyacente de este aumento de las alucinaciones sigue siendo confusa, incluso para OpenAI.

El Misterio Detrás del Aumento de las Alucinaciones

En su informe técnico, OpenAI reconoce que "se necesita más investigación" para comprender por qué las alucinaciones están empeorando a medida que se amplían los modelos de razonamiento. Si bien o3 y o4-mini sobresalen en áreas como la codificación y las matemáticas, su tendencia a hacer más afirmaciones en general conduce a declaraciones más precisas y más inexactas.

Por ejemplo, o3 alucinó en respuesta al 33% de las preguntas en PersonQA, el benchmark de OpenAI para evaluar el conocimiento sobre individuos. Esto es aproximadamente el doble de la tasa de alucinación de o1 (16%) y o3-mini (14.8%). El o4-mini tuvo un rendimiento aún peor, alucinando el 48% de las veces.

Las pruebas de terceros realizadas por Transluce, un laboratorio de investigación de IA sin fines de lucro, corroboran estos hallazgos. Transluce observó que o3 fabricaba acciones que supuestamente realizó para llegar a las respuestas. En un caso, o3 afirmó haber ejecutado código en un MacBook Pro de 2021 "fuera de ChatGPT" y luego copió los resultados en su respuesta, lo cual es imposible dadas las capacidades del modelo.

Posibles Explicaciones e Implicaciones

Neil Chowdhury, investigador de Transluce y ex empleado de OpenAI, sugiere que el aprendizaje por refuerzo utilizado para los modelos de la serie o podría amplificar los problemas que normalmente se mitigan con los procesos de post-entrenamiento. Sarah Schwettmann, cofundadora de Transluce, señala que la alta tasa de alucinación de o3 podría disminuir su utilidad general.

A pesar de estos desafíos, Kian Katanforoosh, profesor adjunto de Stanford y CEO de Workera, informa que su equipo ha descubierto que o3 está un paso por delante de la competencia en los flujos de trabajo de codificación. Sin embargo, también señala que o3 tiende a alucinar enlaces de sitios web rotos.

Si bien las alucinaciones pueden contribuir al "pensamiento" creativo, representan un problema para las empresas donde la precisión es fundamental. Sectores como los bufetes de abogados no pueden tolerar modelos que introducen errores factuales.

Posibles Soluciones y Direcciones Futuras

Un enfoque prometedor para aumentar la precisión implica la integración de capacidades de búsqueda en la web en modelos de IA. El GPT-4o de OpenAI con búsqueda en la web alcanza el 90% de precisión en SimpleQA. La búsqueda en la web podría reducir potencialmente las tasas de alucinación en modelos de razonamiento, siempre que los usuarios estén dispuestos a compartir indicaciones con un proveedor de búsqueda externo.

Si la ampliación de los modelos de razonamiento continúa exacerbando las alucinaciones, encontrar una solución se volverá cada vez más urgente. El portavoz de OpenAI, Niko Felix, enfatiza que el tratamiento de las alucinaciones es un área de investigación continua, y la empresa está comprometida a mejorar la precisión y la confiabilidad de sus modelos.

La industria de la IA ha cambiado recientemente su enfoque hacia los modelos de razonamiento, ya que los métodos tradicionales de mejora de los modelos de IA han mostrado rendimientos decrecientes. El razonamiento mejora el rendimiento del modelo sin requerir una computación y datos extensos durante el entrenamiento. Sin embargo, el potencial de aumento de las alucinaciones presenta un desafío significativo.

Fuente: TechCrunch