ChatGPT Alucinaciones OpenAI

OpenAI Bajo Fuego por Problemas de Información Falsa en ChatGPT

Han pasado más de dos años desde que ChatGPT irrumpió en la escena mundial y, a pesar de los avances de OpenAI, persiste el problema de las "alucinaciones", donde la IA presenta información falsa como un hecho. El grupo de defensa austriaco Noyb ha presentado una segunda queja contra OpenAI, citando un caso en el que ChatGPT acusó falsamente a un hombre noruego de ser un asesino.

Según la denuncia, cuando se le preguntó por el hombre, ChatGPT afirmó que fue sentenciado a 21 años por matar a dos de sus hijos e intentar asesinar al tercero. La IA incluso incluyó detalles reales como el número de hijos, sus géneros y su ciudad natal, desdibujando aún más la línea entre la realidad y la ficción.

Reclamación de Violación del RGPD

Noyb argumenta que esta respuesta viola el RGPD. Joakim Söderberg, abogado de protección de datos de Noyb, declaró: "El RGPD es claro. Los datos personales deben ser precisos. Y si no lo son, los usuarios tienen derecho a modificarlos para que reflejen la verdad. Un pequeño aviso sobre posibles errores no es justificación suficiente para difundir información falsa."

Otros casos de alucinaciones de ChatGPT incluyen acusaciones falsas de fraude, malversación de fondos, abuso infantil y acoso sexual.

La queja inicial de Noyb en abril de 2024 involucró una fecha de nacimiento incorrecta. La respuesta de OpenAI fue que no podía cambiar la información existente, solo bloquear su uso en ciertos mensajes, con ChatGPT confiando en un descargo de responsabilidad sobre posibles imprecisiones.

La pregunta sigue siendo: ¿es una simple advertencia suficiente para excusar la difusión de información falsa potencialmente dañina por un chatbot de IA ampliamente utilizado? Esperamos la respuesta de OpenAI a esta última queja.

Source: Engadget