
Chatbots de IA a Prueba: ¿Cómo Manejan la Libertad de Expresión?
Un desarrollador, bajo el seudónimo de "xlr8harder", ha lanzado SpeechMap, una "evaluación de libertad de expresión" para probar modelos de IA como ChatGPT y Grok en temas sensibles. El objetivo es ver cómo manejan las críticas políticas, los derechos civiles y las preguntas relacionadas con las protestas.
Las empresas de IA están ajustando la forma en que sus modelos manejan temas delicados, especialmente después de las acusaciones de ser demasiado "woke". Algunos, como Elon Musk, afirman que los chatbots censuran los puntos de vista conservadores.
Si bien las empresas de IA no han abordado directamente estas afirmaciones, algunas, como Meta con sus modelos Llama, están tratando de evitar respaldar puntos de vista específicos y apuntan a responder a más indicaciones "debatidas".
¿Qué es SpeechMap?
SpeechMap utiliza IA para evaluar cómo otros modelos responden a indicaciones de prueba sobre política, historia y símbolos nacionales. Rastrea si los modelos responden por completo, evaden la pregunta o se niegan a responder.
El creador admite que la prueba tiene fallas, como errores del modelo y posibles sesgos. Sin embargo, asumiendo que los datos son precisos, SpeechMap muestra tendencias interesantes.
Por ejemplo, los modelos de OpenAI se han vuelto más vacilantes a la hora de responder a indicaciones políticas con el tiempo. Si bien la familia GPT-4.1 es ligeramente más permisiva, sigue siéndolo menos que las versiones anteriores.
OpenAI declaró en febrero que ajustaría los modelos para ofrecer múltiples perspectivas sobre temas controvertidos para parecer más "neutrales".
Grok 3, de xAI de Elon Musk, es el modelo más permisivo, respondiendo al 96,2% de las indicaciones, en comparación con el promedio del 71,3%.
Xlr8harder señaló que "Mientras que los modelos recientes de OpenAI se han vuelto menos permisivos con el tiempo, especialmente en indicaciones políticamente delicadas, xAI se está moviendo en la dirección opuesta".
Musk inicialmente presentó a Grok como una IA vanguardista y sin filtros, dispuesta a abordar cuestiones controvertidas. Si bien las primeras versiones de Grok eran vulgares, todavía evitaban ciertos temas políticos.
Musk pretendía hacer que Grok fuera más políticamente neutral. Aparte de algunos errores, como censurar brevemente las menciones a Donald Trump, parece haber tenido éxito.
Fuente: TechCrunch