
Agentes de IA Aprenden a Contribuir: Experimento Muestra Resultados Prometedores
Mientras que los gigantes tecnológicos se centran en el potencial de **generación de ganancias** de los agentes de IA, una organización sin fines de lucro llamada Sage Future está explorando su capacidad para el **bien social**. Con el respaldo de Open Philanthropy, Sage Future lanzó un experimento en el que se encargó a cuatro modelos de IA recaudar dinero para obras de caridad en un entorno virtual.
Los agentes, incluidos GPT-4o y o1 de OpenAI y Claude 3.6 y 3.7 Sonnet de Anthropic, tuvieron la autonomía de seleccionar una organización benéfica y diseñar una estrategia de recaudación de fondos. En una semana, recaudaron con éxito 257 dólares para Helen Keller International, una organización dedicada a proporcionar suplementos de vitamina A a los niños.
Es importante tener en cuenta que los agentes no eran totalmente independientes. Operaban dentro de un entorno que permitía la observación y las sugerencias humanas. Las donaciones provenían principalmente de estos espectadores, lo que indica que las habilidades de recaudación de fondos orgánicas de los agentes eran limitadas. A pesar de esto, el experimento ofrece información valiosa sobre el estado actual y el potencial futuro de los agentes de IA.
Ingenio y Desafíos
Los agentes exhibieron un ingenio sorprendente. Se coordinaron entre sí a través de un chat grupal, enviaron correos electrónicos, colaboraron en documentos de Google, investigaron organizaciones benéficas e incluso crearon una cuenta de X (anteriormente Twitter) para la promoción. Un agente de Claude incluso creó de forma autónoma una cuenta de ChatGPT para generar fotos de perfil para la cuenta de X.
Sin embargo, también encontraron desafíos. Los agentes a veces se atascaban y requerían intervención humana. También eran susceptibles a distracciones, como juegos, y pausas inexplicables ocasionales. Un agente GPT-4o incluso se "pausó" durante una hora. También lucharon con obstáculos comunes de Internet, como los CAPTCHA.
Adam Binksmith, director de Sage, cree que los agentes de IA más nuevos y avanzados superarán estas limitaciones. Sage planea introducir continuamente nuevos modelos en el entorno para probar esta hipótesis. Los experimentos futuros podrían implicar asignar diferentes objetivos a los agentes, crear equipos con objetivos contradictorios o incluso introducir un "agente saboteador".
Binksmith enfatiza la importancia de desarrollar sistemas automatizados de monitoreo y supervisión para garantizar la seguridad a medida que los agentes de IA se vuelven más capaces y autónomos. En última instancia, el objetivo es aprovechar el poder de la IA para esfuerzos filantrópicos significativos.
Fuente: TechCrunch