Los avances en inteligencia de ChatGPT vienen acompañados de un aumento en alucinaciones
Aunque los nuevos modelos de ChatGPT han mejorado su inteligencia, la generación de información errónea o "alucinaciones" ha aumentado significativamente, planteando retos de confiabilidad
Última actualización
La inteligencia artificial (IA) sigue avanzando a pasos agigantados, pero un reciente informe de OpenAI, compartido por The New York Times, revela que los progresos de ChatGPT están acompañados de un problema creciente: las alucinaciones. Estas, definidas como hechos imaginarios o mentiras directas, han sido una constante en los chatbots de IA desde su creación, y las mejoras en los modelos deberían, en teoría, reducir su frecuencia. Sin embargo, los resultados recientes muestran lo contrario.
Los últimos modelos insignia de OpenAI, GPT o3 y o4-mini, han sido diseñados para imitar el razonamiento humano, a diferencia de sus predecesores, que se centraban principalmente en generar textos fluidos. Estos nuevos modelos buscan procesar información paso a paso, y OpenAI ha afirmado que el modelo o1 puede igualar o superar el desempeño de estudiantes de doctorado en química, biología y matemáticas. No obstante, el informe de OpenAI expone resultados preocupantes para quienes confían ciegamente en las respuestas de ChatGPT.
Según el estudio, el modelo GPT o3 generó alucinaciones en un tercio de las pruebas de referencia relacionadas con figuras públicas, duplicando la tasa de error del modelo o1 del año pasado. Por su parte, el modelo más compacto, o4-mini, mostró un rendimiento aún peor, con alucinaciones en el 48% de tareas similares.
Las alucinaciones y la desinformación generadas por los chatbots de IA han sido un problema conocido desde sus inicios, pero el aumento en su frecuencia en modelos más avanzados plantea un desafío significativo. OpenAI continúa investigando para mitigar estos problemas, pero, por ahora, equilibrar la inteligencia avanzada de ChatGPT con su confiabilidad sigue siendo una tarea pendiente. Mientras la IA evoluciona, controlar la generación de información errónea será clave para su aceptación y uso generalizado.
Podría gustar
- La administración Trump planea eliminar el programa Energy Star
- Google filtra accidentalmente el rediseño visual de Android: "Material 3 Expressive"
- La FCC aprueba la adquisición de Frontier por \$20 mil millones por parte de Verizon
- Microsoft Build 2025 Inicia con Enfoque en IA y Plataformas para Desarrolladores
- El Laboratorio de Código Abierto de OSU planea mejoras en infraestructura y sostenibilidad tras éxito en financiación
- SpaceX recibe licencia actualizada para lanzamientos, pero el vuelo 9 aún espera aprobación de la FAA
- Los iPhones ahora tienen la función de IA Gemini Live de Google de forma gratuita
- ¿Elon Musk se está retirando de la influencia política?