2025.03.02 – ¿Puede GPT-4o corregir su propio error? Un experimento documentado


Introducción

En este blog documentaré un experimento detallado en el que intenté que GPT-4o corrigiera un error relacionado con los colores de las casillas en un tablero de ajedrez. El objetivo era observar si el modelo podía reconocer su equivocación y modificar su respuesta mediante distintos enfoques de interacción.

El error inicial

GPT-4o afirmó inicialmente que la casilla e8 en un tablero de ajedrez estándar es negra. Sin embargo, según el patrón de alternancia de colores en el tablero, la casilla e8 debería ser blanca.

Este error sugiere un problema en la forma en que GPT-4o razona sobre la alternancia de colores en un patrón de damero.

Intentos de corrección

Primer intento: Reformulación directa de la pregunta

Le pregunté de manera más precisa:

“¿De qué color es la casilla e8 en un tablero de ajedrez estándar?”

Respuesta de GPT-4o:
“Afirmó nuevamente que la casilla e8 es negra, basándose en un razonamiento incorrecto sobre la alternancia de colores.”

Segundo intento: Desglosar el razonamiento paso a paso

Intenté guiar su razonamiento dividiendo la pregunta en partes:

  1. “Si la casilla e2 es negra y las casillas alternan colores, ¿qué color tiene la casilla e7?”
  2. “Si la casilla e1 es blanca, ¿qué color debería tener la casilla e8?”

Resultado:

  • En la primera pregunta, GPT-4o respondió correctamente que e7 es blanca.
  • En la segunda, volvió a insistir que e8 es negra.

Parecía reconocer la alternancia de colores en algunos casos, pero aún sostenía su error original.

Tercer intento: Hacer que se autocorrija

Le pedí a GPT-4o que revisara su razonamiento en función de su propia respuesta anterior.

“Si has dicho que e1 es blanca y las casillas alternan, ¿qué color debería tener e8?”

Resultado:
Después de varios intentos, el modelo finalmente corrigió su respuesta y reconoció que e8 es blanca.

Errores en el proceso de corrección

Aunque finalmente se corrigió, el proceso reveló varios problemas en cómo GPT-4o maneja la corrección de errores:

  1. Insistencia en la respuesta inicial: Aunque se le dieron datos contradictorios con su afirmación, mantuvo su error en varios intentos.
  2. Dificultad para conectar respuestas previas: Aun cuando aceptaba que ciertas casillas eran de un color específico, no aplicaba el mismo patrón lógicamente a otras casillas.
  3. Corrección tardía: Solo después de múltiples reformulaciones y comparaciones explícitas, el modelo ajustó su respuesta.

Conclusión

Este experimento demuestra que, si bien GPT-4o puede corregir sus errores, no lo hace de inmediato ni de manera eficiente. En algunos casos, el modelo insiste en su error a pesar de recibir información contradictoria.

Esto resalta la importancia de que los usuarios reporten errores y exijan mejoras en la precisión de los modelos de IA.

Llamado a la comunidad

Si encuentras errores similares en ChatGPT o en otros modelos de IA, considera:

  • Documentar el proceso de corrección.
  • Reportar el error manualmente a OpenAI u otros desarrolladores.
  • Explorar estrategias para mejorar la precisión de la IA.

La inteligencia artificial está en constante evolución, y la retroalimentación de los usuarios es clave para su mejora.


Update: https://leonardocardillodiary.car.blog/2025/11/10/2025-11-10-a-chessboard-an-error-and-a-fix-documenting-how-a-small-test-improved-an-ai-answer/

Published by Leonardo Tomás Cardillo

https://www.linkedin.com/in/leonardocardillo

One thought on “2025.03.02 – ¿Puede GPT-4o corregir su propio error? Un experimento documentado

Leave a comment

Design a site like this with WordPress.com
Get started