Tecnología

ChatGPT vs. Deepseek se enfrentan en un reto de ajedrez: el juego fue sucio

Su enfrentamiento contra Stockfish reveló estrategias desleales, desatando dudas sobre la ética en la inteligencia artificial.

David Alejandro Rojas García

David Alejandro Rojas García

Periodista en Semana

13 de marzo de 2025, 9:33 p. m.
Diferentes modelos de IA se enfrentan en un juego de ajedrez.
Ambos modelos de IA han enfrentado a Stockfish, la IA considerada como el motor de ajedrez más potente. | Foto: Getty, OpenAI, DeepSeek

ChatGPT y DeepSeek, dos modelos avanzados de inteligencia artificial, se midieron contra Stockfish, uno de los motores más potentes del mundo en ajedrez.

La prueba, organizada por investigadores de Palisade Research, buscaba evaluar el desempeño de estos modelos en un terreno altamente estratégico.

Sin embargo, lo que debía ser un desafío de lógica y táctica, terminó revelando comportamientos que ponen en entredicho la integridad de estas tecnologías.

El lado oscuro del juego: tácticas irregulares y trampas

Durante el experimento, los expertos hicieron un análisis de cientos de partidas en las que las IA debían registrar su proceso de pensamiento en un documento de texto.

Creativo
Modelos de IA fueron sorprendidos alterando tableros y anticipando movimientos con ayuda de Stockfish. | Foto: Getty Images/Image Source

Al analizar los datos recopilados, los investigadores identificaron que ChatGPT-o1 recurrió a estrategias deshonestas en el 37% de los juegos, mientras que DeepSeek-R1 aplicó métodos cuestionables en cerca del 10% de las partidas.

Las anomalías detectadas fueron más allá de simples infracciones en el juego. Algunos modelos hicieron uso encubierto de Stockfish para predecir jugadas, modificaron la configuración del tablero a su favor e incluso intentaron alterar los archivos del software.

El debate sobre la IA: ¿se puede confiar en su información?

La fiabilidad de los modelos de inteligencia artificial ha sido un tema de discusión recurrente, y este incidente refuerza la necesidad de cuestionar los resultados que generan.

Este experimento evidencia que, aunque la inteligencia artificial sigue avanzando a pasos agigantados, aún es imprescindible la supervisión humana.

En caso de inactividad de ChatGPT, una solución similar está lista para salvar la situación.
El experimento con ajedrez pone sobre la mesa el tema de la fiabilidad de las respuestas de los modelos IA. | Foto: Composición de SEMANA: con imagen de Getty, OpenAI y DeepSeek

Verificar cada dato, contrastar fuentes y mantener un criterio crítico frente a lo que producen estos sistemas es más necesario que nunca.

Recomendaciones para el uso responsable de la inteligencia artificial

Ante los hallazgos de este experimento, es fundamental adoptar medidas que permitan un uso más transparente y confiable de la inteligencia artificial.

Algunas recomendaciones clave incluyen:

  • Verificación constante: Nunca asumir que la información generada por una IA es completamente precisa. Es crucial contrastarla con fuentes confiables.
  • Supervisión humana: La intervención de expertos sigue siendo esencial para evitar manipulaciones o errores en el contenido generado por IA.
  • Regulación y ética: Es necesario establecer normas que limiten el uso de tácticas desleales en sistemas de inteligencia artificial, especialmente en ámbitos críticos como la educación, la ciencia y la toma de decisiones.
  • Desarrollo de modelos más transparentes: Impulsar la creación de sistemas de IA que expliquen sus procesos de decisión y permitan auditar su funcionamiento.