El inesperado talón de Aquiles de la inteligencia artificial, según Apple Infobae

El inesperado talón de Aquiles de la inteligencia artificial, según Apple. Noticias en tiempo real 11 de Junio, 2025 06:20

La ilusión del pensamiento: los modelos de IA de razonamiento colapsan ante problemas complejos, según investigación de Apple (Imagen Ilustrativa Infobae)

Un nuevo estudio de Apple revela que los modelos de inteligencia artificial especializados en razonamiento, conocidos como Large Reasoning Models (LRMs), colapsan completamente cuando enfrentan problemas de complejidad creciente, desafiando la idea de que estos sistemas “piensan” de manera efectiva.

La investigación, publicada apenas días antes del evento WWDC de Apple, analizó el comportamiento de modelos como OpenAI o1 y o3, DeepSeek R1, Claude 3.7 Sonnet Thinking y Google Gemini Flash Thinking. Los resultados representan un jarro de agua fría para los optimistas de la inteligencia artificial general (AGI) y una confirmación para los escépticos, ya que muestran evidencia contundente sobre las limitaciones de la inteligencia de estos modelos.

Según informaron los investigadores de Apple, mientras los LRMs tienen un buen desempeño en matemáticas y programación, cuando se enfrentan a problemas más complejos solo proporcionan “La Ilusión del Pensamiento”.

Este hallazgo podría explicar la cautela de Apple para incorporar masivamente la IA en sus dispositivos, a diferencia de competidores como Google y Samsung, que han priorizado estas capacidades en sus productos.

Apple explica su cautela con la IA tras evidenciar fallos en modelos avanzados frente a problemas difíciles (REUTERS/Laure Andrillon)

Cómo los investigadores evaluaron las habilidades de razonamiento

Para evaluar los modelos de razonamiento, los investigadores de Apple utilizaron puzzles o rompecabezas lógicos clásicos como la Torre de Hanoi. Este puzzle consiste en discos apilados de mayor a menor en una de tres clavijas, y el objetivo es mover todos los discos a la tercera clavija sin colocar nunca un disco más grande sobre uno más pequeño.

Otros puzzles incluían el salto de fichas de damas a espacios vacíos, el problema de cruzar un río (habitualmente planteado con un zorro, una gallina y un saco de grano), y la configuración específica de bloques apilados.

Estos rompecabezas son reconocibles de clases de matemáticas o juegos en línea, ya que representan una forma simple de evaluar la capacidad humana para razonar y resolver problemas. Una vez que se comprende la lógica, solo hay que seguirla incluso cuando aumenta la complejidad, lo que en este caso significa más discos, fichas, animales o bloques. Sin embargo, los investigadores descubrieron que los LRMs comienzan a fallar después de cierto punto.

“Los resultados muestran que todos los modelos de razonamiento exhiben un patrón similar respecto a la complejidad: la precisión disminuye progresivamente a medida que aumenta la complejidad del problema hasta alcanzar un colapso completo (precisión cero) más allá de un umbral de complejidad específico para cada modelo”, escribieron los investigadores. En los resultados mostrados, Claude 3.7 Sonnet + thinking y DeepSeek R1 comienzan a fallar cuando se añade un quinto disco al problema de la Torre de Hanoi. Incluso cuando se aplica más potencia de cálculo a los LRMs, siguen fallando en los puzzles más complejos.

Tres regímenes de complejidad y el colapso de los modelos

La investigación de Apple desafía la idea de que la inteligencia artificial puede razonar como los humanos (Imagen Ilustrativa Infobae)

El estudio identificó tres regímenes de complejidad en el comportamiento de los modelos evaluados. En tareas de baja complejidad, los modelos de lenguaje estándar (LLMs), sin mecanismos de razonamiento explícito, superaron en eficiencia y precisión a los LRMs. Cuando la dificultad aumentó a un nivel medio, los LRMs demostraron una ventaja clara, gracias a su capacidad para generar cadenas de pensamiento más extensas.

Sin embargo, al enfrentar problemas de alta complejidad, ambos tipos de modelos experimentaron un colapso total en su desempeño. Además, los investigadores descubrieron que los modelos de razonamiento inicialmente aplican más “tokens de pensamiento” a medida que aumenta la complejidad, pero sorprendentemente abandonan el esfuerzo en cierto punto.

“Al aproximarse a un umbral crítico —que corresponde estrechamente con su punto de colapso de precisión— los modelos, de manera contraintuitiva, comienzan a reducir su esfuerzo de razonamiento a pesar del aumento en la dificultad del problema”, señala el estudio. Es decir, cuando los problemas se vuelven más difíciles, utilizan menos tokens o “piensan” menos.

Pero, ¿qué sucede cuando se les proporciona a los LRMs las respuestas? La precisión tampoco mejora. Incluso cuando los investigadores incluyeron el algoritmo en las instrucciones, de modo que los modelos solo necesitaban seguir los pasos, continuaron fallando.

Análisis de los procesos intermedios y el fenómeno del “overthinking”

El acceso a las “huellas de razonamiento” permitió a los investigadores examinar cómo evolucionan las soluciones intermedias dentro del proceso de pensamiento de los LRMs. En problemas simples, los modelos suelen encontrar la solución correcta rápidamente, pero continúan explorando alternativas incorrectas, lo que se traduce en un uso ineficiente de recursos computacionales. Este comportamiento, conocido como “overthinking” (pensar demasiado), implica que los modelos generan respuestas redundantes incluso después de haber hallado la solución.

El estudio de Apple genera debate sobre el futuro y las verdaderas capacidades de la inteligencia artificial (Imagen Ilustrativa Infobae)

En tareas de complejidad media, la tendencia se invierte: los modelos exploran, primero, caminos incorrectos y solo después de un proceso extenso logran dar con la respuesta correcta. Cuando la complejidad supera el umbral crítico, los modelos dejan de encontrar soluciones correctas en cualquier punto de su razonamiento, lo que evidencia una incapacidad para autocorregirse y adaptarse a desafíos más exigentes.

Según detalla Apple en su estudio, en el caso de la Torre de Hanoi, los modelos podían ejecutar hasta 100 movimientos correctos en configuraciones de alta dificultad antes de cometer un error, mientras que en el problema de cruzar el río fallaban tras apenas cinco movimientos. Esta disparidad sugiere que la frecuencia con la que los modelos han sido expuestos a ciertos tipos de puzzles durante su entrenamiento puede influir en su desempeño, aunque no explica completamente las limitaciones observadas.

Comparación con el rendimiento humano y limitaciones del estudio

Aunque los resultados pueden parecer desalentadores para quienes esperan una IA capaz de razonar como los humanos, el estudio de Apple aclara que estos hallazgos no implican que los LRMs carezcan por completo de habilidades de razonamiento. Más bien, evidencian que, ante problemas de alta complejidad, su desempeño no supera —y en ocasiones iguala— las limitaciones humanas.

El experto en IA Gary Marcus, citado por el medio original, contextualizó los resultados: “Los humanos (ordinarios) también tienen un conjunto de límites (bien conocidos) que se asemejan a lo que el equipo de Apple descubrió. Muchos (no todos) los humanos fallan en versiones de la Torre de Hanoi con 8 discos”. Marcus añadió: “Lo que muestra el artículo de Apple, fundamentalmente, independientemente de cómo se defina la AGI, es que los LLMs no son sustitutos de buenos algoritmos convencionales bien especificados”.

El estudio reconoce varias limitaciones. Los rompecabezas utilizados representan solo una fracción de los desafíos de razonamiento que se presentan en el mundo real, y la mayoría de los experimentos se realizaron mediante acceso a APIs de modelos cerrados, lo que restringe el análisis de los estados internos de los sistemas. Además, la validación de las soluciones se basó en simuladores deterministas, lo que puede no ser aplicable a dominios menos estructurados.

El futuro del razonamiento en IA

Los propios autores del estudio de Apple subrayan que su trabajo tiene un alcance limitado. Los entornos de puzzles, aunque permiten un control preciso de la complejidad, no reflejan la diversidad de problemas reales ni las demandas de razonamiento basadas en conocimiento. Además, el uso de modelos cerrados y simuladores estructurados restringe la generalización de los hallazgos a otros contextos.

Quedan abiertas preguntas fundamentales sobre la capacidad de los LRMs para desarrollar razonamiento generalizable y sobre las mejoras necesarias para superar las barreras identificadas. El estudio concluye que, si bien los LRMs han avanzado en tareas específicas, enfrentan límites inherentes que desafían la idea de una inteligencia artificial capaz de pensar como los humanos.

La publicación de este estudio justo antes del WWDC de Apple ha generado debate en la comunidad tecnológica.

Mientras empresas como Google y Samsung han apostado por integrar la IA en el centro de sus dispositivos, Apple ha adoptado una postura más cautelosa.

El hallazgo de que los LRMs colapsan ante problemas complejos desafía la narrativa de que la IA está cerca de alcanzar capacidades de razonamiento humano.


Compartir en:
   

 

 

EE.UU. endurece requisitos para visa TN: varias profesiones mexicanas quedan fuera. 15:25

EE.UU. endurece requisitos para visa TN: varias profesiones mexicanas quedan fuera Los cambios afectan a médicos, programadores, técnicos en salud, analistas y más jreyesSáb, 05/07/2025 - 14:58

Record

¿Para qué sirve un ventilador de refrigeración?.

¿Sabías que uno de los componentes más importantes para que tu maquinaria pesada funcione correctamente es el ventilador del motor? En este artículo te vamos a contar qué es un ventilador de enfriamiento, qué tipos existen y por qué es tan clave para que tu equipo no se sobrecaliente y trabaje a su máximo rendimiento.

Lado.mx

¡Impactante! Ingresos de la minería en la nube de Bow Miner revelados: XRP gana $20,000 al día, ETH gana $35,000 al día ¡y BTC es aún más sorprendente!.

Despídete de la minería tradicional y da la bienvenida a la nueva era de la riqueza inteligente. Imagina estar recostado en una silla de playa, bebiendo una bebida helada, mientras tus activos criptográficos generan ingresos para ti las 24 horas del día.

Lado.mx

Clima Ecatepec

Pronóstico del clima en Ecatepec, Estado de México hoy 28 de junio de 2025. 28 de Junio, 2025 06:25

Descubre cómo estará el clima en Ecatepec este 28 de junio de 2025, con condiciones parcialmente nubladas y temperaturas agradables para disfrutar del día.

Debate.com.mx

¿Cómo estará el clima en Ecatepec?. 30 de Junio, 2025 02:50

Debido a su localización, que le dan una gran variedad de climas, México es uno de los países con mayor biodiversidad y es hogar de al menos 12% de las especies del mundo

Infobae

Clima en Ecatepec: conoce el pronóstico y prepárate antes de salir. 01 de Julio, 2025 02:50

La temperatura más baja registrada en el territorio mexicano fue la del 27 de diciembre de 1997, cuando el termómetro disminuyó hasta los -25 grados

Infobae

Sylvester Stallone

El día que Sylvester Stallone conquistó Filadelfia: secretos y curiosidades de la legendaria escena de “Rocky”. 25 de Junio, 2025 05:10

La grabación de la inolvidable escena de las escaleras del Museo de Arte de esa ciudad estuvo llena de improvisación, tecnología pionera y gestos genuinos que marcaron para siempre la historia del séptimo arte

Infobae

Para un ex-Delta Force es una peli bélica prácticamente impecable, salvo por un único detalle. La dirigió Ridley Scott y la tienes en streaming . 26 de Junio, 2025 11:35

Os hablaba antes de cómo Denis Villeneuve es un director más todoterreno de lo que sus cuatro últimos trabajos nos han hecho creer. Pero, puestos a hablar de cineastas capaces de hacer magia en varios géneros y en historias muy distintas, creo que Ridley Scott es un buen nombre par

3d Juegos

Efemérides de julio 2025: Día del Ingeniero, Día de la secretaría y más. 26 de Junio, 2025 15:20

Paola Jiménez El 2025 sigue avanzando y estamos a poco de empezar un nuevo mes, en esta ocaisón julio, que es una antesala para las vacaciones de verano.Y además de las vacaciones, también se celebran importantes fechas. Aquí te dejamos las efemérides más destacadas de julio, ¿cuál no sabías que se conmemoraba?Te recomendamos: Día Inter

Excelsior

MLS

Caleb Porter returns to Portland as New England Revolution visit Timbers . 18:27

Caleb Porter won an MLS Cup title in 2015 as part of a five-season coaching stint with the Portland Timbers that ended in 2017.,He finally returns to

Deadspin

Un atacante del exterior provocó duelo entre Millonarios y Atlético Nacional: fuerte pelea por un fichaje. 20:10

Aunque el cuadro verde parecía que se quedaría con un jugador que se encuentra en la MLS, de la nada los azules aparecieron con una oferta que parece importante

Infobae

¡A darle vuelta a la página! Lionel Messi e Inter Miami se enfocan en la MLS. 08:47

¡A darle vuelta a la página! Lionel Messi e Inter Miami se enfocan en la MLS El conjunto de Las Garzas regresa a la actividad tras su paso en el Mundial de Clubes eariasSáb, 05/07/2025 - 08:35

Record

La información agregada y la responsabilidad de esta, pertenece a los sitios que lo publican. Lado.mx solo se encarga de publicarla.