Un nuevo estudio de Apple revela que los modelos de inteligencia artificial especializados en razonamiento, conocidos como Large Reasoning Models (LRMs), colapsan completamente cuando enfrentan problemas de complejidad creciente, desafiando la idea de que estos sistemas “piensan” de manera efectiva.
La investigación, publicada apenas días antes del evento WWDC de Apple, analizó el comportamiento de modelos como OpenAI o1 y o3, DeepSeek R1, Claude 3.7 Sonnet Thinking y Google Gemini Flash Thinking. Los resultados representan un jarro de agua fría para los optimistas de la inteligencia artificial general (AGI) y una confirmación para los escépticos, ya que muestran evidencia contundente sobre las limitaciones de la inteligencia de estos modelos.
Según informaron los investigadores de Apple, mientras los LRMs tienen un buen desempeño en matemáticas y programación, cuando se enfrentan a problemas más complejos solo proporcionan “La Ilusión del Pensamiento”.
Este hallazgo podría explicar la cautela de Apple para incorporar masivamente la IA en sus dispositivos, a diferencia de competidores como Google y Samsung, que han priorizado estas capacidades en sus productos.
Para evaluar los modelos de razonamiento, los investigadores de Apple utilizaron puzzles o rompecabezas lógicos clásicos como la Torre de Hanoi. Este puzzle consiste en discos apilados de mayor a menor en una de tres clavijas, y el objetivo es mover todos los discos a la tercera clavija sin colocar nunca un disco más grande sobre uno más pequeño.
Otros puzzles incluían el salto de fichas de damas a espacios vacíos, el problema de cruzar un río (habitualmente planteado con un zorro, una gallina y un saco de grano), y la configuración específica de bloques apilados.
Estos rompecabezas son reconocibles de clases de matemáticas o juegos en línea, ya que representan una forma simple de evaluar la capacidad humana para razonar y resolver problemas. Una vez que se comprende la lógica, solo hay que seguirla incluso cuando aumenta la complejidad, lo que en este caso significa más discos, fichas, animales o bloques. Sin embargo, los investigadores descubrieron que los LRMs comienzan a fallar después de cierto punto.
“Los resultados muestran que todos los modelos de razonamiento exhiben un patrón similar respecto a la complejidad: la precisión disminuye progresivamente a medida que aumenta la complejidad del problema hasta alcanzar un colapso completo (precisión cero) más allá de un umbral de complejidad específico para cada modelo”, escribieron los investigadores. En los resultados mostrados, Claude 3.7 Sonnet + thinking y DeepSeek R1 comienzan a fallar cuando se añade un quinto disco al problema de la Torre de Hanoi. Incluso cuando se aplica más potencia de cálculo a los LRMs, siguen fallando en los puzzles más complejos.
El estudio identificó tres regímenes de complejidad en el comportamiento de los modelos evaluados. En tareas de baja complejidad, los modelos de lenguaje estándar (LLMs), sin mecanismos de razonamiento explícito, superaron en eficiencia y precisión a los LRMs. Cuando la dificultad aumentó a un nivel medio, los LRMs demostraron una ventaja clara, gracias a su capacidad para generar cadenas de pensamiento más extensas.
Sin embargo, al enfrentar problemas de alta complejidad, ambos tipos de modelos experimentaron un colapso total en su desempeño. Además, los investigadores descubrieron que los modelos de razonamiento inicialmente aplican más “tokens de pensamiento” a medida que aumenta la complejidad, pero sorprendentemente abandonan el esfuerzo en cierto punto.
“Al aproximarse a un umbral crítico —que corresponde estrechamente con su punto de colapso de precisión— los modelos, de manera contraintuitiva, comienzan a reducir su esfuerzo de razonamiento a pesar del aumento en la dificultad del problema”, señala el estudio. Es decir, cuando los problemas se vuelven más difíciles, utilizan menos tokens o “piensan” menos.
Pero, ¿qué sucede cuando se les proporciona a los LRMs las respuestas? La precisión tampoco mejora. Incluso cuando los investigadores incluyeron el algoritmo en las instrucciones, de modo que los modelos solo necesitaban seguir los pasos, continuaron fallando.
El acceso a las “huellas de razonamiento” permitió a los investigadores examinar cómo evolucionan las soluciones intermedias dentro del proceso de pensamiento de los LRMs. En problemas simples, los modelos suelen encontrar la solución correcta rápidamente, pero continúan explorando alternativas incorrectas, lo que se traduce en un uso ineficiente de recursos computacionales. Este comportamiento, conocido como “overthinking” (pensar demasiado), implica que los modelos generan respuestas redundantes incluso después de haber hallado la solución.
En tareas de complejidad media, la tendencia se invierte: los modelos exploran, primero, caminos incorrectos y solo después de un proceso extenso logran dar con la respuesta correcta. Cuando la complejidad supera el umbral crítico, los modelos dejan de encontrar soluciones correctas en cualquier punto de su razonamiento, lo que evidencia una incapacidad para autocorregirse y adaptarse a desafíos más exigentes.
Según detalla Apple en su estudio, en el caso de la Torre de Hanoi, los modelos podían ejecutar hasta 100 movimientos correctos en configuraciones de alta dificultad antes de cometer un error, mientras que en el problema de cruzar el río fallaban tras apenas cinco movimientos. Esta disparidad sugiere que la frecuencia con la que los modelos han sido expuestos a ciertos tipos de puzzles durante su entrenamiento puede influir en su desempeño, aunque no explica completamente las limitaciones observadas.
Aunque los resultados pueden parecer desalentadores para quienes esperan una IA capaz de razonar como los humanos, el estudio de Apple aclara que estos hallazgos no implican que los LRMs carezcan por completo de habilidades de razonamiento. Más bien, evidencian que, ante problemas de alta complejidad, su desempeño no supera —y en ocasiones iguala— las limitaciones humanas.
El experto en IA Gary Marcus, citado por el medio original, contextualizó los resultados: “Los humanos (ordinarios) también tienen un conjunto de límites (bien conocidos) que se asemejan a lo que el equipo de Apple descubrió. Muchos (no todos) los humanos fallan en versiones de la Torre de Hanoi con 8 discos”. Marcus añadió: “Lo que muestra el artículo de Apple, fundamentalmente, independientemente de cómo se defina la AGI, es que los LLMs no son sustitutos de buenos algoritmos convencionales bien especificados”.
El estudio reconoce varias limitaciones. Los rompecabezas utilizados representan solo una fracción de los desafíos de razonamiento que se presentan en el mundo real, y la mayoría de los experimentos se realizaron mediante acceso a APIs de modelos cerrados, lo que restringe el análisis de los estados internos de los sistemas. Además, la validación de las soluciones se basó en simuladores deterministas, lo que puede no ser aplicable a dominios menos estructurados.
Los propios autores del estudio de Apple subrayan que su trabajo tiene un alcance limitado. Los entornos de puzzles, aunque permiten un control preciso de la complejidad, no reflejan la diversidad de problemas reales ni las demandas de razonamiento basadas en conocimiento. Además, el uso de modelos cerrados y simuladores estructurados restringe la generalización de los hallazgos a otros contextos.
Quedan abiertas preguntas fundamentales sobre la capacidad de los LRMs para desarrollar razonamiento generalizable y sobre las mejoras necesarias para superar las barreras identificadas. El estudio concluye que, si bien los LRMs han avanzado en tareas específicas, enfrentan límites inherentes que desafían la idea de una inteligencia artificial capaz de pensar como los humanos.
La publicación de este estudio justo antes del WWDC de Apple ha generado debate en la comunidad tecnológica.
Mientras empresas como Google y Samsung han apostado por integrar la IA en el centro de sus dispositivos, Apple ha adoptado una postura más cautelosa.
El hallazgo de que los LRMs colapsan ante problemas complejos desafía la narrativa de que la IA está cerca de alcanzar capacidades de razonamiento humano.
Copa América 2015
EE.UU. endurece requisitos para visa TN: varias profesiones mexicanas quedan fuera Los cambios afectan a médicos, programadores, técnicos en salud, analistas y más jreyesSáb, 05/07/2025 - 14:58
Record
¿Sabías que uno de los componentes más importantes para que tu maquinaria pesada funcione correctamente es el ventilador del motor? En este artículo te vamos a contar qué es un ventilador de enfriamiento, qué tipos existen y por qué es tan clave para que tu equipo no se sobrecaliente y trabaje a su máximo rendimiento.
Lado.mx
Despídete de la minería tradicional y da la bienvenida a la nueva era de la riqueza inteligente. Imagina estar recostado en una silla de playa, bebiendo una bebida helada, mientras tus activos criptográficos generan ingresos para ti las 24 horas del día.
Lado.mx
Meganoticias Tuxpan
El Financiero Bloomberg TV
Copa América 2015
El Financiero Bloomberg TV
Descubre cómo estará el clima en Ecatepec este 28 de junio de 2025, con condiciones parcialmente nubladas y temperaturas agradables para disfrutar del día.
Debate.com.mx
Debido a su localización, que le dan una gran variedad de climas, México es uno de los países con mayor biodiversidad y es hogar de al menos 12% de las especies del mundo
Infobae
La temperatura más baja registrada en el territorio mexicano fue la del 27 de diciembre de 1997, cuando el termómetro disminuyó hasta los -25 grados
Infobae
La grabación de la inolvidable escena de las escaleras del Museo de Arte de esa ciudad estuvo llena de improvisación, tecnología pionera y gestos genuinos que marcaron para siempre la historia del séptimo arte
Infobae
Os hablaba antes de cómo Denis Villeneuve es un director más todoterreno de lo que sus cuatro últimos trabajos nos han hecho creer. Pero, puestos a hablar de cineastas capaces de hacer magia en varios géneros y en historias muy distintas, creo que Ridley Scott es un buen nombre par
3d Juegos
Paola Jiménez El 2025 sigue avanzando y estamos a poco de empezar un nuevo mes, en esta ocaisón julio, que es una antesala para las vacaciones de verano.Y además de las vacaciones, también se celebran importantes fechas. Aquí te dejamos las efemérides más destacadas de julio, ¿cuál no sabías que se conmemoraba?Te recomendamos: Día Inter
Excelsior
Caleb Porter won an MLS Cup title in 2015 as part of a five-season coaching stint with the Portland Timbers that ended in 2017.,He finally returns to
Deadspin
Aunque el cuadro verde parecía que se quedaría con un jugador que se encuentra en la MLS, de la nada los azules aparecieron con una oferta que parece importante
Infobae
¡A darle vuelta a la página! Lionel Messi e Inter Miami se enfocan en la MLS El conjunto de Las Garzas regresa a la actividad tras su paso en el Mundial de Clubes eariasSáb, 05/07/2025 - 08:35
Record
Últimas noticias
Así se arma Atlético Morelia: refuerzos y jugadores clave que extienden contrato
CFE no es monopolio y renació con la 4T, señala Sheinbaum
Sa’ Oaxaca Festival Internacional que impulsa la música de cuerdas
Coahuila: Egresa la generación del CBTis 97 más numerosa en casi medio siglo
Recomendación de Cine en Casa: ‘El Eco’
La polémica en Serbia por la construcción de un Hotel Trump en un lugar bombardeado por la OTAN en 1999
Lourdes Gurriel Jr. empata a Yuniesky Betancourt entre cubanos MLB
Reaprehenden a Pedro ‘N’ por privación ilegal de la libertad
Procesan a presunto abusador sexual en Cananea
Detienen a tres personas con armas y un vehículo robado, además se investiga un homicidio
¿Dónde cargar la gasolina más barata en la ZMG esta semana?
Detienen a 3 mexicanos con 840 kg de cocaína en Costa Rica
Integran el comité municipal de Salud
La agenda empresarial: Jorge Marcelino Alejo (12:30 h)
‘Tomatazo’ de Trump afectaría a SLP