Le nouvel article d’Apple sur l’IA révèle les limites de l’intelligence artificielle
Apple a publié une nouvelle étude intitulée L’illusion de la pensée Juste avant le WWDC 2025. Papier de pomme sulii Il se concentre sur une catégorie de modèles linguistiques définis Grands modèles de raisonnement (LMS)conçu pour imiter les processus de pensée articulés.
Parmi les modèles testés: Claude 3.7 Sonnet Thinking, Openai O1 et O3, Deepseek R1 Et Google Gemini Flash Thinking.
Pour tester leurs compétences, les chercheurs ont utilisé puzzles logiques classiques comme le Tour Hanoile problème du ferry (renard, poule et blé – en Italie, loup, chèvre et chou), puzzles avec sauts de pions Et Bâtiments avec des blocs.
Le principe est simple: augmenter progressivement la complexité tout en maintenant une structure logique inchangée, afin de vérifier la tenue du raisonnement.
Les résultats sont surprenants et, dans un certain sens, dérangeants: Tous les modèles s’effondrent complètement au-delà d’un seuil de difficulté critique.
Lisez également: 1 milliard et demi les gens utilisent la recherche de Google avec l’intelligence artificielle chaque mois
Lorsque le problème devient difficile, l’IA cesse de penser
Les chercheurs ont observé un comportement paradoxal: à mesure que les puzzles deviennent plus complexes, les modèles commencent pour consacrer moins d’effort au raisonnement.
Dans le jargon technique, l’utilisation de Penser les jetonsou des ressources allouées en interne au processus de réflexion du modèle.
Dans le Papier de pomme sulii Il se lit

Le point d’effondrement est clairement identifiable: par exemple, Claude 3.7 cesse de travailler déjà avec le cinquième album dans la tour Hanoitandis que d’autres modèles se détournent avec un minimum de difficultés de difficulté. Ce comportement semble en indiquer un faiblesse structurelle Dans les modèles basés sur la mise à l’échelle de calcul.
Les trois phases de performance des grands modèles de raisonnement
L’étude a identifié Trois régimes de performance distinct dans les LRM:
- Dans le tâches de faible complexitécomme des puzzles simples ou des opérations logiques élémentaires, je Les modèles standard (LLMS) dépassent souvent LMS.
- Dans les devoirs A complexité intermédiairele LMS parvient à démontrer un avantage tangible grâce à l’utilisation de traces intermédiaires plus articulées de la pensée intermédiaire.
- Dans le Tâches à haute complexitétous les modèles, avancés ou non, Ils s’effondrent complètement.
En augmentant également la puissance de calcul et l’allocation de jeton, les performances ne s’améliore pasindiquant que ce n’est pas un problème de ressources, mais de structure cognitive dans le modèle.
Le document d’Apple sur l’IA: une critique implicite à Agi
Le résultat de cette étude représente une sonnette d’alarme pour ceux qui, dans l’industrie technologique, affirment que leIntelligence générale artificielle (AGI) être près.
Le Papier de pomme sulii Cela semble suggérer que, au-delà des apparences, les modèles ne « pensent » pas vraiment, mais mais Ils imitent les modèles de raisonnement jusqu’à ce que la structure devienne trop complexe.
Le titre du papier, L’illusion de la penséen’est pas choisi au hasard: il représente une véritable accusation pour le paradigme actuel d’évaluation de l’IA, qui est souvent basé sur la précision finale de la réponseignorant comme Cette réponse a été obtenue.
Apple, en revanche, propose une approche plus critique et qualitative, en se concentrant sur trace du raisonnementpas seulement sur le résultat.
Lisez également: Workday lance des outils pour accélérer l’embauche, simplifier les processus financiers et améliorer le libre-service RH
La méthode Apple: puzzles contrôlés et analyse des pistes cognitives
Contrairement à de nombreux tests standardisés sur la référence mathématique ou en code, Apple a construit un ensemble d’environnements contrôlables, dans lesquels chaque puzzle maintient une logique cohérente et évolutive.
Cela permet d’isoler l’effet de complexité de composition et analyser Comment la pensée du modèle est structurée.
L’équipe a découvert que les modèles N’appliquez pas d’algorithmes explicites et ont tendance à Pensez de façon incohérente même entre des puzzles similaires.
Cela soulève une question cruciale: si un modèle ne peut pas généraliser une méthode de solution entre deux problèmes similaires, peut-il vraiment être appelé « intelligent »?
Lisez également: Meta investit 10 milliards dans les escaliers pour améliorer son AI
Papier pomme sulii: parce que l’entreprise va à l’encontre du courant
Dans le panorama de l’intelligence artificielle, Apple en a adopté un stratégie atypique. Alors que les entreprises aiment Google et Samsung Ils ont transformé leurs appareils en vrai Hub Ai-First, Apple a introduit des fonctionnalités plus contenues, et seulement récemment, avec Apple Intelligence.
À la lumière du Papier de pomme suliice choix semble stratégique: Apple a probablement reconnu Les limites actuelles des modèles linguistiquesdécidant d’investir dans un plus éthique, transparent et compréhensible.
Cela pourrait expliquer pourquoi, malgré la pression du marché, Apple Il n’a pas totalement embrassé la mode de l’IA générative intégrée dans les appareils.
Vers une intelligence artificielle plus humble (et plus utile)
Enfin, le message implicite de Papier de pomme sulii C’est un appel à l’honnêteté. Il ne suffit pas de dire qu’un modèle fonctionne car il répond correctement à un certain nombre de problèmes.
Vous devez comprendre Ce qui est derrière ces réponsescomment ils sont construits, comment généraliser et surtout ils sont Combien nous pouvons nous faire confiance.
Il est possible que la prochaine évolution de l’IA ne provienne pas de l’ajout de paramètres, de jetons ou de puissance de calcul, mais de l’un Réflexion philosophique et méthodologique sur la façon dont nous évaluons l’intelligence. Apple, avec cette étude, ouvre un nouveau chemin: Moins de battage médiatique, plus de vérités.