Une étude révèle les limites de l’IA dans la compréhension de l’humour
Une nouvelle étude conjointe entre l’Université de Cardiff et l’Université Ca’ Foscari de Venise met en évidence une limite substantielle de l’intelligence artificielle : la difficulté à détecter les jeux de mots, les doubles sens et les nuances humoristiques non explicites.
Bien que les modèles linguistiques reconnaissent la structure superficielle de ces blagues, ils n’en comprennent pas vraiment le sens.
LIRE AUSSI : Google lance Nano Banana Pro
Les limites de l’IA dans la compréhension des jeux de mots
La recherche montre que les LLM peuvent repérer les phrases qui « ressemblent » à un jeu de mots, mais ne peuvent pas distinguer quand un double sens est présent et quand il ne l’est pas. Autrement dit, leur perception de l’humour est plus statistique que sémantique.
Ce que la recherche met en évidence
Les chercheurs expliquent que les modèles associent automatiquement certaines phrases à des jeux de mots déjà vus lors de la phase de formation.
Lorsque la phrase est légèrement modifiée, l’IA continue à « imaginer » qu’un double sens existe, même s’il n’existe plus.
Comment l’IA confond les phrases normales avec les jeux de mots
L’un des exemples testés est la phrase : « J’étais comédien, mais ma vie est devenue une blague. » Si « blague » est remplacé par « chaotique », supprimant le double sens, l’IA continue de l’interpréter comme un jeu de mots.
D’autres exemples qui montrent la fragilité des modèles
- « Les longs contes de fées ont tendance à devenir dragons. » Si « dragon » est remplacé par « prolonger », l’IA croit toujours qu’il y a un jeu de mots.
- « Les anciens LLM ne meurent jamais, ils perdent simplement leur attention. » Lorsque « attention » est remplacé par « ukulélé », le modèle continue de voir un double sens là où il n’y en a pas.
Dans tous ces cas, l’IA crée des explications arbitraires afin de justifier la présence d’un jeu de mots.
Parce que les limites de l’IA dans la compréhension des jeux de mots restent profondes
Selon le professeur José Camacho Collados, les modèles linguistiques mémorisent très bien les jeux de mots présents dans l’ensemble de données d’entraînement, mais cela ne signifie pas qu’ils en comprennent le mécanisme.
Une illusion de compréhension
Lorsqu’on lui présente un « nouveau » jeu de mots, différent de ceux déjà appris, la précision dans la distinction des phrases humoristiques des phrases courantes peut chuter jusqu’à 20 %.
La compréhension apparente de l’humour est donc un effet secondaire de la mémorisation, et non un signe de véritable compétence.
LIRE AUSSI : ChatGPT met en place des chats de groupe : jusqu’à 20 utilisateurs dans un même espace de conversation
Les implications des limitations de l’IA dans la compréhension des jeux de mots
Selon les chercheurs, ces résultats montrent pourquoi nous devons être prudents lorsque nous utilisons l’IA dans des domaines qui nécessitent de l’humour, de l’empathie ou une sensibilité culturelle.
Un jeu de mots nécessite de l’intuition, du contexte et la capacité de relier des significations lointaines, des compétences encore hors de portée des modèles.
Là où l’IA montre plus de difficulté
- interprétation de l’ironie
- reconnaissance du sarcasme
- compréhension du double sens
- blagues basées sur des ambiguïtés sémantiques
- références culturelles et sociales implicites
L’humour n’est pas seulement un langage : c’est un contexte, une culture et un sous-texte.
Où l’étude a été présentée
La recherche a été présentée lors de la conférence 2025 sur les méthodes empiriques dans le traitement du langage naturel, à Suzhou, en Chine, avec l’article portant le titre original Jeu de mots inattendu : les LLM et l’illusion de la compréhension de l’humour.
