Aller au contenu
Retour

arXiv AI Publications - 2025 semaine 47

Publié:  at  11:00 AM
Langues disponibles:

Publications de la semaine #47 - 2025

Voici les 5 articles d’IA les plus pertinents d’ArXiv de la semaine 47/2025, avec analyse et insights complets.

Publications


GEM: Generative Entropy-Guided Preference Modeling for Few-shot Alignment of LLMs

Publié le
11/17/2025
ID arXiv
Auteurs
Yiyang Zhao, Huiyu Bai, Xuejiao Zhao

Points clés

La recherche présente GEM, une nouvelle approche de modélisation des préférences guidée par l'entropie générative qui permet un alignement efficace des grands modèles de langage (LLMs) avec les préférences humaines dans des scénarios spécifiques à faible ressource. En utilisant une architecture d'optimisation en boucle fermée et un filtrage cognitif, GEM permet aux LLMs d'internaliser des signaux cognitifs humains fins sans dépendre de données annotées étendues.

Impact potentiel

Cette approche pourrait réduire considérablement le besoin de grandes quantités d'étiquettes de préférence dans des domaines spécialisés comme la médecine et le droit, rendant les LLMs plus accessibles et efficaces dans les applications professionnelles. En permettant aux LLMs de s'auto-évaluer et de s'adapter en fonction de retours limités, GEM pourrait améliorer leur performance dans des tâches nécessitant une compréhension nuancée et un raisonnement, transformant ainsi la manière dont ces modèles sont utilisés dans des domaines critiques.

retour à la liste

Mathematical Analysis of Hallucination Dynamics in Large Language Models: Uncertainty Quantification, Advanced Decoding, and Principled Mitigation

Publié le
11/19/2025
ID arXiv
Auteurs
Moses Kiprono

Points clés

Cette recherche introduit un cadre mathématiquement rigoureux pour comprendre et atténuer les hallucinations dans les grands modèles de langage, en intégrant des techniques avancées de modélisation probabiliste et de théorie de l'information. En proposant des métriques d'incertitude et des stratégies d'atténuation innovantes, elle relie des avancées disparates dans le domaine pour améliorer la fiabilité des résultats des LLM.

Impact potentiel

Les résultats pourraient améliorer considérablement la sécurité et la fiabilité des applications de LLM dans divers domaines, y compris l'éducation, la santé et le service client, où l'exactitude factuelle est primordiale. En fournissant une approche systématique pour réduire les hallucinations, cette recherche pourrait ouvrir la voie à des systèmes d'IA plus robustes et conviviaux, favorisant une adoption accrue dans des applications critiques.

retour à la liste

Cognitive Foundations for Reasoning and Their Manifestation in LLMs

Publié le
11/20/2025
ID arXiv
Auteurs
Priyanka Kargupta, Shuyue Stella Li, Haocheng Wang, Jinu Lee, Shan Chen, Orevaoghene Ahia, Dean Light, Thomas L. Griffiths, Max Kleiman-Weiner, Jiawei Han, Asli Celikyilmaz, Yulia Tsvetkov

Points clés

Cette recherche introduit une taxonomie complète des éléments cognitifs qui sous-tendent le raisonnement, révélant des différences structurelles significatives entre les processus cognitifs humains et ceux des grands modèles de langage (LLMs). L'étude présente également un nouveau cadre d'évaluation cognitive détaillé et une analyse à grande échelle des traces de raisonnement, mettant en évidence le potentiel d'amélioration des performances des modèles grâce à un guidage de raisonnement structuré.

Impact potentiel

En alignant les LLMs plus étroitement avec les principes de la science cognitive, ce travail pourrait transformer la manière dont ces modèles sont développés et déployés, conduisant à des capacités de raisonnement plus humaines dans les systèmes d'IA. De plus, les résultats pourraient influencer les orientations de recherche futures, en soulignant l'importance des contrôles métacognitifs et en incitant à un changement de focus vers l'amélioration des fondements cognitifs du raisonnement en IA.

retour à la liste

On the Fundamental Limits of LLMs at Scale

Publié le
11/17/2025
ID arXiv
Auteurs
Muhammad Ahmed Mohsin, Muhammad Umer, Ahsan Bilal, Zeeshan Memon, Muhammad Ibtsaam Qadir, Sagnik Bhattacharya, Hassan Rizwan, Abhiram R. Gorle, Maahe Zehra Kazmi, Ayesha Mohsin, Muhammad Usman Rafique, Zihao He, Pulkit Mehta, Muhammad Ali Jamshed, John M. Cioffi

Points clés

Cette recherche introduit un cadre théorique rigoureux qui identifie et formalise les limitations fondamentales de l'échelle des grands modèles de langage (LLMs), abordant des problèmes tels que l'hallucination et la dégradation du raisonnement qui n'avaient été décrits auparavant que de manière empirique. En reliant ces limitations aux aspects fondamentaux de l'informatique et de la théorie de l'information, ce travail fournit une synthèse novatrice qui améliore notre compréhension des contraintes intrinsèques sur la performance des LLM.

Impact potentiel

Les résultats pourraient remodeler de manière significative le développement et l'application des LLM en orientant les chercheurs et les praticiens vers des stratégies de mise à l'échelle et des techniques d'atténuation plus efficaces, améliorant ainsi la fiabilité et la performance des modèles. De plus, cette base théorique pourrait informer les futures innovations en intelligence artificielle en mettant en évidence les limites de ce qui est réalisable avec les méthodologies actuelles et en inspirant de nouvelles approches pour surmonter ces limitations.

retour à la liste

EntroPIC: Towards Stable Long-Term Training of LLMs via Entropy Stabilization with Proportional-Integral Control

Publié le
11/19/2025
ID arXiv
Auteurs
Kai Yang, Xin Xu, Yangkun Chen, Weijie Liu, Jiafei Lyu, Zichuan Lin, Deheng Ye, Saiyong Yang

Points clés

Cette recherche présente EntroPIC, une méthode novatrice pour stabiliser l'entropie dans l'entraînement de grands modèles de langage, répondant au défi de maintenir une exploration efficace pendant un entraînement à long terme. En utilisant le contrôle proportionnel-intégral pour ajuster dynamiquement les coefficients de perte, la méthode garantit des contributions équilibrées des échantillons positifs et négatifs, ouvrant la voie à des processus d'entraînement plus robustes.

Impact potentiel

EntroPIC pourrait améliorer considérablement la performance et la fiabilité des grands modèles de langage lors de l'entraînement à long terme en empêchant une convergence sub-optimale, améliorant ainsi leur applicabilité dans des scénarios réels. Cette innovation pourrait conduire à des systèmes d'IA plus performants capables d'explorer de manière adaptative des environnements complexes, élargissant ainsi leurs cas d'utilisation dans divers domaines tels que l'IA conversationnelle, la génération de contenu et le raisonnement automatisé.

retour à la liste



Article précédent
arXiv AI Publications - 2025 semaine 48
Article suivant
arXiv AI Publications - 2025 semaine 46