L'éditeur d'Opera One expérimente l'exécution de LLM locaux en remplacement de l'IA Aria intégrée au navigateur.
Actualités llm
Les recettes d’Apple pour entraîner des LLM multimodaux
Apple donne un aperçu supplémentaire de ses travaux LLM multimodaux avec un article consacré à leur entraînement.
L’œil dans la boîte noire : des LLM poussés à révéler leur face cachée
Des chercheurs attirent l'attention sur une attaque qui a permis d'extraire des informations dans la dernière couche de LLM en boîte noire.
Transparence des LLM : ce qui coince chez OpenAI & Cie
Il y a quelques semaines, Stanford publiait son « index de transparence des modèles de fondation ». Retour sur les points faibles qui en ressortent.
L’approche d’Apple pour des LLM frugaux en mémoire
Des chercheurs d'Apple proposent un modèle d'inférence adapté aux environnements dont les ressources mémoire sont restreintes.
Les LLM en 2023 : quelques articles scientifiques
Silicon.fr a relayé, cette année, quelques études sur le sujet des LLM. En voici un pot-pourri.
Gestion d’incidents : le potentiel des LLM mis à l’épreuve
Les LLM, une option pour identifier les causes racines et suggérer des plans de remédiation ? C'est l'objet d'une étude.
LLM généraliste ou spécialisé ? La question sous l’angle environnemental
Une étude compare la performance environnementale entre modèles généralistes et modèles spécialisés. En voici les conclusions.
llamafile, un projet pour des LLM vraiment « portables »
Mozilla soutient le projet llamafile, qui propose un format de type exécutable portable pour distribuer les LLM.
Comment la communauté s’empare du modèle ouvert de Mistral AI
Voilà deux mois que Mistral AI a publié son premier LLM ouvert. Coup d'œil sur une vingtaine de variantes qui ont émergé sur Hugging Face.
Pour s’autocorriger, les LLM ont-ils besoin d’un compagnon ?
Des chercheurs proposent d'améliorer les capacités d'autocorrection des LLM par une méthode de backtracking fondée sur un modèle auxiliaire.
MemGPT : l’esquisse de LLM inspirés des systèmes d’exploitation
L'expérience MemGPT propose d'élargir la fenêtre de contexte des LLM en les dotant d'une gestion mémoire et d'un contrôle de flux inspiré des OS.
Copilot mais pas que : comment GitHub se nourrit des LLM
Au-delà des éléments proposés sous la bannière GitHub Copilot, les LLM portent, notamment, des fonctionnalités de sécurité.
A=B donc B=A ? Pour les LLM, ça ne coule pas de source
Si A=B, alors B=A ? Pour les LLM, assimiler cette relation n'est pas si évident, démontre une étude universitaire.