Méthodologie & transparence
Veille IA est un blog de vulgarisation dont les articles sont rédigés par intelligence artificielle à partir de sources fiables, sélectionnées quotidiennement. Cette page explique précisément comment chaque article est produit — sans rien cacher.
La promesse
Suivre l'actualité de l'IA est devenu un travail à plein temps : dizaines de blogs, papiers ArXiv, annonces produit, threads Twitter. La plupart sont en anglais, techniques, et publiés sans hiérarchie. Veille IA vous propose chaque jour une synthèse en français, accessible aux non-spécialistes, qui couvre l'essentiel sans noyer dans le détail.
Le pipeline en 4 étapes
Un pipeline automatisé tourne deux fois par jour, à 8h et 16h heure de Paris. Voici ce qu'il fait, exactement :
Collecte des sources
Le système interroge une vingtaine de flux RSS et d'API (ArXiv, blogs officiels d'Anthropic, OpenAI, Google, Meta, MIT, TechCrunch, etc.). Seuls les articles publiés depuis la dernière exécution sont récupérés.
Regroupement par sujet
Quand 5 sources parlent de la même annonce, ce n'est qu'un seul sujet. Un premier modèle d'IA (Claude Haiku 4.5) regroupe les articles par thème et écarte les sujets déjà couverts les jours précédents pour éviter les doublons.
Rédaction de l'article
Pour chaque sujet retenu, un second modèle (Claude Sonnet 4.5) rédige un article en français, à partir des contenus originaux. Le prompt impose un format magazine, une vulgarisation systématique des termes techniques, et une longueur de 450 à 700 mots — lecture en 3 minutes.
Publication
L'article est sauvegardé en base, illustré avec une photo Unsplash en lien avec le sujet, et publié immédiatement. Aucune intervention humaine entre la collecte et la publication.
Ce qu'on fait
- ✓ Synthétiser plusieurs sources en un article cohérent
- ✓ Traduire et vulgariser pour un public non-spécialiste
- ✓ Citer chaque source originale en bas de l'article
- ✓ Éviter les doublons sur 72h glissantes
- ✓ Suivre des sources reconnues, pas des fermes à clics
Ce qu'on ne fait pas
- ✗ Inventer des chiffres, des citations ou des faits
- ✗ Donner d'opinion personnelle ou éditoriale
- ✗ Republier le contenu original tel quel
- ✗ Référencer des sources peu fiables ou anonymes
- ✗ Promouvoir des produits ou services
Les sources
Chaque source est classée par tier de fiabilité :
- Tier 1sources primaires (papiers ArXiv, blogs officiels des labs IA)
- Tier 2médias tech reconnus (MIT Tech Review, The Verge, TechCrunch)
- Tier 3agrégateurs et newsletters (HuggingFace, GitHub Trending)
Les modèles d'IA utilisés
Deux modèles d'Anthropic sont utilisés à des étapes différentes :
- Claude Haiku 4.5 pour le regroupement par sujet (étape 2). Modèle rapide et économique, parfait pour des tâches de classification sur de grandes quantités de texte.
- Claude Sonnet 4.5pour la rédaction des articles (étape 3) et l'édition de la newsletter hebdomadaire. Modèle plus puissant pour produire un français fluide et vulgarisé.
Aucune information n'est ajoutée au prompt en dehors des contenus extraits des sources. Le modèle est explicitement instruit de ne pas inventer de faits.
Limites assumées
Erreurs factuelles possibles.Malgré les précautions, un modèle de langage peut occasionnellement mal interpréter une source ou produire une formulation ambiguë. En cas de doute, vérifiez sur la source originale — elle est toujours liée en bas de l'article.
Biais des sources.Les sources sélectionnées sont majoritairement anglo-saxonnes et orientées sur les grands acteurs de l'IA. La couverture peut donc refléter ces biais (sur-représentation d'OpenAI, Anthropic, Google).
Pas de hiérarchisation éditoriale humaine.Le choix des sujets repose sur la fréquence d'apparition dans les sources et un score d'importance attribué par l'IA. Une vraie ligne éditoriale humaine ferait sans doute des choix différents.
Cadence
Le pipeline tourne deux fois par jour à 8h et 16h heure de Paris. La newsletter hebdomadaire est envoyée chaque dimanche à 18h, avec une sélection éditoriale des articles les plus marquants de la semaine.
Open source
Le code source du projet est consultable sur GitHub . Vous pouvez y vérifier les prompts utilisés, la liste exacte des sources, et le code de chaque étape du pipeline.