Le pipeline : six agents en séquence

Chaque offre d’emploi qui entre dans Kitsuno passe par six étapes. Chaque étape dispose d’un agent distinct, d’un modèle IA distinct et d’un objectif distinct.

Étape 1 — Scanner. Explore les sources d’emploi selon un calendrier. La fréquence dépend du plan : une fois par jour pour Kit (gratuit), jusqu’à quatre fois par jour pour Pro. Les sources comprennent des plateformes mondiales, des agences nationales pour l’emploi, des portails de niche et des plateformes ATS via la recherche X-Ray. Le Scanner récupère les offres brutes et les stocke pour traitement.

Étape 2 — Extractor. Lit chaque offre brute et en extrait des données structurées : titre du poste, entreprise, lieu, type de contrat, signaux de séniorité, exigences linguistiques, salaire (si disponible) et une classification géographique (mondiale, restreinte au pays ou restreinte à la ville). Ces données structurées alimentent tout ce qui suit.

Étape 3 — Filtre géographique. Avant d’engager des ressources pour l’évaluation complète, le système vérifie si le poste est géographiquement possible. Le lieu extrait est comparé aux régions d’autorisation de travail enregistrées. Un poste restreint à un pays sans autorisation de travail est supprimé avant l’évaluation. Ce filtre gère aussi l’ambiguïté du télétravail — « remote » seul ne signifie pas international, sauf mention explicite dans l’annonce.

Étape 4 — Scorer. L’étape centrale de l’évaluation. Un LLM reçoit la description complète du poste et les preuves de carrière structurées (compétences, expérience, formation, certifications — issues du Professional Record Store). Il évalue la compatibilité selon quatre critères et produit une évaluation structurée avec des correspondances et des écarts précis.

Étape 5 — Writer. Lors d’une demande de brouillon, l’agent Writer rassemble le contexte de la bibliothèque de carrière, les données d’évaluation et un éventuel Fit Report, puis génère un CV sur mesure, une lettre de motivation et un e-mail de candidature. Trois appels IA successifs produisent chaque section du document. Le résultat utilise les paramètres configurés pour le ton, la langue et les points forts.

Étape 6 — Validator. Chaque document généré par l’IA passe par 14 contrôles qualité automatisés avant d’être affiché. Les problèmes sont signalés visiblement. Les erreurs critiques offrent un nouveau brouillon gratuit. Les résultats de validation alimentent les brouillons futurs via une boucle d’autocorrection.

Les quatre critères d’évaluation

Chaque poste est évalué sur une échelle de 100 points selon quatre dimensions pondérées. Les pondérations sont configurables par profil de recherche — voici les valeurs par défaut.

Alignement au rôle (40 points). Dans quelle mesure les exigences du poste correspondent-elles aux compétences et à l’expérience démontrées ? Le Scorer analyse les responsabilités, l’expertise sectorielle et les exigences techniques par rapport aux preuves de la bibliothèque. Pas de correspondance par mots-clés — mais une compréhension sémantique de ce que le rôle exige et de ce que la carrière démontre.

Compatibilité géographique et télétravail (25 points). La géographie fonctionne-t-elle ? Le Scorer prend en compte les régions d’autorisation de travail, les lieux préférés, les modes de travail acceptés (télétravail, hybride, sur site) et les exigences géographiques spécifiques du poste. Un critère éliminatoire s’applique : si le poste est restreint à une région sans autorisation de travail, le score géographique tombe à quasi zéro, quelle que soit la qualité de l’adéquation au rôle.

Adéquation de séniorité (20 points). Le niveau d’expérience est-il adapté ? Le Scorer évalue la portée du leadership, les signaux d’années d’expérience et les attentes en matière de responsabilités managériales par rapport au parcours professionnel. Les niveaux de séniorité préférés sont configurables et les niveaux non pertinents peuvent être exclus.

Type d’organisation (15 points). Le type de structure correspond-il aux préférences ? Grande entreprise, startup, ONG, service public, monde académique — différents environnements conviennent à différentes personnes. Le Scorer évalue les signaux organisationnels de l’annonce par rapport aux préférences déclarées.

Le score total produit un verdict de compatibilité : forte compatibilité, compatibilité modérée, faible compatibilité ou incompatibilité. Chaque score montre sa décomposition — il est possible de voir exactement quel critère a contribué quoi, quelles compétences correspondaient et quels écarts l’IA a identifiés.

Le Validator : 14 contrôles, zéro tolérance pour la fabrication

Le Validator est un agent dédié dont la seule mission est de détecter les erreurs des autres agents. Il s’exécute sur chaque document avant la livraison.

Les erreurs critiques bloquent la livraison et offrent un nouveau brouillon gratuit. Celles-ci comprennent : contenu vide, artefacts de modèles non remplacés dans le texte, fuites d’autoréférence IA, incohérences linguistiques (allemand demandé, anglais reçu), fuite d’informations de contact dans les lettres de motivation, hallucination de chiffres (nombres ou pourcentages inexistants dans la bibliothèque de carrière) et violations de la première personne.

Les avertissements sont affichés comme des signalements lisibles, qui peuvent être examinés et ignorés. Ceux-ci comprennent : longueur inhabituelle du document, mots de remplissage surutilisés (leverager, synergies, exploiter — l’équivalent verbal d’un costume vide), incohérences de noms d’entreprise et de poste entre documents, et un contrôle par LLM pour détecter les affirmations inventées.

La boucle d’autocorrection. Les résultats de validation sont stockés après chaque brouillon. Lors d’une demande de nouveau brouillon, les erreurs précédentes sont injectées dans le contexte du Writer comme instructions d’évitement obligatoires. L’IA sait ce qui a échoué la dernière fois et évite activement de répéter. Rédiger, valider, stocker les erreurs, rédiger à nouveau en conscience, revalider.

Le Validator est calibré, pas omniscient. Les petits modèles ont des plafonds structurels. Le principe de conception repose sur des signalements lisibles et ignorables — pas sur zéro faux positif. La transparence sur les limites est en soi un signal de qualité.

Architecture multi-modèles : le bon modèle pour chaque tâche

Kitsuno n’utilise pas un seul modèle pour tout. Différentes tâches ont différentes exigences — rapidité, précision, créativité, coût — et différents modèles y répondent au mieux.

L’évaluation et l’extraction utilisent des modèles optimisés pour la sortie JSON structurée. La tâche est de la classification : étant donné ce poste et cette carrière, produire une évaluation structurée. Des modèles plus petits et rapides gèrent cela de manière fiable car le format de sortie est contraint.

La rédaction utilise des modèles plus grands optimisés pour la génération de langage naturel. Les lettres de motivation et les résumés professionnels exigent de la nuance, une cohérence de ton et la capacité de synthétiser des preuves en récits convaincants. Les comptes payants bénéficient de modèles premium pour cette tâche car la différence de qualité est visible.

La validation utilise des modèles rapides et légers. La tâche est une classification binaire (réussite/échec) sur des contrôles spécifiques. La vitesse compte car la validation s’exécute après chaque brouillon.

Le chat Concierge utilise des modèles équilibrés pour la qualité conversationnelle et la profondeur de contexte. Les comptes payants obtiennent des fenêtres de contexte plus larges et des modèles plus performants, mais la personnalité et la voix restent identiques à tous les niveaux.

Routage EU-first. Les données personnelles des comptes payants sont acheminées exclusivement via des fournisseurs IA basés dans l’UE en fonctionnement normal. Ce n’est pas un argument marketing — c’est une contrainte architecturale imposée au niveau de la couche de routage. Les fournisseurs, modèles et chaînes de repli spécifiques sont documentés, testés et surveillés.

Cascade gratuite. Les comptes gratuits bénéficient de la même qualité d’évaluation via une cascade de fournisseurs gratuits. Si un fournisseur est indisponible, le système bascule vers le suivant. Les critères d’évaluation, les pondérations et les méthodes sont identiques — ce qui change, c’est le fournisseur, pas la méthodologie.

Le Brain : intelligence déterministe

Tout ne nécessite pas un LLM. Le Brain de Kitsuno est un moteur de diagnostic purement SQL et Python qui applique 21 règles aux données — zéro coût IA, zéro risque d’hallucination.

Le Brain vérifie notamment : la complétude de la bibliothèque (combien de compétences ont des preuves à l’appui), la santé du pipeline (ratios candidatures/réponses), l’efficacité des sources (quelles sources produisent de fortes correspondances), la qualité de configuration du profil (pondérations manquantes, listes de mots-clés vides) et les signaux de préparation (le profil est-il prêt pour une recherche d’emploi efficace).

Le Brain génère un document de connaissance pour chaque profil, qui alimente le contexte du chat Concierge. Quand Kitso dit quelque chose de précis sur une carrière, c’est souvent le Brain qui parle : des observations déterministes tirées de données réelles, pas de la spéculation LLM.

Ce qui est vérifiable

Chaque étape du pipeline produit un résultat inspectable.

Le Scorer affiche sa décomposition par quatre critères, les correspondances clés et les écarts pour chaque poste. Le Writer produit des documents à relire avant envoi. Le Validator affiche ses résultats de contrôle sous forme de notes de qualité — vertes, orange ou rouges — avec des descriptions spécifiques. Les diagnostics du Brain alimentent les observations de Kitso, qui nomment des postes, des scores et des compétences précis.

Le pipeline n’est pas une boîte noire avec un chiffre au bout. C’est une séquence d’étapes transparentes, chacune avec des entrées et sorties visibles, où la décision humaine détermine la suite.

Explorer le répertoire open source des sources d’emploi européennes sur GitHub →

Pour les principes derrière ces décisions techniques, lire Pourquoi Kitsuno existe. Pour les données de marché en direct issues de ce pipeline, visiter Market Pulse.