Aller au contenu
Lioncore
6 min de lecture

n8n + Claude API : automatiser une veille concurrentielle

Comment je construis un workflow n8n qui scrape, résume et synthétise une veille concurrentielle quotidienne avec l'API Claude.

n8nclaudeautomationia

L'objectif

Recevoir chaque matin un résumé synthétique des annonces concurrentes : sites, blogs et release notes parcourus pendant la nuit, avec les points qui méritent qu'on s'y attarde.

Architecture du workflow

Trois étages dans n8n :

  1. Collecte : nœuds HTTP Request planifiés via Cron, qui récupèrent les pages cibles (sitemap RSS quand disponible, sinon scrape ciblé)
  2. Synthèse : nœud HTTP qui appelle l'API Claude avec un prompt structuré
  3. Diffusion : Slack ou email selon le canal préféré

Le prompt qui marche

J'ai itéré pas mal. Trois choses qui font la différence :

  • Donner un rôle clair : "Tu es un analyste produit qui suit la concurrence X..."
  • Imposer un format de sortie strict (JSON ou Markdown sectionné). Sans ça, Claude varie sa structure.
  • Mettre une limite de longueur explicite ("3 bullets maximum par item")
Tu es un analyste produit qui suit la concurrence dans le domaine X.
Voici les contenus collectés ces dernières 24h : {{$json.content}}

Pour chaque annonce notable, donne :
- Titre court
- 1 phrase d'enjeu
- Niveau d'attention (faible / moyen / élevé)

Format strict : Markdown avec ## par item. Maximum 5 items.

Coût en pratique

Sur un mois d'exécution quotidienne :

  • Haiku : ~0.30 USD/mois pour ~50 000 tokens d'entrée par jour
  • Sonnet : ~1.50 USD/mois pour le même volume
  • Opus : ~7 USD/mois (à réserver pour des analyses qui en valent vraiment la peine)

Pour de la veille pure, Haiku suffit. Sonnet quand on veut une vraie synthèse argumentée.

Les variantes que j'ajoute

  • Embedding store (Supabase Vector) pour ne pas re-traiter du contenu déjà vu
  • Agent multi-tour quand un sujet mérite qu'on creuse
  • Push Linear ou Notion pour transformer une annonce concurrente en ticket à investiguer

Ce qu'il ne faut pas faire

Demander à Claude de scraper. C'est lent et peu fiable. n8n a des nœuds dédiés (HTTP Request, HTML Extract) qui font ça mieux et moins cher.


Partagerfr