LE LABO IA
Claude Code 10 min de lecture Intermédiaire

Apify API + Claude Code : scraper n'importe quel site à la demande

Apify est l'outil que j'utilise tous les jours dès que du scraping entre en jeu : LinkedIn, Google Maps, Instagram, Amazon, ou n'importe quel site web via ses 4 500 acteurs cloud. Couplé à Claude Code via le serveur MCP officiel, tu lances des scrapes en langage naturel depuis ton IDE, sans quitter ton contexte de code. Ce guide te montre comment configurer l'API Apify dans Claude Code en 3 minutes, comment appeler directement l'API REST depuis un script généré par Claude, et les 5 acteurs que j'utilise le plus en production. L'objectif : remplacer tes scripts Playwright fragiles par une couche de scraping managĂ©e qui tient la route à l'échelle.

L'outil

Apify : 4 500+ acteurs de scraping cloud

5$ de crédits gratuits par mois. API stable, MCP officiel, proxy résidentiel managĂ© inclus.

Essayer Apify gratuitement →

Pourquoi brancher Apify sur Claude Code plutôt qu'écrire du Playwright ?

Si tu as déjà scrapé du LinkedIn ou du Google Maps à la main, tu sais que le problème n'est jamais d'extraire une page. Le problème, c'est tout ce qui l'entoure : rotation des proxies, gestion des sessions, captchas, changements de DOM tous les 15 jours, bannissements d'IP. En théorie, Playwright + un proxy résidentiel fait le boulot. En pratique, tu passes plus de temps à maintenir ton infra qu'à exploiter la donnée.

Apify inverse l'équation. La plateforme héberge plus de 4 500 acteurs, des scrapers préconstruits et maintenus par une équipe ou par la communauté. Tu ne maintiens rien. Tu paies au résultat. Et comme c'est du cloud, tu scales de 10 à 10 000 profils scrapés sans toucher à ton infra. Pour la prospection LinkedIn automatisée, la veille concurrentielle Amazon ou la collecte de leads Google Maps, c'est imbattable.

Brancher Apify sur Claude Code, c'est monter encore d'un cran. Tu tapes "scrape les 500 premiers profils LinkedIn CTO Paris et mets le résultat dans un CSV", et Claude appelle l'API Apify pour toi, récupère le dataset, et écrit le CSV. Tu ne quittes jamais ton IDE, tu ne copies-colles jamais un token, tu ne lis jamais de doc d'API.

Installation du MCP Apify dans Claude Code en 3 minutes

Le serveur MCP officiel d'Apify est la façon la plus rapide de connecter Claude Code. Voici les étapes exactes.

Étape 1 : récupérer ton token Apify

Crée un compte sur Apify (le plan gratuit offre 5$ de crédits par mois, aucune carte requise). Dans ton dashboard, va dans Settings → Integrations → API token et copie ton token personnel.

Étape 2 : ajouter le MCP dans Claude Code

Dans ton terminal, à la racine de n'importe quel projet, lance :

claude mcp add apify -- npx -y @apify/actors-mcp-server \
  --actors="apify/rag-web-browser,apify/website-content-crawler,apify/google-search-scraper"

Puis ajoute ton token dans la variable d'environnement APIFY_TOKEN, soit dans ton .env, soit dans la config du MCP. Relance Claude Code avec /mcp pour vérifier que le serveur est connecté.

Étape 3 : lancer ton premier scrape en langage naturel

Dans Claude Code, tape par exemple : "Utilise l'acteur apify/google-search-scraper pour récupérer les 20 premiers résultats Google sur la requête 'meilleur CRM PME France 2026' et donne-moi les titres + URLs en markdown." Claude déclenche l'acteur, attend le résultat, formate la réponse. Tu viens de remplacer 200 lignes de code Selenium par une phrase.

Appeler l'API Apify directement depuis un script Claude Code

Le MCP est parfait pour l'exploration. Mais dès que tu veux industrialiser (cron, pipeline, scheduled job), tu préfères un script autonome. L'API Apify est minimaliste, 3 endpoints suffisent dans 95% des cas.

L'endpoint magique : run-sync-get-dataset-items

C'est l'endpoint que j'utilise 90% du temps. Il lance un acteur, attend la fin du run, et te retourne directement le dataset en JSON. Pas besoin de gérer les webhooks ni de poller le statut.

POST https://api.apify.com/v2/acts/apify~google-search-scraper/run-sync-get-dataset-items
Authorization: Bearer <TON_TOKEN>
Content-Type: application/json

{
  "queries": "meilleur CRM PME France",
  "maxPagesPerQuery": 2,
  "resultsPerPage": 20,
  "languageCode": "fr",
  "countryCode": "FR"
}

Résultat : un tableau JSON avec titre, URL, description, position pour chaque résultat. Tu peux le piper directement dans jq, dans un fichier CSV, ou dans une base Supabase.

Le pattern que j'utilise dans Claude Code

Quand je construis un nouveau pipeline, je demande à Claude : "Écris-moi un script Node qui appelle l'acteur Apify X avec ces inputs, écrit le résultat dans /data/scrape.json, et loggue le coût en crédits." En 30 secondes, j'ai un script propre, typé, avec gestion d'erreur. Je le balance dans un cron ou dans n8n, et c'est en production.

Les 5 acteurs Apify que j'utilise le plus en production

Combien ça coûte vraiment à l'usage ?

Le pricing Apify est à l'acteur, pas au compte. Voici les ordres de grandeur que j'observe en production :

Concrètement, avec le plan Starter à 49$/mois, tu scrapes environ 10 000 profils LinkedIn ou 100 000 résultats SERP. Si tu as un lead magnet derrière qui convertit à 2%, le ROI est évident. Commence par le plan gratuit pour tester, passe en Starter dès que tu industrialises.

Pipeline type : Apify + Claude Code + n8n

Mon architecture préférée quand je construis un système de prospection :

  1. Claude Code pour prototyper : je teste un acteur Apify en langage naturel, j'ajuste les inputs, je valide le format de sortie.
  2. Script Node/Python généré par Claude : un fichier scrape.ts qui appelle l'API Apify avec les bons paramètres, nettoie le JSON, et pousse dans Supabase.
  3. n8n pour l'orchestration : trigger cron hebdomadaire, appel du script via HTTP Request ou nœud Apify natif, enrichissement via GPT, envoi dans le CRM.

Cette combinaison me permet de tenir un pipeline de 50 000 leads qualifiés par mois sans maintenance, pour moins de 200$ de coût d'infra. C'est exactement ce type de système que j'enseigne dans LE LABO IA.

Passe à l'action avec LE LABO IA

Apprends à construire tes propres systèmes IA : apps, automatisations, pipelines de scraping rentables. +110 entrepreneurs accompagnés.

Découvrir le programme →

Questions fréquentes

Faut-il coder pour utiliser l'API Apify ?

Non. Avec le serveur MCP d'Apify, tu lances n'importe quel acteur en langage naturel depuis Claude Code. Si tu veux plus de contrôle, l'API REST est minimaliste : un POST avec ton token et l'ID de l'acteur suffit.

Qu'est-ce que le MCP Apify ?

Le Model Context Protocol d'Apify est un serveur officiel qui expose tous les acteurs Apify comme des outils Claude Code. Une fois configuré avec ton token, Claude peut lister, lancer et récupérer les résultats sans appel API manuel.

Combien coûte l'API Apify ?

L'API est gratuite. Ce qui est facturé, c'est le temps de calcul et le tarif par résultat de chaque acteur. Plan gratuit : 5$ de crédits par mois. Plan Starter : 49$/mois pour 49$ de crédits.

Peut-on utiliser l'API Apify dans n8n ?

Oui, n8n a un nœud Apify natif. Trigger cron, acteur Apify, transformation, envoi dans Google Sheets ou ton CRM : la combinaison idéale pour des pipelines de scraping récurrents.

Meydeey - Architecte IA et Automatisation
Meydeey — Architecte IA & Automatisation

+110 entrepreneurs formés au Vibe Coding et à l'automatisation IA. +28 000 abonnés YouTube.