Apify API + Claude Code : scraper n'importe quel site à la demande
Apify est l'outil que j'utilise tous les jours dès que du scraping entre en jeu : LinkedIn, Google Maps, Instagram, Amazon, ou n'importe quel site web via ses 4 500 acteurs cloud. Couplé à Claude Code via le serveur MCP officiel, tu lances des scrapes en langage naturel depuis ton IDE, sans quitter ton contexte de code. Ce guide te montre comment configurer l'API Apify dans Claude Code en 3 minutes, comment appeler directement l'API REST depuis un script généré par Claude, et les 5 acteurs que j'utilise le plus en production. L'objectif : remplacer tes scripts Playwright fragiles par une couche de scraping managĂ©e qui tient la route à l'échelle.
L'outil
Apify : 4 500+ acteurs de scraping cloud
5$ de crédits gratuits par mois. API stable, MCP officiel, proxy résidentiel managĂ© inclus.
Essayer Apify gratuitement →Pourquoi brancher Apify sur Claude Code plutôt qu'écrire du Playwright ?
Si tu as déjà scrapé du LinkedIn ou du Google Maps à la main, tu sais que le problème n'est jamais d'extraire une page. Le problème, c'est tout ce qui l'entoure : rotation des proxies, gestion des sessions, captchas, changements de DOM tous les 15 jours, bannissements d'IP. En théorie, Playwright + un proxy résidentiel fait le boulot. En pratique, tu passes plus de temps à maintenir ton infra qu'à exploiter la donnée.
Apify inverse l'équation. La plateforme héberge plus de 4 500 acteurs, des scrapers préconstruits et maintenus par une équipe ou par la communauté. Tu ne maintiens rien. Tu paies au résultat. Et comme c'est du cloud, tu scales de 10 à 10 000 profils scrapés sans toucher à ton infra. Pour la prospection LinkedIn automatisée, la veille concurrentielle Amazon ou la collecte de leads Google Maps, c'est imbattable.
Brancher Apify sur Claude Code, c'est monter encore d'un cran. Tu tapes "scrape les 500 premiers profils LinkedIn CTO Paris et mets le résultat dans un CSV", et Claude appelle l'API Apify pour toi, récupère le dataset, et écrit le CSV. Tu ne quittes jamais ton IDE, tu ne copies-colles jamais un token, tu ne lis jamais de doc d'API.
Installation du MCP Apify dans Claude Code en 3 minutes
Le serveur MCP officiel d'Apify est la façon la plus rapide de connecter Claude Code. Voici les étapes exactes.
Étape 1 : récupérer ton token Apify
Crée un compte sur Apify (le plan gratuit offre 5$ de crédits par mois, aucune carte requise). Dans ton dashboard, va dans Settings → Integrations → API token et copie ton token personnel.
Étape 2 : ajouter le MCP dans Claude Code
Dans ton terminal, à la racine de n'importe quel projet, lance :
claude mcp add apify -- npx -y @apify/actors-mcp-server \
--actors="apify/rag-web-browser,apify/website-content-crawler,apify/google-search-scraper"
Puis ajoute ton token dans la variable d'environnement
APIFY_TOKEN, soit dans ton .env, soit dans
la config du MCP. Relance Claude Code avec /mcp pour
vérifier que le serveur est connecté.
Étape 3 : lancer ton premier scrape en langage naturel
Dans Claude Code, tape par exemple : "Utilise l'acteur apify/google-search-scraper pour récupérer les 20 premiers résultats Google sur la requête 'meilleur CRM PME France 2026' et donne-moi les titres + URLs en markdown." Claude déclenche l'acteur, attend le résultat, formate la réponse. Tu viens de remplacer 200 lignes de code Selenium par une phrase.
Appeler l'API Apify directement depuis un script Claude Code
Le MCP est parfait pour l'exploration. Mais dès que tu veux industrialiser (cron, pipeline, scheduled job), tu préfères un script autonome. L'API Apify est minimaliste, 3 endpoints suffisent dans 95% des cas.
L'endpoint magique : run-sync-get-dataset-items
C'est l'endpoint que j'utilise 90% du temps. Il lance un acteur, attend la fin du run, et te retourne directement le dataset en JSON. Pas besoin de gérer les webhooks ni de poller le statut.
POST https://api.apify.com/v2/acts/apify~google-search-scraper/run-sync-get-dataset-items
Authorization: Bearer <TON_TOKEN>
Content-Type: application/json
{
"queries": "meilleur CRM PME France",
"maxPagesPerQuery": 2,
"resultsPerPage": 20,
"languageCode": "fr",
"countryCode": "FR"
}
Résultat : un tableau JSON avec titre, URL, description,
position pour chaque résultat. Tu peux le piper directement
dans jq, dans un fichier CSV, ou dans une base Supabase.
Le pattern que j'utilise dans Claude Code
Quand je construis un nouveau pipeline, je demande à Claude : "Écris-moi un script Node qui appelle l'acteur Apify X avec ces inputs, écrit le résultat dans /data/scrape.json, et loggue le coût en crédits." En 30 secondes, j'ai un script propre, typé, avec gestion d'erreur. Je le balance dans un cron ou dans n8n, et c'est en production.
Les 5 acteurs Apify que j'utilise le plus en production
- apify/google-search-scraper : récupérer les SERPs Google en JSON propre. Idéal pour du SEO, de la veille de marque, du topic research.
- apify/website-content-crawler : crawler un site entier, récupérer le contenu en markdown ou HTML. Concurrent direct de Firecrawl, plus agressif sur les sites protégés.
- apify/linkedin-profile-scraper (+ variantes) : profils LinkedIn enrichis, listes de recherche Sales Navigator, posts LinkedIn. Voir mon guide dédié LinkedIn.
- compass/google-maps-extractor : extraction de POIs Google Maps (nom, adresse, tél, site, avis). Le couteau suisse de la prospection locale, voir le guide Google Maps.
- apify/instagram-profile-scraper : stats, bio, followers publics, posts récents. Utile pour la veille influenceur et le sourcing de prospects B2C.
Combien ça coûte vraiment à l'usage ?
Le pricing Apify est à l'acteur, pas au compte. Voici les ordres de grandeur que j'observe en production :
- Google Search Scraper : environ 0,50$ pour 1 000 résultats SERP.
- Google Maps : environ 0,50$ pour 1 000 POIs complets avec avis.
- LinkedIn profile : environ 5$ pour 1 000 profils enrichis.
- Instagram profile : environ 2,30$ pour 1 000 profils.
Concrètement, avec le plan Starter à 49$/mois, tu scrapes environ 10 000 profils LinkedIn ou 100 000 résultats SERP. Si tu as un lead magnet derrière qui convertit à 2%, le ROI est évident. Commence par le plan gratuit pour tester, passe en Starter dès que tu industrialises.
Pipeline type : Apify + Claude Code + n8n
Mon architecture préférée quand je construis un système de prospection :
- Claude Code pour prototyper : je teste un acteur Apify en langage naturel, j'ajuste les inputs, je valide le format de sortie.
-
Script Node/Python généré par
Claude : un fichier
scrape.tsqui appelle l'API Apify avec les bons paramètres, nettoie le JSON, et pousse dans Supabase. - n8n pour l'orchestration : trigger cron hebdomadaire, appel du script via HTTP Request ou nœud Apify natif, enrichissement via GPT, envoi dans le CRM.
Cette combinaison me permet de tenir un pipeline de 50 000 leads qualifiés par mois sans maintenance, pour moins de 200$ de coût d'infra. C'est exactement ce type de système que j'enseigne dans LE LABO IA.
Passe à l'action avec LE LABO IA
Apprends à construire tes propres systèmes IA : apps, automatisations, pipelines de scraping rentables. +110 entrepreneurs accompagnés.
Découvrir le programme →Questions fréquentes
Non. Avec le serveur MCP d'Apify, tu lances n'importe quel acteur en langage naturel depuis Claude Code. Si tu veux plus de contrôle, l'API REST est minimaliste : un POST avec ton token et l'ID de l'acteur suffit.
Le Model Context Protocol d'Apify est un serveur officiel qui expose tous les acteurs Apify comme des outils Claude Code. Une fois configuré avec ton token, Claude peut lister, lancer et récupérer les résultats sans appel API manuel.
L'API est gratuite. Ce qui est facturé, c'est le temps de calcul et le tarif par résultat de chaque acteur. Plan gratuit : 5$ de crédits par mois. Plan Starter : 49$/mois pour 49$ de crédits.
Oui, n8n a un nœud Apify natif. Trigger cron, acteur Apify, transformation, envoi dans Google Sheets ou ton CRM : la combinaison idéale pour des pipelines de scraping récurrents.