18 outils de growth hacking pour automatiser sa prospection digitale en 2021

Thomas Labonne
Thomas Labonne
September 7, 2021
18 outils de growth hacking pour automatiser sa prospection digitale en 2021

Table des matières

Les 18 meilleurs outils de growth hacking et web scraping pour automatiser votre prospection commerciale en 2021

Obtenir des leads qualifiés est un véritable enjeux pour les entreprises, mais le processus pour y arriver est souvent long est fastidieux. Heureusement nous sommes en 2021, et des centaines d'outils nocode ont fait leurs apparitions depuis plusieurs années pour venir soutenir les équipes commerciales dans ces taches. Le ciblage, la prise de contact, l'envoie de relances, la mise à jour de votre CRM, autant de tâches qui aujourd'hui pourraient être automatisées grâce par de nombreux outils. Bien plus qu'un simple gain de temps, c'est aussi un moyen d'améliorer votre prospection avec un ciblage plus précis, un retargeting obligatoire, moins d'erreurs et des délais de réponse réduits.  Ces outils vous permettent d'automatiser certaines étapes de votre processus commercial, et ainsi instaurer une véritable dynamique de prospection :  outils de webscrapping, de retargeting, de marketing automation, de prospection sur LinkedIn, CRM, etc.

Nous intéressons plus précisément dans cette article aux outils dédiés à l'automatisation de récolte de données : les outils de web scraping.  Découvrez quels sont les meilleurs outils pour automatiser la récolte de données sur vos prospects : adresse mail, numéro de téléphone, fonction, etc.

Qu'est-ce que le webscraping ?

Le webscraping est une pratique consistant à extraire des données depuis internet. Que ce soit depuis un site web, un moteur de recherche, les réseaux sociaux, etc. Aussi appelé harvesting, cette technique consiste donc à aller récupérer un certain nombre d'informations grâce à des logiciels, pour ensuite pouvoir les réutiliser.

Votre responsable vous demande de trouver l'adresse mail d'un prospect et votre premier reflexe sera d'aller sur le site internet de l'entreprise pour essayer de trouver la structure type des mails de l'entreprise : partie locale, @, nom de domaine. Et la plus part du temps, après avoir perdu plusieurs minutes, voir heures, vous vous retrouvez à recevoir un message d'erreur vous indiquant que l'adresse est introuvable.

C'est ici que les outils de webscraping interviennent pour vous faire gagner en temps et en productivité ! Automatiser ce processus vous permet de récolter des données massives, plus fiables et de manière structurées. Fini les Ctrl + C / Ctrl + V (Cmd pour les amoureux Mac), des bots se chargent de filtrer internet, en passant d'une page à une autre, en identifiant et récupérant les données que vous lui avez demandé. On parlera ici de "crawling", pour faire référence au processus d'exploration des pages web.

Les pratiques du web scraping

Web scraping et négative SEO

Le web scraping est une technique informatique utilisée pour répondre à de nombreux besoins. On pense dans un premier temps au fait d'aller récupérer du contenu d'un site concurrent pour booster rapidement son propre site. En effet, certaines entreprises l'utilise pour améliorer leur stratégie de contenu SEO et ainsi augmenter leur trafic naturel grâce à du contenu web pertinent : on parle alors de "négative SEO". Les entreprises détournent le trafic vers leur site prennent position sur vos résultats de recherche. Heureusement cet air du copier coller est révolu depuis longtemps, et les moteurs de recherche tel que Google sanctionnent ce genre de pratiques : pénalité en terme de référencement naturel pouvant allez jusqu'au blacklistage du site.

Web scraping et prospection commerciale

Vous l'aurez compris, le web scraping est aussi utilisé pour améliorer les stratégies commerciales des entreprises. Nous l'avons vu, c'est un moyen de récolter des données pour enrichir sa prospection, en récupérant les adresses mails, numéros de téléphones, fonctions, taille de l'entreprise, chiffre d'affaire, etc. De quoi enrichir et mettre à jour votre CRM.

Web scraping et veille concurrentielle

Le web scraping est aussi utilisé pour la veille concurrentielle. Récolter les données de plusieurs sites concurrents pour étudier votre positionnement sur le marcher, comparer vos stratégies web, marketing, stratégies de contenu, ou encore surveiller les variations de prix et évolutions des offres.

Top outils de web scrapping pour extraire des données sur vos prospects

Outils de webscrapper pour récupérer des informations prospect

Imaginons que vous cherchiez des prospects dans le secteur de la restauration. Un moyen de récupérer des informations serait de se rendre sur un site tel que Pages Jaunes pour contacter un à un des établissements. Le problème est que vous devrez explorer le site page par page, fiche par fiche, copier à la main des données, etc. Grâce au scraping, vous pourrez extraire un gros volume de données à partir d'annuaires de ce type.

Scraping petit volume

1 - Octoparse :  vous permet d'extraire des données de site web en 3 étapes : vous saisissez l'URL du site dont vous souhaitez saisir les données, vous cliquez sur les données ciblés pour cette extraction, vous exécutez l'extraction et récupérez les données.    

2 - ParseHub : même système d'extraction qu'Octoparse : URL, ciblage, téléchargement.

3 - SpiderPro  : outil très simple d'utilisation, vous pouvez récupérer les données qui vous intéressent en un simple clic sur le site. Les données sont organisées et téléchargeable en fichier JSON ou CSV. L'avantage est que le téléchargement de SpiderPro ne coute que 38$ !

4 - Datanyze : pour l'export simple d'email et numéraux de téléphones

5 - Simple Scraper : export de données multiples depuis sites web

6 - Sumo  : aide à générer plus de trafic, à collecter plus d'e-mails et à convertir plus de clients.

Scraping de masse

7 - Prospect .io : trouvez des email, lancez et automatisez des campagnes marketing.

8 - Drop contact : outil idéal pour l'enrichissement de vos bases de données

9 - DataMiner : pour exporter des données en mass depuis les moteurs de recherche

10 - Import .io : outil de scraping très complet mais plus complexe.

11 - Agenty : veille concurrentielle sur les prix, les produits, code-barres, les technologies webs concurrentielles, leads generation, etc. Destiné aux professionnels du webscraping

Scraping de données depuis les réseaux (LinkedIn, Instagram, etc.)

12 - Waalaxy : obtenez les adresses mails et numéros de téléphones de vos contact linkedin et programmez des scénarios de prospection automatisés.

13 - Phantombuster : déployez une stratégie de growth hacking en suivant l'activité de vos différents réseaux (Facebook, Twitter, LinkedIn, Instagram, Quora, Medium, etc.)

Extension et plugins de web scraping

Voici deux extensions Chrome qui pourront vous faciliter l'expert de données depuis Google.

14 - Webscraper .io : grâce à une interface simple de type "pointer-cliquer", la capacité d'extraire des milliers d'enregistrements d'un site web ne prend que quelques minutes de configuration du scraper.

15 - Scraper : extension d'exploration de données très simple (mais limitée) destinée à faciliter la recherche en ligne lorsque vous avez besoin d'obtenir rapidement des données.

Outil de filtrage pour le scraping

16 - Prospectwith : Avant d'exporter vos données, trouvez les entreprises en définissant des critères de recherche précis tel que la taille, le chiffre d'affaire, la localisation, le secteur, etc.

Outils pour trouver des adresses mails

17 - FindEmails .com : trouvez les emails de toute une entreprise et vérifier leur validité grâce à cet outil.  

18 - hunter .io : trouvez des adresses mails existantes simplement en renseignant le nom de domaine de l'entreprise.

Le scraping de page web est-il légal ?

Ce que prévoit la loi

Le sujet est extrêmement complexe, et notamment parce que le web n'a pas de frontière. En France, voici les pratiques contestées dans le scraping de données :

- Manque d'information des personnes démarchées

- Défaut de consentement des personnes démarchées par email, téléphone, etc.

- Non respect des droits d'opposition des personnes

Récupérer des données d'internautes, même publiquement accessibles sur internet, peut dans certains cas ne pas être conforme à la Loi informatique et liberté et au RGPD. Cette pratique concernes plusieurs disciplines et ne peut donc pas être appréhendée de la même manière selon différentes branches du droit.

D'une manière générale, si l'extraction des données est permise, les entreprises ayant recours à ces pratiques doivent rester vigilantes sur les conditions de réutilisation de ces données, prévues par la CNIL : origine des données, consentement, respect du droit d'opposition, conservation des données, obligations RGPD, etc.

Nos recommandations et bonnes pratiques chez Digidop

1 - Evitez les méthodes de collecte déloyales : l'utilisation de données qui ont été récoltées à l'insu des personnes est dans tous les cas une méthode de prospection très peu efficace. Recevoir un mail commercial sorti de nul part, sans qu'il y ait eu un premier contact ou intérêt de la part du destinataire n'est ni performant, ni légal.

2 - Privilégiez un contact direct pour obtenir un consentement réel et engageant de la part du prospect.

3 -  Utilisez des formulaires de collecte de données transparents :

4 - Déployer une approche de type "permission marketing" visant créer une véritable relation avec vos prospects. Le but n'est pas de chercher à lui vendre à tout prix votre produit, mais plus de s'intéresser aux siens.

5 - Privilégiez l'enrichissement et la mise à jour de votre base de données pro.

6 - Automatisez la suppression des contacts inactifs depuis plus de 3 ans.

7 - Intégrez à vos e-mails marketing un lien de désabonnement à vos campagnes :  expliquant pourquoi ils reçoivent ces données, expéditeur du mail, etc.