Salut, je cherche à scraper tous les sites web faits par Solocal et les enrichir par la suite avec le nom du dirigeant, le nom de l’industrie, le nom de l’entreprise, le site web et le profil LinkedIn personnel des décisionnaires pour ensuite prospecter.
Idéalement, j’aimerais le faire via des workflows gratuits.
à ma disposition j’ai instant data scraper + apollo.io + Linkedin Sales nav version d’essai.
Salut, je cherche à scraper tous les sites web faits par Solocal et les enrichir par la suite avec le nom du dirigeant, le nom de l’industrie, le nom de l’entreprise, le site web et le profil LinkedIn personnel des décisionnaires pour ensuite prospecter.
Idéalement, j’aimerais le faire via des workflows gratuits.
à ma disposition j’ai instant data scraper + apollo.io + Linkedin Sales nav version d’essai.
Comme la dit Flavien avec Pharow tu peux le faire en deux cliques (scraping + enrichissement) donc super cool et pratique mais tu n’as que 6700 résultats au total. (Mais déjà de quoi faire)
De mon coté je le fais avec un footprint qui est laissé sur chaque site Solocal dans le footer et j’ai pu en sortir + de 300K.
Il suffit de taper « réalisé par solocal » et après tu scrap avec Instant data ou alors de mon coté je fais un scraper sur Automa pour tout aspirer et enrichir par la suite les urls de site avec Contactfinder.io par exemple.
Maintenant tu sais que Solocal se mentionne lui meme ds les mention légales
Donc tu peux utiliser google pour scraper tous les sites, et rechercher les pages dont le texte contient « Ce site a été conçu et réalisé par Solocal »
Pour ca, tu dois utiliser la recherche google suivante:
"Ce site a été conçu et réalisé par Solocal" ← avec des guillemets.
Pour scraper tout ca, tu vas ensuite devoir découper ta requetes (parce que google ne retourne que 100 pages de résultats) en ajoutant des mots comme une ville, un metier…ou ce que tu veux.
Avec un outils comme Outscraper, ScrapingBee ou Piloterr, tu vas pouvoir récupérer tous les résultats.
Pour trouver ensuite les dirigeants => Go SocieteInfo, en uploadant la liste des sites web
@H-Ash : en complément de tout ce qui a été dit, tu peux aussi utiliser SerpAPI pour récupérer facilement tous les résultats de recherche sur Google, à partir d’une requête booléenne optimisée comme dit précédemment. L’outil est ultra puissant pour récupérer n’importe quel type de contenu sur Google (search, map, local, ads, etc)
SerpAPI est couteux, en alternative il y a Autom (même archi que Piloterr) pour scraper les SERP Google/Bing/Brave (dont les rich_snippet): https://www.autom.dev . J’ai déjà vu des dev faire le use-case sur Solocal ^^
merci Camille, je peux les scrapes si ca interesse du monde et les mettre sur rocket, je finis le back du clone de pharow, pour pas défocus dans 3 semaines vous l’avez via l’app de rocket
Salut Charles, est-t-il possible d’échanger à propos du scraping du site PagesPro ? Car ca fait un p’tit moment que j’essaie avec les moyens (assez faibles) que j’ai en ma possession mais je bloque.
En tout honnêteté page pro a pas trop de contenu :
de mémoire : 70 k lignes … 30 k sociétés avec des url et c’est pas hyper propre ( pas mal d’infos pas bonnes), j’ai tout jeté, ma data de mes Saas sont de meilleurs qualités.
Ah d’accord je vois, merci quand même, puis-je avoir le nom de tes Saas car je suis actuellement à la recherche d’un moyen de leadsourcer des prospect sans sites web (voir avec des sites web médiocres comme Solocal) pour leur proposer de la création de site web.