Automatiser l'extraction de données Web.

Nous avons mis en place une infrastructure cloud scalable de crawlers permettant de déployer des crawlers / scrappers à l'échelle. Cette infrastructure nous sert entre autre pour opérer Apercite, mais également pour des besoins spécifiques de clients : captures d'écran, SEO, extraction de texte, extraction d'adresses, recherche d'entités ...

Nos robots supportent l'utilisation de Chrome (donc pouvant exécuter les Javascripts, et supportant très bien les applications React, Angular et cie), ou de simples requêtes HTTP (plus rapide, mais un peu plus restreint), selon vos besoins.

En sortie, vous pouvez récupérer un tableau de données (XLS, CSV), des captures d'écran, des fichiers PDF, ou tout autre format et contenu que vous souhaitez (moyennant développements spécifiques).

Nos prix varient en fonction du type de crawler et de leur nombre. En fonction de votre demande, des développements spécifiques et/ou des serveurs spécifiques supplémentaires peuvent être à prévoir.

Racontez-nous votre projet !

Vous avez un projet ? Laissez-nous votre numéro téléphone et nous vous rappelons pour en parler 15 minutes !

Merci pour votre interêt !

Nous vous contacterons dans les plus bref délais pour un échange téléphonique!
Hmm... Quelque chose ne va pas. Avez-vous rempli tous les champs ?

Nous utiliserons ces informations pour vous appeler et uniquement pour cela.

Vous pouvez aussi nous contacter par mail.

Cas d'utilisation : E-Commerce.

Vous souhaitez surveiller les prix de vos concurrents ? Les comparer à ceux de votre commerce ? Obtenir des alertes sur ces chiffres ?

Nous pouvons mettre en place des crawlers permanent qui vont de manière régulière récupérer les informations souhaitées, et déclencher des alertes (mail, sms, autre ...) pour les différences les plus significatives.

Vous souhaitez obtenir les informations de mise à jour de vos concurrents ? Ou même surveiller votre propre commerce afin de ne rien rater ?

Racontez-nous votre projet !

Vous avez un projet ? Laissez-nous votre numéro téléphone et nous vous rappelons pour en parler 15 minutes !

Merci pour votre interêt !

Nous vous contacterons dans les plus bref délais pour un échange téléphonique!
Hmm... Quelque chose ne va pas. Avez-vous rempli tous les champs ?

Nous utiliserons ces informations pour vous appeler et uniquement pour cela.

Vous pouvez aussi nous contacter par mail.

Cas d'utilisation : Maillage SEO.

Avez-vous une vue macro de votre maillage actuel ?

La seule technique sure pour le connaître précisément est de simuler un robot de moteur de recherche et de récupérer l'information de l'extérieur, tel que le ferait Googlebot (ou Bingbot, etc.).

Nos crawlers contiennent des blocs utilisable spécifiquement pour cet usage. Et comme science sans conscience n'est que peine perdue, nous pouvons également vous mettre en relation avec des experts du métier SEO pour vous accompagner dans votre démarche.

Avoir une approche data de ce métier est particulièrement nécessaire lorsque votre site contient un grand nombre de pages, statiques ou dynamiques (>100000).

Racontez-nous votre projet !

Vous avez un projet ? Laissez-nous votre numéro téléphone et nous vous rappelons pour en parler 15 minutes !

Merci pour votre interêt !

Nous vous contacterons dans les plus bref délais pour un échange téléphonique!
Hmm... Quelque chose ne va pas. Avez-vous rempli tous les champs ?

Nous utiliserons ces informations pour vous appeler et uniquement pour cela.

Vous pouvez aussi nous contacter par mail.

Tarification.

Nos tarifs sont calculés au plus juste en fonction du nombre de threads qui vous sont dédiés. Un thread est un élément de la ferme permettant de traiter une requête en simultané (que ce soit la partie vérifications, réseau (dns, tcp, http, ...), normalisation, post-processing, etc.). Plus vous avez de threads, plus vous pouvez en théorie crawler rapidement mais attention : un thread inactif (lancé, mais inoccupé) est facturé.

La capacité réelle de crawl dépends non seulement de la capacité de la ferme à envoyer des requêtes, mais également de la capacité des serveurs distants à traiter et répondra à ces requêtes.

Tarifs mensuels 2019 (engagement minimal de 80 threads sur un mois, facturation à la journée au delà).


(*) KPPJ : Capacité en millier de pages par jour, en fonction d'un timeout (TO) configuré.

À ces prix peuvent s'ajouter :

- Développements spécifiques.
- Serveurs de base de donnée (dans le cas d'un livrable sous forme de DB SQL).
- Charges de stockage cloud (dans le cas d'un livrable sous forme de bucket S3 ou équivalent).
- Utilisation de mandataires résidentiels ou en data-centres.
- Autre demande spécifique.

En fonction du volume commandé, nous pouvons vous proposer une réduction contre un engagement de volume. N'hésitez pas à nous parler de votre besoin !

Contactez-nous pour en discuter !

Racontez-nous votre projet !

Vous avez un projet ? Laissez-nous votre numéro téléphone et nous vous rappelons pour en parler 15 minutes !

Merci pour votre interêt !

Nous vous contacterons dans les plus bref délais pour un échange téléphonique!
Hmm... Quelque chose ne va pas. Avez-vous rempli tous les champs ?

Nous utiliserons ces informations pour vous appeler et uniquement pour cela.

Vous pouvez aussi nous contacter par mail.

Contact us

Need a quote.