dc.description.abstract | Ce mémoire traite la contraignante problématique liée à l’application du Web scraping pour
une veille concurrentielle optimale. En effet, l’art d’extraire des données depuis un site web
a un nom : c’est le web scraping, aussi appelé harvesting. Cette technique permet de récupérer
des informations d’un site, grâce à un programme ou un logiciel et de les réutiliser ensuite. En
automatisant ce processus, nous évitons ainsi de devoir récolter les données manuellement,
nous gagnons du temps et nous accédons à un fichier unique et structuré. Le web scraping est
une technique informatique qui a de nombreux usages. D’autres applications du web scraping
sont particulièrement utiles dans le cadre de la prospection ou de la veille concurrentielle d’une
entreprise. Nous pouvons collectés les données d’un site concurrent pour surveiller ses
variations de prix ou bien l’évolution de ses offres. Des données, comme les prix pratiqués par la
concurrence, les différentes gammes de produits proposées ou encore celles qui sont le plus mises en avant
peuvent par exemple être des indicateurs précieux pour adapter son positionnement. Toutefois, lors du
processus de collecte, il est important de bien préparer les données pour les rendre propres. Cela va
permettre d’éviter les doublons, les données aberrantes et tout autre risque capable de biaiser les résultats
d’analyse et du traitement. Dans ce contexte, le contenu extrait peut subir différentes manipulations à partir
desquelles des informations clés peuvent en découler pour aider les décideurs à éclairer leur vision et mieux
adapter leurs stratégies. Cette pratique permet de récupérer les données externes pour les
confronter avec ses propres données et ainsi dégager des axes d’amélioration ou avoir une
meilleure compréhension de son environnement. | en_US |