camara94/crawlSpider
Scrapy nous donne accès à deux classes principales de spiders, le spiders générique que nous avons beaucoup utilisé auparavant dans d'autres vidéos et cette CrawlSpider qui fonctionne de manière légèrement différente. Nous pouvons lui donner un ensemble de règles et lui faire suivre les liens automatiquement, en passant ceux que nous voulons faire correspondre à notre fonction d'analyseur avec un callback. Cela rend incroyablement facile la suppression complète des données du site Web. Dans ce tuto, je vais vous expliquer comment utiliser le CrawlSpider, ce que font le Ruler et le LinkExtrator et comment les utiliser, ainsi qu'une démonstration de leur fonctionnement.
No commits in the last 6 months.
Get this data via API
curl "https://pt-edge.onrender.com/api/v1/quality/perception/camara94/crawlSpider"
Open to everyone — 100 requests/day, no key needed. Get a free key for 1,000/day.
Higher-rated alternatives
scrapy/scrapy
Scrapy, a fast high-level web crawling & scraping framework for Python.
lexiforest/curl_cffi
Python binding for curl-impersonate fork via cffi. A http client that can impersonate browser...
soxoj/maigret
🕵️♂️ Collect a dossier on a person by username from 3000+ sites
Altimis/Scweet
A simple and unlimited twitter scraper : scrape tweets, likes, retweets, following, followers,...
omkarcloud/botasaurus
The All in One Framework to Build Undefeatable Scrapers