亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > Python爬蟲框架之Scrapy中Spider的用法

Python爬蟲框架之Scrapy中Spider的用法

熱門標簽:預覽式外呼系統(tǒng) 銀川電話機器人電話 電銷機器人錄音要學習什么 如何地圖標注公司 企業(yè)彩鈴地圖標注 煙臺電話外呼營銷系統(tǒng) 外賣地址有什么地圖標注 長春極信防封電銷卡批發(fā) 上海正規(guī)的外呼系統(tǒng)最新報價

Scrapy中Spider的用法

Spider類定義了如何爬取某個(或某些)網(wǎng)站。包括了爬取的動作(例如:是否跟進鏈接)以及如何從網(wǎng)頁的內(nèi)容中提取結構化數(shù)據(jù)(爬取item)。換句話說,Spider就是您定義爬取的動作及分析某個網(wǎng)頁(或者是有些網(wǎng)頁)的地方。

對spider來說,爬取的循環(huán)類似下文:

1.以初始的URL初始化Request,并設置回調(diào)函數(shù)。當該request下載完畢并返回時,將生成response,并作為參數(shù)傳給該回調(diào)函數(shù)。spider中初始的request是通過調(diào)用start_requests()來獲取的。start_requests()讀取start_urls中的URL,并以parse為回調(diào)函數(shù)生成Request。

2.在回調(diào)函數(shù)內(nèi)分析返回的(網(wǎng)頁)內(nèi)容,返回ltem對象或者Request或者一個包括二者的可迭代容器。返回的Request對象之后會經(jīng)過Scrapy處理,下載相應的內(nèi)容,并調(diào)用設置的callback函數(shù)(函數(shù)可相同)。

3.在回調(diào)函數(shù)內(nèi),您可以使用選擇器(Selectors)(您也可以使用BeautifulSoup, Ixml或者您想用的任何解析器)來分析網(wǎng)頁內(nèi)容,并根據(jù)分析的數(shù)據(jù)生成item。

4.最后,由spider返回的item將被存到數(shù)據(jù)庫(由某些ltem Pipeline處理)或使用Feed exports存入到文件中。

雖然該循環(huán)對任何類型的spider都(多少)適用,但Scrapy仍然為了不同的需求提供了多種默認spider。之后將討論這些spider。

Spider

scrapy.spider.Spider是最簡單的spider。每個其他的spider必須繼承自該類(包括Scrapy自帶的其他spider以及您自己編寫的spider)。其僅僅請求給定的start_urls / start_requests,并根據(jù)返回的結果(resulting responses)調(diào)用spider的 parse方法。

name

定義spider名字的字符串(string)。spider的名字定義了Scrapy如何定位(并初始化) spider,所以其必須是唯一的。不過您可以生成多個相同的spider實例(instance),這沒有任何限制。name是spider最重要的屬性,而且是必須的。

如果該spider爬取單個網(wǎng)站(single domain),一個常見的做法是以該網(wǎng)站(domain)(加或不加后綴)來命名spider。例如,如果spider爬取 mywebsite.com,該spider通常會被命名為mywebsite。

allowed_domains

可選。包含了spider允許爬取的域名(domain)列表(list)。當OffsiteMiddleware啟用時,域名不在列表中的URL不會被跟進。

start_urls

URL列表。當沒有制定特定的URL時,spider將從該列表中開始進行爬取。因此,第一個被獲取到的頁面的URL將是該列表之一。后續(xù)的URL將會從獲取到的數(shù)據(jù)中提取。

start_requests()

該方法必須返回一個可迭代對象(iterable)。該對象包含了spider用于爬取的第一個Request。

當spider啟動爬取并且未制定URL時,該方法被調(diào)用。當指定了URL時,make_requests_from_url()將被調(diào)用來創(chuàng)建Request對象。該方法僅僅會被Scrapy調(diào)用一次,因此您可以將其實現(xiàn)為生成器。

該方法的默認實現(xiàn)是使用start_urls的url生成Request。

如果您想要修改最初爬取某個網(wǎng)站的Request對象,您可以重寫(override)該方法。例如,如果您需要在啟動時以POST登錄某個網(wǎng)站,你可以這么寫:

def start_requests(self) :
    return [scrapy.FormRequest("http : / /ww. example.com/login",
        formdata={ 'user' : 'john', ' pass ' : 'secret'},
        ca77back=se1f.1ogged_in)]
 
def logged_in(self,response) :
## here you would extract links to follow and return Requests for
## each of them,with another ca77back
pass

parse

當response沒有指定回調(diào)函數(shù)時,該方法是Scrapy處理下載的response的默認方法。

parse負責處理response并返回處理的數(shù)據(jù)以及(/或)跟進的URL。Spider對其他的Request的回調(diào)函數(shù)也有相同的要求。

該方法及其他的Request回調(diào)函數(shù)必須返回一個包含Request 及(或) ltem的可迭代的對象。

參數(shù): response-用于分析的response

啟動方式

start_urls

start_urls是一個列表

start_requests

使用start_requests()重寫start_ur1s,要使用Request()方法自己發(fā)送請求:

def start_requests(se7f):
    """重寫start_urls 規(guī)則"""
    yield scrapy.Request(ur1='http://quotes.toscrape.com/page/1/'cal1back=self.parse)

scrapy.Request

scrapy.Request是一個請求對象,創(chuàng)建時必須制定回調(diào)函數(shù)。

數(shù)據(jù)保存

可以使用-o將數(shù)據(jù)保存為常見的格式(根據(jù)后綴名保存)
支持的格式有下面幾種:

  • json
  • jsonlines
  • jl
  • csv
  • xml
  • marshal
  • pickle

使用方式:

scrapy crawl quotes2 -o a.json

案例: Spider樣例

##一*- coding: utf-8 -*-
 
import scrapy
 
clTass Quotes2spider(scrapy.spider):
    name = 'quotes2'
    a7lowed_domains = [ 'toscrape.com ' ]
    start_urls = [ ' http: //quotes.toscrape.com/ page/2/ ']
 
    def parse(self,response):
        quotes = response.css('.quote ' )
        for quote in quotes:
            text = quote.css( '.text: : text ' ).extract_first()
            auth = quote.css( '.author : :text ').extract_first()
            tages = quote.css('.tags a: :text' ).extract()
            yield dict(text=text , auth=auth, tages=tages)

到此這篇關于Python爬蟲框架之Scrapy中Spider的用法的文章就介紹到這了,更多相關Spider的用法內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 上手簡單,功能強大的Python爬蟲框架——feapder
  • python爬蟲框架feapder的使用簡介
  • Python爬蟲框架-scrapy的使用
  • 一文讀懂python Scrapy爬蟲框架
  • python Scrapy爬蟲框架的使用
  • 詳解Python的爬蟲框架 Scrapy
  • python3 Scrapy爬蟲框架ip代理配置的方法
  • Python使用Scrapy爬蟲框架全站爬取圖片并保存本地的實現(xiàn)代碼
  • Python爬蟲框架Scrapy實例代碼
  • Python之Scrapy爬蟲框架安裝及簡單使用詳解
  • 爬蟲框架 Feapder 和 Scrapy 的對比分析

標簽:西寧 湖北 潮州 盤錦 佳木斯 宜昌 上饒 珠海

巨人網(wǎng)絡通訊聲明:本文標題《Python爬蟲框架之Scrapy中Spider的用法》,本文關鍵詞  Python,爬蟲,框架,之,Scrapy,;如發(fā)現(xiàn)本文內(nèi)容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python爬蟲框架之Scrapy中Spider的用法》相關的同類信息!
  • 本頁收集關于Python爬蟲框架之Scrapy中Spider的用法的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    国产不卡高清在线观看视频| 国产视频一区二区在线观看 | 天堂网中文在线| 四虎影视库国产精品一区| 美女免费黄网站| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 日韩免费在线视频| 国产成人精品影视| 精品视频免费看| 精品国产一区二区三区久久久狼| 欧美日本免费| 精品久久久久久中文字幕2017| 久久精品大片| 天天做人人爱夜夜爽2020毛片| 欧美激情伊人| 精品毛片视频| 成人高清护士在线播放| 国产国语对白一级毛片| 久久精品店| 亚洲精品中文字幕久久久久久| 久草免费在线视频| 人人干人人草| 天天做日日爱| 久久精品免视看国产明星| 91麻豆tv| 999久久狠狠免费精品| 精品国产一级毛片| 麻豆污视频| 精品毛片视频| 91麻豆精品国产自产在线观看一区| 999久久狠狠免费精品| 成人免费观看视频| 国产精品免费精品自在线观看| 国产不卡在线看| 欧美α片无限看在线观看免费| 亚洲天堂在线播放| 台湾毛片| 韩国三级香港三级日本三级la| 免费毛片基地| 成人影院久久久久久影院| 日韩专区第一页| 国产视频久久久久| 青青青草视频在线观看| 欧美日本韩国| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 精品国产一区二区三区精东影业 | 精品视频在线看| 毛片电影网| 韩国毛片免费| 一级女性全黄生活片免费| 国产成人啪精品| 日韩专区一区| 亚洲 男人 天堂| 四虎影视久久| 韩国三级视频网站| 日本特黄特色aa大片免费| 日本特黄特色aaa大片免费| 在线观看成人网| a级毛片免费观看网站| 中文字幕97| 亚洲精品中文一区不卡| 91麻豆高清国产在线播放| 欧美电影免费看大全| 韩国毛片免费| 欧美国产日韩精品| 精品久久久久久免费影院| 国产一区国产二区国产三区| 黄视频网站免费观看| 久久成人亚洲| 91麻豆国产| 成人影视在线播放| 日日日夜夜操| 999精品影视在线观看| 精品视频在线看| 日本在线不卡视频| 国产a视频精品免费观看| 毛片成人永久免费视频| 欧美a级片免费看| 成人a大片高清在线观看| 日韩男人天堂| 一级毛片看真人在线视频| 四虎论坛| 国产一区二区精品久久91| 日韩综合| 国产视频一区二区在线观看 | 九九精品久久| 精品久久久久久中文字幕一区| 在线观看成人网| 久久精品成人一区二区三区| 国产极品白嫩美女在线观看看| 你懂的国产精品| 国产一区二区福利久久| 91麻豆国产级在线| 精品视频在线看| 国产一级强片在线观看| 成人免费观看的视频黄页| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 国产伦久视频免费观看视频| 你懂的日韩| 香蕉视频久久| 韩国妈妈的朋友在线播放 | 超级乱淫黄漫画免费| 亚洲 欧美 成人日韩| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 亚洲精品久久久中文字| 久久精品大片| 欧美激情中文字幕一区二区| 欧美激情一区二区三区中文字幕| 美国一区二区三区| a级毛片免费观看网站| 四虎影视库国产精品一区| 日韩中文字幕在线观看视频| 成人影视在线播放| 精品国产三级a∨在线观看| 99久久精品国产高清一区二区| 欧美电影免费看大全| 日韩免费在线| 久久99中文字幕久久| 精品视频一区二区三区免费| 精品视频在线观看一区二区三区| 欧美一级视频高清片| 日韩欧美一及在线播放| 欧美激情一区二区三区在线| 日韩在线观看视频网站| 成人免费一级毛片在线播放视频| 国产不卡在线观看| 日韩在线观看免费完整版视频| 国产亚洲免费观看| 青青青草影院| 色综合久久天天综合观看| 欧美激情影院| 高清一级做a爱过程不卡视频| 精品在线观看国产| 九九九网站| 国产视频一区在线| 高清一级毛片一本到免费观看| 日本在线www| 九九干| 精品视频免费看| 一级毛片视频播放| 精品国产一区二区三区久久久蜜臀| 久久久成人网| 91麻豆国产| 日本免费乱理伦片在线观看2018| 日本特黄特色aa大片免费| 精品国产香蕉伊思人在线又爽又黄| 999精品影视在线观看| 国产a毛片| 国产91精品一区| 色综合久久天天综合观看| 日韩在线观看网站| 一级毛片视频免费| 韩国毛片免费大片| 四虎影视久久| 国产亚洲精品成人a在线| 可以免费看污视频的网站| 高清一级淫片a级中文字幕| 久久久久久久免费视频| 一级女性全黄生活片免费| 一级女人毛片人一女人| 久久99中文字幕久久| 成人高清免费| 成人影视在线播放| 日韩中文字幕在线亚洲一区 | 日韩一级黄色| 国产麻豆精品hdvideoss| 色综合久久天天综合观看| 日韩av东京社区男人的天堂| 91麻豆国产级在线| 国产麻豆精品高清在线播放| 欧美1区| 国产福利免费视频| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 免费国产一级特黄aa大片在线| 欧美1区2区3区| 国产麻豆精品免费视频| 国产精品免费精品自在线观看| 日韩在线观看视频免费| 国产伦精品一区二区三区在线观看| 日韩在线观看免费| 欧美激情一区二区三区在线 | 成人高清免费| 免费国产一级特黄aa大片在线| 麻豆系列 在线视频| 亚洲精品久久玖玖玖玖| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 欧美激情一区二区三区视频| 亚洲第一页色| 91麻豆精品国产高清在线| 亚洲 激情| 日韩在线观看免费完整版视频| 国产a视频| 日本免费乱理伦片在线观看2018| 国产亚洲精品成人a在线| 精品国产一区二区三区久久久狼| 中文字幕一区二区三区精彩视频| 香蕉视频一级| 日韩专区亚洲综合久久| 国产精品免费精品自在线观看| a级毛片免费全部播放|