版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領
文檔簡介
1.()是Scrapy官方開發(fā)的,用來部署、運行和管理Scrapy爬蟲的工具。A.ScrapydB.ScrapyDeployC.DeployD.Scrapy_Deploy答案:A2.當爬蟲創(chuàng)建好了之后,可以使用“scrapy()”命令運行爬蟲。A.startupB.starwarC.drawlD.crawl答案:D3.在Scrapy的目錄下,哪個文件負責存放爬蟲的各種配置信息?()A.spiders文件夾B.item.pyC.pipeline.pyD.settings.py答案:D4.使用UIAutomatorr根據(jù)坐標來滑動桌面的操作是得到相應控件后使用命令()。A.swipeB.moveC.scrollD.fly答案:A5.windows中創(chuàng)建定時任務的命令為()。A.taskB.schtasksC.createtasksD.maketasks答案:B6.MongoDB中數(shù)據(jù)存儲的形式類似于()。A.列表B.元組C.字典D.集合答案:C7.requests中post請求方法的使用為requests.post(‘網(wǎng)址’,data=data)中的data為()。A.列表B.元組C.字典D.集合答案:C8.Python中把列表轉(zhuǎn)換為集合需要使用()函數(shù)。A.setB.listC.convertD.change答案:A9.使用了RedisSpider作為爬蟲的父類以后,爬蟲會直接監(jiān)控()中的數(shù)據(jù),并不讀取start_urls中的數(shù)據(jù)。A.RedisB.RedisSpiderC.SpiderD.MongoDB答案:A10.在MacOS下安裝MongoDB使用命令()installmongodb。A.brewB.apt-getC.sudoD.apt答案:A11.當需要把Python里面的數(shù)據(jù)發(fā)送給網(wǎng)頁時,應先將其轉(zhuǎn)換成()。A.Json字符串B.GETC.POSTD.Request答案:A12.服務器端記錄信息確定用戶身份的數(shù)據(jù)是()。A.sessionB.cookiesC.moonpiesD.localstorage答案:A13.下列說法錯誤的是()。A.小程序的請求極其簡單,基本上沒有驗證信息B.用Python來請求小程序的后臺接口從而獲取數(shù)據(jù),比請求異步加載網(wǎng)頁的后臺接口要復雜很多C.如果目標網(wǎng)站有微信小程序,那么一定要優(yōu)先調(diào)查能否通過小程序的接口來抓取數(shù)據(jù)D.小程序的反爬蟲能力比網(wǎng)頁版的低很多。使用小程序的接口來爬數(shù)據(jù),能極大提高爬蟲的開發(fā)效率答案:D14.下面Python代碼輸出為():defdefault_para_trap(para=[],value=0):para.append(value)returnparaprint(‘第一步:{}’.format(default_para_trap(value=100)))print(‘第二步:{}’.format(default_para_trap(value=50)))A.第一步:[100]第二步:[100,50]B.第一步:[100]第二步:[50]C.第一步:[100]第二步:[]D.第一步:[100]第二步:[100]答案:A15.在Scrapy的目錄下,哪個文件負責存放爬蟲文件?()A.spiders文件夾B.item.pyC.pipeline.pyD.settings.py答案:A16.xpath中extract方法返回值類型是()。A.列表B.元組C.字典D.集合答案:A17.參數(shù)headers=(),把請求頭添加到Scrapy請求中,使爬蟲的請求看起來像是從瀏覽器發(fā)起的。A.HEADERB.HEADERSC.HEADD.BODY答案:B18.Python中Object=(1,2,3,4,5),則Objcet是()。A.列表B.元組C.字典D.集合答案:B19.在Scrapy的目錄下,哪個文件負責定義需要爬取的數(shù)據(jù)?()A.spiders文件夾B.item.pyC.pipeline.pyD.settings.py答案:B20.Scrapy中使用Xpath獲得的結(jié)果調(diào)用了.extract方法,結(jié)果以()形式生成。A.列表B.元組C.字典D.集合答案:A21.Python中的容器有()。A.列表B.元組C.字典D.集合答案:ABCD22.使用Selennium獲取網(wǎng)頁中元素的方法有()。A.find_element_by_nameB.find_element_by_idC.find_elements_by_nameD.find_elements_by_id答案:ABCD23.一個可行的自動更換代理的爬蟲系統(tǒng),應該下列哪些功能?()A.有一個小爬蟲ProxySpider去各大代理網(wǎng)站爬取免費代理并驗證,將可以使用的代理IP保存到數(shù)據(jù)庫中B.在發(fā)現(xiàn)某個請求已經(jīng)被設置過代理后,什么也不做,直接返回C.在ProxyMiddlerware的process_request中,每次從數(shù)據(jù)庫里面隨機選擇一條代理IP地址使用D.周期性驗證數(shù)據(jù)庫中的無效代理,及時將其刪除答案:ACD24.下列關于在IOS上配置charles的說法正確的是()。A.不同ios設備之間會有比較大的差別,所以配置的時候需要找到對應的安裝證書的入口B.手機和電腦需要在同一個局域網(wǎng)下C.HTTP代理可以使用“自動”選項D.安裝好證書以后,打開iOS設備上的任何一個App,可以看到Charles中有數(shù)據(jù)包在流動答案:BD25.下列說法錯誤的是()。A.mitmproxy的強大之處在于它還自帶一個mitmdump命令。這個命令可以用來運行符合一定規(guī)則的Python腳本,并在Python腳本里面直接操作HTTP和HTTPS的請求,以及返回的數(shù)據(jù)包B.命令行中執(zhí)行mitmdump-sparse_request.py即可運行python腳本C.使用python可以自定義返回的數(shù)據(jù)包,如response.headers,就是返回的頭部信息D.如果返回的是JSON類型的字符串,python無法進行解析答案:D26.以下HTTP狀態(tài)碼表示服務器本身發(fā)生錯誤的是()。A.400B.503C.302D.500答案:BD27.Python中哪種容器生成后可以修改內(nèi)容?()A.列表B.元組C.字典D.集合答案:ACD28.以下HTTP狀態(tài)碼表示服務器沒有正常返回結(jié)果的是()。A.200B.301C.404D.500答案:BCD29.如果目標網(wǎng)站有反爬蟲聲明,那么對方在被爬蟲爬取以后,可以根據(jù)()來起訴使用爬蟲的公司。A.服務器日志B.數(shù)據(jù)庫日志記錄C.程序日志記錄D.服務器監(jiān)控答案:ABCD30.requests中post請求方法的第二個參數(shù)可以為()。A.字典B.列表C.json數(shù)據(jù)D.字符串答案:AC31.process_spider_output(response,result,output)是在下載器中間件處理完成后,馬上要進入某個回調(diào)函數(shù)parse_xxx()前調(diào)用。()A.正確B.錯誤答案:B32.需要登錄的網(wǎng)站一般通過GET請求就可以實現(xiàn)登錄。()A.正確B.錯誤答案:B33.Python中相比于findall方法,search方法對于從超級大的文本里面只找第1個數(shù)據(jù)特別有用,可以大大提高程序的運行效率。()A.正確B.錯誤答案:A34.UIAutomatorViewer與Pythonuiautomator可以同時使用。()A.正確B.錯誤答案:B35.device.sleep()方法是使用UIAutomatorr關閉屏幕的命令。()A.正確B.錯誤答案:A36.在發(fā)送請求時需要注意requests提交的請求頭不能與瀏覽器的請求頭一致,因為這樣才能隱藏好自己達到獲取數(shù)據(jù)的目的。()A.正確B.錯誤答案:B37.mitmproxy的強大之處在于它還自帶一個mitmdump命令。這個命令可以用來運行符合一定規(guī)則的Python腳本。()A.正確B.錯誤答案:A38.MongoDB是一個關系數(shù)據(jù)庫產(chǎn)品。()A.正確B.錯誤答案:B39.Python正則表達式中“.*?”是非貪婪模式,獲取最短的能滿足條件的字符串。()A.正確B.錯誤答案:A40.Charles能截獲HTTP和HTTPS的數(shù)據(jù)包,如果網(wǎng)站使用websocket就可以截獲。()A.正確B.錯誤答案:B41.Charles和Chrome開發(fā)者工具相比,只是多了一個搜索功能。()A.正確B.錯誤答案:B42.爬蟲中間件的激活需要另外寫一個文件來進行。()A.正確B.錯誤答案:B43.Cookies一般包含在請求頭Headers中。()A.正確B.錯誤答案:A44.已經(jīng)創(chuàng)建好的Scrapy爬蟲*.py文件可以直接通過Python來運行。()A.正確B.錯誤答案:B45.如果目標網(wǎng)站本身就是提供公眾查詢服務的網(wǎng)站,那么使用爬蟲是合法合規(guī)的。()A.正確B.錯誤答案:A46.Redis中使用lrange讀取數(shù)據(jù)后數(shù)據(jù)也會刪除。()A.正確B.錯誤答案:B47.開源庫pytesseract的作用是將圖像中文字轉(zhuǎn)換為文本。()A.正確B.錯誤答案:A48.Scrapy每一次發(fā)起請求之前都會在這里檢查網(wǎng)址
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 職業(yè)健康權(quán)益保障的法律政策完善
- 職業(yè)健康個性化健康干預路徑的防護方案
- 邯鄲2025年河北邯鄲魏縣選聘招聘衛(wèi)生專業(yè)技術人員248人筆試歷年參考題庫附帶答案詳解
- 萍鄉(xiāng)2025年江西萍鄉(xiāng)市上栗縣公安局招聘輔警66人筆試歷年參考題庫附帶答案詳解
- 職業(yè)傳染病防控中的健康教育內(nèi)容設計
- 湘西2025年湖南湘西從文教育集團教師招聘筆試歷年參考題庫附帶答案詳解
- 杭州浙江杭州市住房保障服務中心招聘編外聘用人員筆試歷年參考題庫附帶答案詳解
- 成都2025年四川成都成華區(qū)招聘社區(qū)工作者和黨建服務專員164人筆試歷年參考題庫附帶答案詳解
- 廣西2025年廣西中醫(yī)藥大學招聘科研助理20人筆試歷年參考題庫附帶答案詳解
- 宿遷2025年江蘇宿遷沭陽縣縣級機關事業(yè)單位轉(zhuǎn)任(選調(diào))74人筆試歷年參考題庫附帶答案詳解
- 食堂配送倉庫管理制度
- 加工覆膜合同范例
- 湖北省荊州市八縣2024-2025學年高一上學期期末聯(lián)考英語試題(無答案)
- 《新疆工程勘察設計計費導則(工程勘察部分)》
- 字母認主協(xié)議書(2篇)
- 骨科研究生年終總結(jié)
- (完整)七年級生物上冊思維導圖
- HG20202-2014 脫脂工程施工及驗收規(guī)范
- DL∕T 1573-2016 電力電纜分布式光纖測溫系統(tǒng)技術規(guī)范
- 電梯維護保養(yǎng)規(guī)則(TSG T5002-2017)
- PLC控制的搶答器設計與仿真
評論
0/150
提交評論