manhua.fzdm.comで悪魔の尻尾の漫画を這う



Crawling Demon Tail Comics Manhua



学ぶことは私を幸せにします

初心者の方は、manhua.fzdm.comで妖精のしっぽ漫画に登ってください。
間違いのない施設や爬虫類対策施設は作らなかったので、作りませんでした。 。 。
走ってから見つけるのに長い時間がかかりました。インターネットの速度が遅すぎる可能性があります。

import requests import re import os #Get a page response def get_one_page(url): headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0 WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4482.400 QQBrowser/9.7.13001.400'} response=requests.get(url,headers=headers) return response #Found the address of the image in the source code def parse_one_page(html): pattern=re.compile('varsmhurl='(.*?)'.*?var e.*?e.src='(.*?)'+',re.S) address=re.search(pattern,html) picture_address=address.group(2)+address.group(1) return picture_address # and save def get_picture(picture_address): r=requests.get(picture_address) with open(str(a)+'_'+str(b)+'.jpg','ab') as f: f.write(r.content) def main(a,b): html=response.text picture_address=parse_one_page(html) result=get_picture(picture_address) if __name__=='__main__': Os.mkdir('D:\Fairy tail') Os.chdir('D:\Fairy tail') For a in range(420,515): #from chapter 420 to chapter 514 For b in range(1,30): #each chapter finds 29 pages from page 1, if there are no more than 20 pages later, break Url='http://manhua.fzdm.com/27/'+str(a)+'/index_'+str(b)+'.html' #27 is the demon tail on this site. . . response=get_one_page(url) if response.status_code==200: main(a,b) else: break