为什么我的python进程在几次迭代后停止了?

时间:2017-07-03 03:38:53

标签: python python-3.x

我不知道为什么以下代码在几次迭代后才停止运行。 python进程将继续在终端中运行,但不会下载或检查文件。

有人可以帮忙吗?感谢

#Manga downloader
#!python 3
import requests
import os
import bs4
import time
import urllib.request
import shutil
from pathlib import Path

url='http://www.mangareader.net/'
name=input("Enter comic name:")
chapterstart=int(input("Enter starting chapter number:"))
chapterend=int(input("Enter ending chapter number:"))

nameinput=name.replace(" ","-")

os.makedirs('Documents/Manga/',exist_ok=True)
directorylevel1='Documents/Manga/'+nameinput+'/'
os.makedirs(directorylevel1,exist_ok=True)

a=chapterstart

def imagesave(mangaUrl,filename,directorylevel2):
    #res = requests.get(mangaUrl)
    #print(res)
    #res.raise_for_status()
    fulldirectoryname=directorylevel2+filename
    mangapath=Path(fulldirectoryname)
    if mangapath.exists():
        print(fulldirectoryname + ' exists. Moving on.')
    else:
        print('Downloading image %s...' %(filename))
        req = urllib.request.Request(mangaUrl, headers={'User-Agent': 'Mozilla/5.0'})
        with urllib.request.urlopen(req) as response: #open(fulldirectoryname,'wb') as outfile:
            outfile=open(fulldirectoryname,'wb')
            shutil.copyfileobj(response,outfile)
            response = None
            req = None

    #imageFile=open(fulldirectoryname,'wb')
    #for chunk in res.iter_content(10000000):
    #    print(chunk)
    #    imageFile.write(chunk)
    #imageFile.close()

#for chapter 1 to 50
def main():
    for a in range(chapterstart,chapterend+1):
        b=str(a)
        directorylevel2=directorylevel1+b+'/'
        os.makedirs(directorylevel2,exist_ok=True)
        c=str(a+1)
        url='http://www.mangareader.net/'+nameinput+'/'+b
        stopurl='http://www.mangareader.net/'+nameinput+'/'+c
        res = requests.get(url)
        res.raise_for_status
        soup=bs4.BeautifulSoup(res.text,"lxml")
        mangaElem = soup.select('#imgholder img')
        #the imgholder is the div class name then img is the image inside
        #print(url)

        #for pages 1 to end
        while url !=stopurl:

            if mangaElem == [ ]:
                print('Could not find image')
                break
            else:
                mangaUrl=mangaElem[0].get('src')
                filename=mangaElem[0].get('alt')+'.jpg'
                imagesave(mangaUrl,filename,directorylevel2)
                prevLink=soup.select('#imgholder a')[0]
                url='http://www.mangareader.net'+prevLink.get('href')
                res = requests.get(url)
                res.raise_for_status
                soup=bs4.BeautifulSoup(res.text,"lxml")
                mangaElem = soup.select('#imgholder img')
                #soup = None

        a=a+1

    print('Done')

if __name__ == "__main__":
    main()

1 个答案:

答案 0 :(得分:0)

要考虑的事情:

你的代码运行平稳 - 也就是说,它一直在以网站的计算机速度抓取文件。该网站希望以人的速度抓取文件 - 如果它检测到更快的速度,它可能会在几个文件后阻止访问。我看到您导入time但未使用它 - 也许您打算在访问之间添加time.sleep(1)以防止被锁定。

多年前,当访问速度太快时,我偶尔会被设法从在线科学数据库中手动阻止网站。我知道政府数据库记录了访问速度(每秒页数),程序应该保留在该速度以避免被阻止。

做个好网友。值得一试。