如果url太大,urllib会冻结!

时间:2011-07-03 22:25:56

标签: python urllib2 urllib

好吧即时通讯尝试使用urllib打开一个网址,但问题是该文件太大,所以当我打开网址python冻结时,我也使用wxpython,当我打开网址时也会冻结 当网址被打开时,我的cpu几乎达到100%

任何解决方案? 有没有办法我可以打开块的网址,也许有一个time.sleep(0.5)在那里它不冻结? 这是我的代码:

f = open("hello.txt",'wb')
datatowrite = urllib.urlopen(link).read()
f.write(datatowrite)
f.close()

由于

1 个答案:

答案 0 :(得分:1)

您希望将下载拆分为单独的线程,以便在下载线程单独完成工作时,您的UI线程继续工作。这样下载时你就不会“冻结”。

在此处阅读有关线程的更多信息:

http://docs.python.org/library/threading.html

或者,您可以使用系统使用curl或wget在python之外下载文件。