试图使RSS feed解析器更有效吗?

时间:2018-07-24 00:42:36

标签: python rss feedparser

我正在制作一个使用提要分析器的脚本,该脚本不断检查RSS提要是否有任何更新。它工作正常,但我正在寻求提高效率。目前,我正在运行6-7个不同的脚本,每个脚本有5-6个RSS提要,以确保我尽快得到更新。我知道可能有更好的方法可以做到这一点,但是我对python还是很陌生,所以我不确定。我已经简要地研究了多处理,但是我不愿意失去速度(甚至不到几分之一秒),因为那是程序的全部目的。预先感谢您的任何建议。

import feedparser

def rss_scrape(site, iteration):
    rss = feedparser.parse(site)
    for post in rss.entries:
            if post.link not in links:
                links.append(post.link)
                if iteration != 0:
                    print(web_pages[site], get_time(), post.title, post.link)

web_pages = {'https://www.example.com/rss1':'example_1',
             'https://www.example.com/rss2':'example_2',
             'https://www.example.com/rss3':'example_3',
             'https://www.example.com/rss4':'example_4',
             'https://www.example.com/rss5':'example_5'}

links = []
count = 0

while True:
    try:
        for item in list(web_pages.keys():
            rss_scrape(item, count)
        count = count + 1
    except KeyboardInterrupt:
        exit()

0 个答案:

没有答案