页面爬行对于此Python脚本

时间:2017-10-02 04:19:13

标签: python web-crawler

import pandas as pd

dfs = pd.read_html('https://www.cbssports.com/nhl/stats/playersort/nhl/year-2017-season-preseason-category-goals')
df = pd.concat(dfs, ignore_index=True)
df.to_csv("20172018PreseasonData.csv", index=False)
print(df)

我正在尝试一次性抓取1-17页。当我运行它时,虽然我所在的链接是“全部”它仍然只抓取第1页。我希望1-17全部在同一个csv上。有什么建议吗?

1 个答案:

答案 0 :(得分:0)

如果您查看页面源代码(右键单击页面并点击检查是否在Google Chrome中),您会看到“ALL”页面的实际链接为https://www.cbssports.com/nhl/stats/playersort/nhl/year-2017-season-preseason-category-goals?print_rows=9999,如突出显示的行所示在下图中。

enter image description here