雅虎财经下载数据

时间:2019-04-22 23:00:38

标签: python web-scraping finance

我正在尝试抓取finance.yahoo.com并下载数据文件。具体来说,该网址:https://finance.yahoo.com/quote/AAPL/history?p=AAPL

我想在此完成两个目标:1)我想将数据时间段参数设置为“ Max”,我认为我需要使用Selenium,2)想下载并保存数据文件检查“下载数据”时出现在href中的嵌入代码。

到目前为止,我无法访问单击“最大”所需的下拉菜单,也无法找到下载文件所需的href。

任何帮助将不胜感激。

from selenium import webdriver
import time
from selenium.webdriver.chrome.options import Options

options = webdriver.ChromeOptions()
options.add_argument('--log-level=3')

stock = input()
base_url = 'https://finance.yahoo.com/quote/{}/history?p= 
{}'.format(stock,stock)
driver = webdriver.Chrome()
driver.get(base_url)
driver.maximize_window()
driver.implicitly_wait(4)
driver.find_element_by_class_name("Fl(end) Mt(3px) Cur(p)").click()
time.sleep(4)
driver.quit()

2 个答案:

答案 0 :(得分:0)

您可以立即消除#1,只需直接查看页面,并按要求传递参数即可。

基本URI是:https://finance.yahoo.com/quote/AAPL/history

可用参数为:period1period2intervalfilterfrequency

非常简单,现在就将其作为一个纪元时间戳记,并将其用作period2参数,其中period1可以简单地作为起始纪元0intervalfrequency可以是任何您想要的;每天1d,每周1wk或每月1mo。最后,filter应该是history

完整的URI:

https://finance.yahoo.com/quote/AAPL/history?period1=0&period2=1555905600&interval=1d&filter=history&frequency=1d

从此处使用Selenium定位并单击Download Data链接。

我也打败了你,因为你显然不花任何力气自己解决这个问题。

更新:

就像@QHarr所说的那样,堆栈溢出有很多问题,详细说明了如何使用Yahoo Finance。我还建议您旋转searching

答案 1 :(得分:0)

以下显示了可以使用的选择器。我没有添加任何等待条件,因为只有一个条件,在我的测试运行中,我找不到。按下应用按钮后,等待所有新数据出现。相反,我使用了一个硬编码的time.sleep(5),如果可能的话,应该用更好的基于条件的等待替换它。

from selenium import webdriver
# from selenium.webdriver.common.by import By
# from selenium.webdriver.support.ui import WebDriverWait
# from selenium.webdriver.support import expected_conditions as EC
import time

d = webdriver.Chrome()
d.get('https://finance.yahoo.com/quote/AAPL/history?p=AAPL')
try:
    d.find_element_by_css_selector('[name=agree]').click() #oauth
except:
    pass

d.find_element_by_css_selector('[data-icon=CoreArrowDown]').click() #dropdown
d.find_element_by_css_selector('[data-value=MAX]').click() #max
d.find_element_by_css_selector('button.Fl\(start\)').click() # done
d.find_element_by_css_selector('button.Fl\(end\) span').click() #apply
time.sleep(5)
d.find_element_by_css_selector('[download]').click() #download