循环 urllib 从 web 下载 csv 数据

loop urllib to download csv data from web

我正在尝试使用 for 循环下载此网址从 2013 年到 2009 年的所有数据。

网址:

http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-2013.csv
.
.
.
http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-2019.csv

我的代码是这样的:

year = 2006
max_year = 2019
host = "http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-"
ending = ".csv"

while year < max_year:
    url = host + str(year)
    print(url)
    urllib.urlretrieve(url, url.lstrip(host))
    print("Done" + url)

但是它没有下载数据,但是我在脚本运行时没有收到错误消息?

如有任何帮助,我们将不胜感激。

您忘记在 while 循环中递增年份。您还忘记了 "ending" 在 url 变量中。这似乎对我有用。

year = 2006
max_year = 2019
host = "http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-"
ending = ".csv"

while year < max_year:
    url = host + str(year)+ending
    print(url)
    urllib.urlretrieve(url,url.lstrip(host))
    print("Done" + url)
    year +=1