我应该如何对 1,100,000 行坐标信息进行地理定位?
How should I go about geolocating 1,100,000 lines of coordinate information?
好的,所以我正在尝试为此设想一个解决方案。我有一个超过一百万行的数据库,其中包括美国的城市名称和该城市的一组坐标。问题是有多个城市同名:例如,新泽西州斯普林菲尔德和马萨诸塞州斯普林菲尔德。所以我需要获取状态信息。
数据中也有重复项。只有大约 6500 组唯一坐标,所以可以想象,我可以找到它们,然后将它们分配给数据库中的其他条目。这是一个可行的计划吗?我该怎么做?
以下是此数据库中条目的一些示例:
2015-09-01 00:00:00,Buffalo,"42.9405299,-78.8697906",10.1016/s0894-7317(12)00840-1,42.9405299,-78.8697906,43.0,-79.0
2015-09-01 00:00:00,New York,"40.7830603,-73.9712488",10.1016/j.jmv.2014.04.008,40.783060299999995,-73.9712488,41.0,-74.0
2015-09-01 00:00:04,Scottsdale,"33.4941704,-111.9260519",10.1016/j.euroneuro.2014.05.008,33.494170399999994,-111.9260519,33.0,-112.0
2015-09-01 00:00:09,Provo,"40.2338438,-111.6585337",10.1016/j.toxac.2014.07.002,40.233843799999995,-111.6585337,40.0,-112.0
2015-09-01 00:00:13,New York,"40.7830603,-73.9712488",10.1016/j.drugalcdep.2014.09.015,40.783060299999995,-73.9712488,41.0,-74.0
2015-09-01 00:00:16,Fremont,"37.5482697,-121.9885719",10.1016/j.ajic.2012.04.160,37.548269700000006,-121.98857190000001,38.0,-122.0
2015-09-01 00:00:24,Provo,"40.2338438,-111.6585337",10.1016/j.chroma.2015.01.036,40.233843799999995,-111.6585337,40.0,-112.0
我正在使用 geocoder 软件包进行地理定位。这是我编写的一些可以处理该问题的代码:
def convert_to_state(lati, long):
lat, lon = float(lati), float(long)
g = geocoder.google([lat, lon], method='reverse')
state_long, state_short = g.state_long, g.state
return state_long, state_short
我只是不知道该怎么做。事实证明地理编码非常昂贵,因此使用重复项可能是最好的方法。关于如何实现这一点有什么建议吗?
几乎可以肯定,避免做额外工作的最佳方法是使用散列 table 来检查是否已有映射:
processed_coords = {}
def convert_to_state(lati, long):
lat, lon = float(lati), float(long)
if (lat, lon) not in processed_coords:
g = geocoder.google([lat, lon], method='reverse')
state_long, state_short = g.state_long, g.state
processed_coords[(lat,lon)] = (state_long, state_short)
return state_long, state_short
else:
return processed_coords[(lat,lon)]
这样你做一个简单的 O(1) 检查,看看你是否已经有了数据,这根本没有太多额外的计算,如果你确实已经完成了,你就不会重做.
如果你是对的并且只有 6500 组唯一坐标,那么就此技术的内存使用而言你应该没问题,但如果你错了并且有更多唯一坐标,你可能 运行 进入一些内存问题,如果这些百万中的更多东西是独一无二的。
我喜欢哈希 table 的想法,但这里有一个使用一些 pandas 东西的替代方案:
1) 获取唯一的(纬度、经度)坐标列表
df['latlon'] = [(x,y) for x,y in zip(df['lati'].tolist(),df['long'].tolist())]
unique_ll = df['latlon'].unique()
2) 遍历唯一坐标并为所有等效线设置状态
for l in unique_ll:
df.loc[df['latlon'] == l, 'state'] = convert_to_state(l[0],l[1])
有一个地理信息服务 SmartyStreets,它有一个列表工具,可以处理搜索列表和 returns 一堆信息(可以上传电子表格或复制和粘贴)。他们专注于地址验证,因此他们希望搜索词是地址,但是,它可以仅将邮政编码与城市和州匹配。您有权访问该信息吗?
这里是 link to the demo。
好的,所以我正在尝试为此设想一个解决方案。我有一个超过一百万行的数据库,其中包括美国的城市名称和该城市的一组坐标。问题是有多个城市同名:例如,新泽西州斯普林菲尔德和马萨诸塞州斯普林菲尔德。所以我需要获取状态信息。
数据中也有重复项。只有大约 6500 组唯一坐标,所以可以想象,我可以找到它们,然后将它们分配给数据库中的其他条目。这是一个可行的计划吗?我该怎么做?
以下是此数据库中条目的一些示例:
2015-09-01 00:00:00,Buffalo,"42.9405299,-78.8697906",10.1016/s0894-7317(12)00840-1,42.9405299,-78.8697906,43.0,-79.0
2015-09-01 00:00:00,New York,"40.7830603,-73.9712488",10.1016/j.jmv.2014.04.008,40.783060299999995,-73.9712488,41.0,-74.0
2015-09-01 00:00:04,Scottsdale,"33.4941704,-111.9260519",10.1016/j.euroneuro.2014.05.008,33.494170399999994,-111.9260519,33.0,-112.0
2015-09-01 00:00:09,Provo,"40.2338438,-111.6585337",10.1016/j.toxac.2014.07.002,40.233843799999995,-111.6585337,40.0,-112.0
2015-09-01 00:00:13,New York,"40.7830603,-73.9712488",10.1016/j.drugalcdep.2014.09.015,40.783060299999995,-73.9712488,41.0,-74.0
2015-09-01 00:00:16,Fremont,"37.5482697,-121.9885719",10.1016/j.ajic.2012.04.160,37.548269700000006,-121.98857190000001,38.0,-122.0
2015-09-01 00:00:24,Provo,"40.2338438,-111.6585337",10.1016/j.chroma.2015.01.036,40.233843799999995,-111.6585337,40.0,-112.0
我正在使用 geocoder 软件包进行地理定位。这是我编写的一些可以处理该问题的代码:
def convert_to_state(lati, long):
lat, lon = float(lati), float(long)
g = geocoder.google([lat, lon], method='reverse')
state_long, state_short = g.state_long, g.state
return state_long, state_short
我只是不知道该怎么做。事实证明地理编码非常昂贵,因此使用重复项可能是最好的方法。关于如何实现这一点有什么建议吗?
几乎可以肯定,避免做额外工作的最佳方法是使用散列 table 来检查是否已有映射:
processed_coords = {}
def convert_to_state(lati, long):
lat, lon = float(lati), float(long)
if (lat, lon) not in processed_coords:
g = geocoder.google([lat, lon], method='reverse')
state_long, state_short = g.state_long, g.state
processed_coords[(lat,lon)] = (state_long, state_short)
return state_long, state_short
else:
return processed_coords[(lat,lon)]
这样你做一个简单的 O(1) 检查,看看你是否已经有了数据,这根本没有太多额外的计算,如果你确实已经完成了,你就不会重做.
如果你是对的并且只有 6500 组唯一坐标,那么就此技术的内存使用而言你应该没问题,但如果你错了并且有更多唯一坐标,你可能 运行 进入一些内存问题,如果这些百万中的更多东西是独一无二的。
我喜欢哈希 table 的想法,但这里有一个使用一些 pandas 东西的替代方案:
1) 获取唯一的(纬度、经度)坐标列表
df['latlon'] = [(x,y) for x,y in zip(df['lati'].tolist(),df['long'].tolist())]
unique_ll = df['latlon'].unique()
2) 遍历唯一坐标并为所有等效线设置状态
for l in unique_ll:
df.loc[df['latlon'] == l, 'state'] = convert_to_state(l[0],l[1])
有一个地理信息服务 SmartyStreets,它有一个列表工具,可以处理搜索列表和 returns 一堆信息(可以上传电子表格或复制和粘贴)。他们专注于地址验证,因此他们希望搜索词是地址,但是,它可以仅将邮政编码与城市和州匹配。您有权访问该信息吗?
这里是 link to the demo。