城市公交、客车数量体现了城市的公共交通,爬取讨论城市的保有公交和大巴线路名称

  本篇博文为博主原创,转发请注明。

Python爬虫_城市公交、大巴站点和线路数量搜集实例,python爬虫

城市公交、大巴数量反映了都会的公共交通,啄磨该数额足以挖掘城市的通畅布局、路网规划、公交选址等。可是,那类数据往往领悟在特定机构中,很难获取。网络地图上有多量的新闻,包涵公交、地铁等数据,解析其数量反映方式,可以透过Python爬虫采集。闲言少叙,接下去将详细介绍如何运用Python爬虫爬取城市公交、大巴站点和数码。

第贰,爬取钻探城市的全体公交和地铁线路名称,即XX路,大巴X号线。可以通过图吧公交、公交网、868肆,本地宝等网站取得,该类网站提供了按数字和字母划分类其余公交线路名称。Python写个简单的爬虫就能采访,可参照WenWu_Both的文章,博主详细介绍了何等采纳python爬取8684上某城市拥有的公交站点数据。该博主采集了站点详细的新闻,包含,但是缺乏了公交站点的坐标、公交线路坐标数据。那就令人抓狂了,没有空间坐标怎么落图,怎么分析,所以,本文重点介绍的是站点坐标、线路的取得。

万博manbetx客户端 1

以图吧公交为例,点击某一公交后,出现该路公交的详尽站点新闻和地图音讯。博主顿感快乐,觉得立时快要打响了,各样抓包,发现并无法分析。只怕博主技术所限,如有大神能从中抓到站点和路线的坐标音信,请不宁赐教。那TM就令人到底了啊,到嘴的肥肉吃不了。

万博manbetx客户端 2

天无绝人之路,尝试找找某地图的API,发现可以调用,通过分析,能够找到该数额的后台地址。纯熟前端的可以试试,博主前端也就只会个hello
world,不献丑了。那是一种思路,实践注解是可以的。

万博manbetx客户端 3

地图API可以,那么通过地图抓包吗?打开某图主页,直接输入某市公交名称,通过抓包,成功找到站点和线路新闻。具体抓包新闻如下图所示,busline_list中详细列出了站点和路线的新闻,其中有两条,是一致趟公交不一致方向的数目,略迥然不一样,需注意。找到入口过后,接下去爬虫就要大显身手了。

万博manbetx客户端 4

第3爬取代码如下,其实也很简单,主函数如下。首先必要营造传入的参数,紧要的统揽路线名称,城市编码,地理范围,缩放尺度。地理范围可以透过坐标拾取器获取,参数经url编码后,发送请求,判断重回数据是或不是符合须求(注:只怕该路线地图上停运或不设有,也或然是访问速度过快,反爬虫机制亟待人工验证,博主爬取的时候遭遇过,所在此以前面设置了随机休眠)。接下来,就是解析json数据了。代码中的extratStations和extractLine,就是提取需求的字段,怎么着,是还是不是很粗略。最后,就是保存了,站点和路线分别存储。

def main():
 df = pd.read_excel("线路名称.xlsx",)
 BaseUrl = "https://ditu.amap.com/service/poiInfo?query_type=TQUERY&pagesize=20&pagenum=1&qii=true&cluster_state=5&need_utd=true&utd_sceneid=1000&div=PC1000&addr_poi_merge=true&is_classify=true&"
 for bus in df[u"线路"]:
 params = {
  'keywords':'11路',
  'zoom': '11',
  'city':'610100',
  'geoobj':'107.623|33.696|109.817|34.745'
 }
 print(bus)
 paramMerge = urllib.parse.urlencode(params) 
 #print(paramMerge)
 targetUrl = BaseUrl + paramMerge
 stationFile = "./busStation/" + bus + ".csv"
 lineFile = "./busLine/" + bus + ".csv"

 req = urllib.request.Request(targetUrl)
 res = urllib.request.urlopen(req)
 content = res.read()
 jsonData = json.loads(content)
 if (jsonData["data"]["message"]) and jsonData["data"]["busline_list"]:
  busList = jsonData["data"]["busline_list"] ##busline 列表
  busListSlt = busList[0] ## busList共包含两条线,方向不同的同一趟公交,任选一趟爬取

  busStations = extratStations(busListSlt)
  busLine = extractLine(busListSlt)
  writeStation(busStations, stationFile)
  writeLine(busLine, lineFile)

  sleep(random.random() * random.randint(0,7) + random.randint(0,5)) #设置随机休眠
 else:
  continue

屈居博主的解析函数:

def extratStations(busListSlt):
 busName = busListSlt["name"]
 stationSet = []
 stations = busListSlt["stations"]
 for bs in stations:
 tmp = []
 tmp.append(bs["station_id"])
 tmp.append(busName)
 tmp.append(bs["name"])
 cor = bs["xy_coords"].split(";")
 tmp.append(cor[0])
 tmp.append(cor[1])
 wgs84cor1 = gcj02towgs84(float(cor[0]),float(cor[1]))
 tmp.append(wgs84cor1[0])
 tmp.append(wgs84cor1[1])
 stationSet.append(tmp)
 return stationSet

def extractLine(busListSlt):
 ## busList共包含两条线,备注名称
 keyName = busListSlt["key_name"]
 busName = busListSlt["name"] 
 fromName = busListSlt["front_name"]
 toName = busListSlt["terminal_name"]
 lineSet = []
 Xstr = busListSlt["xs"]
 Ystr = busListSlt["ys"]
 Xset = Xstr.split(",")
 Yset = Ystr.split(",")
 length = len(Xset)
 for i in range(length):
 tmp = []
 tmp.append(keyName)
 tmp.append(busName)
 tmp.append(fromName)
 tmp.append(toName)
 tmp.append(Xset[i])
 tmp.append(Yset[i])
 wgs84cor2 = gcj02towgs84(float(Xset[i]),float(Yset[i]))
 tmp.append(wgs84cor2[0])
 tmp.append(wgs84cor2[1])
 lineSet.append(tmp)
 return lineSet

爬虫采集原始数据如下:

万博manbetx客户端 5

以下是某一条公交站点和线路的处理后的多少彰显。由于区其他地图商采纳区其他坐标系,会有分裂水平的谬误,须求坐标纠偏。下一步,博主将详细介绍如何批量将这么些站点和坐标进行坐标校勘和矢量化。

万博manbetx客户端 6

http://www.bkjia.com/Pythonjc/1294270.htmlwww.bkjia.comtruehttp://www.bkjia.com/Pythonjc/1294270.htmlTechArticlePython爬虫\_城市公交、地铁站点和线路数据采集实例,python爬虫
城市公交、大巴数量反映了城市的公共交通,钻探该多少可以挖掘城市的交…

  城市公交、地铁数量显示了都市的公共交通,讨论该数额足以开掘城市的直通结构、路网规划、公交选址等。不过,那类数据往往领悟在一定部门中,很难取得。网络地图上有大批量的音讯,包涵公交、大巴等数据,解析其数量反映方式,可以透过Python爬虫采集。闲言少叙,接下去将详细介绍怎么着行使Python爬虫爬取城市公交、地铁站点和数据。

万博manbetx客户端,  首先,爬取讨论城市的具备公交和大巴线路名称,即XX路,地铁X号线。可以由此图吧公交、公交网、868肆,本地宝等网站取得,该类网站提供了按数字和字母划分类其余公交线路名称。Python写个简易的爬虫就能募集,可参考WenWu_Both的文章,博主详细介绍了哪些接纳python爬取8684上某城市有所的公交站点数据。该博主采集了站点详细的消息,包含,可是缺乏了公交站点的坐标、公交线路坐标数据。那就令人抓狂了,没有空间坐标怎么落图,怎么分析,所以,本文重点介绍的是站点坐标、线路的得到。

万博manbetx客户端 7

  以图吧公交为例,点击某一公交后,出现该路公交的详细站点新闻和地图新闻。博主顿感欢跃,觉得立刻就要打响了,各种抓包,发现并无法分析。只怕博主技术所限,如有大神能从中抓到站点和线路的坐标消息,请不宁赐教。那TM就令人彻底了啊,到嘴的肥肉吃不了。

万博manbetx客户端 8

  天无绝人之路,尝试找找某地图的API,发现可以调用,通过分析,可以找到该数量的后台地址。熟谙前端的可以尝试,博主前端也就只会个hello
world,不献丑了。那是一种思路,实践阐明是可以的。

万博manbetx客户端 9

  地图API可以,那么通过地图抓包吗?打开某图主页,直接输入某市公交名称,通过抓包,成功找到站点和线路消息。具体抓包音信如下图所示,busline_list中详细列出了站点和线路的音讯,其中有两条,是相同趟公交不相同方向的多少,略大有径庭,需注意。找到入口过后,接下去爬虫就要大显身手了。

万博manbetx客户端 10

  主要爬取代码如下,其实也很粗略,主函数如下。首先必要营造传入的参数,主要的包蕴路线名称,城市编码,地理范围,缩放尺度。地理范围能够透过坐标拾取器获取,参数经url编码后,发送请求,判断再次回到数据是不是符合必要(注:或然该路线地图上停运或不存在,也说不定是访问速度过快,反爬虫机制亟待人工验证,博主爬取的时候蒙受过,所从前面设置了随机休眠)。接下来,就是解析json数据了。代码中的extratStations和extractLine,就是领取须要的字段,怎么样,是或不是很不难。最后,就是保存了,站点和路径分别存储。

 1 def main():
 2     df = pd.read_excel("线路名称.xlsx",)
 3     BaseUrl = "https://ditu.amap.com/service/poiInfo?query_type=TQUERY&pagesize=20&pagenum=1&qii=true&cluster_state=5&need_utd=true&utd_sceneid=1000&div=PC1000&addr_poi_merge=true&is_classify=true&"
 4     for bus in df[u"线路"]:
 5         params = {
 6             'keywords':'11路',
 7             'zoom': '11',
 8             'city':'610100',
 9             'geoobj':'107.623|33.696|109.817|34.745'
10         }
11         print(bus)
12         paramMerge = urllib.parse.urlencode(params) 
13         #print(paramMerge)
14         targetUrl = BaseUrl + paramMerge
15         stationFile = "./busStation/" + bus + ".csv"
16         lineFile = "./busLine/" + bus + ".csv"
17         
18         req = urllib.request.Request(targetUrl)
19         res = urllib.request.urlopen(req)
20         content = res.read()
21         jsonData = json.loads(content)
22         if (jsonData["data"]["message"]) and jsonData["data"]["busline_list"]:
23             busList = jsonData["data"]["busline_list"] ##busline 列表
24             busListSlt = busList[0] ## busList共包含两条线,方向不同的同一趟公交,任选一趟爬取
25             
26             busStations = extratStations(busListSlt)
27             busLine = extractLine(busListSlt)
28             writeStation(busStations, stationFile)
29             writeLine(busLine, lineFile)
30             
31             sleep(random.random() * random.randint(0,7) + random.randint(0,5)) #设置随机休眠
32         else:
33             continue

  附上博主的剖析函数:

 1 def extratStations(busListSlt):
 2     busName = busListSlt["name"]
 3     stationSet = []
 4     stations = busListSlt["stations"]
 5     for bs in stations:
 6         tmp = []
 7         tmp.append(bs["station_id"])
 8         tmp.append(busName)
 9         tmp.append(bs["name"])
10         cor = bs["xy_coords"].split(";")
11         tmp.append(cor[0])
12         tmp.append(cor[1])
13         wgs84cor1 = gcj02towgs84(float(cor[0]),float(cor[1]))
14         tmp.append(wgs84cor1[0])
15         tmp.append(wgs84cor1[1])
16         stationSet.append(tmp)
17     return stationSet
18 
19 def extractLine(busListSlt):
20     ## busList共包含两条线,备注名称
21     keyName = busListSlt["key_name"]
22     busName = busListSlt["name"] 
23     fromName = busListSlt["front_name"]
24     toName = busListSlt["terminal_name"]
25     lineSet = []
26     Xstr = busListSlt["xs"]
27     Ystr = busListSlt["ys"]
28     Xset = Xstr.split(",")
29     Yset = Ystr.split(",")
30     length = len(Xset)
31     for i in range(length):
32         tmp = []
33         tmp.append(keyName)
34         tmp.append(busName)
35         tmp.append(fromName)
36         tmp.append(toName)
37         tmp.append(Xset[i])
38         tmp.append(Yset[i])
39         wgs84cor2 = gcj02towgs84(float(Xset[i]),float(Yset[i]))
40         tmp.append(wgs84cor2[0])
41         tmp.append(wgs84cor2[1])
42         lineSet.append(tmp)
43     return lineSet

  爬虫采集原始数据如下:

万博manbetx客户端 11

  以下是某一条公交站点和路线的拍卖后的数目浮现。由于不一致的地图商拔取差距的坐标系,会有两样程度的错误,须求坐标纠偏。下一步,博主将详细介绍如何批量将这几个站点和坐标举行坐标校订和矢量化。

 万博manbetx客户端 12