亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > python爬取各省降水量及可視化詳解

python爬取各省降水量及可視化詳解

熱門標簽:打印谷歌地圖標注 電話外呼系統招商代理 京華圖書館地圖標注 淮安呼叫中心外呼系統如何 廣東旅游地圖標注 蘇州人工外呼系統軟件 看懂地圖標注方法 佛山通用400電話申請 電話機器人貸款詐騙

在具體數據的選取上,我爬取的是各省份降水量實時數據

話不多說,開始實操

正文 

1.爬取數據

  • 使用python爬蟲,爬取中國天氣網各省份24時整點氣象數據
  • 由于降水量為動態數據,以js形式進行存儲,故采用selenium方法經xpath爬取數據—ps:在進行數據爬取時,最初使用的方法是漂亮湯法(beautifulsoup)法,但當輸出爬取的內容(class = split>時,卻空空如也。在源代碼界面Ctrl+Shift+F搜索后也無法找到降水量,后查詢得知此為動態數據,無法用該方法進行爬取
  • 使用循環和分類的方式爬取省份不同、網址相似的降水量數據,順帶記錄數據對應的城市

f—string:

url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'

f-string 用大括號 {} 表示被替換字段,其中直接填入替換內容

將城市和降水量相對應后存入字典再打印

代碼:

from lxml import etree
from selenium import webdriver
import re
city = [''for n in range(34)]   #存放城市列表
rain = [''for n in range(34)]   #存放有關降雨量信息的數值
rain_item = []
driver = webdriver.Chrome(executable_path='chromedriver')   #使用chrome瀏覽器打開
for a in range(1,5):      #直轄市數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0100.shtml'  #網址
    driver.get(url_a)    #打開網址
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(5,10):      #一位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text     #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(10,35):      #二位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
d = dict(zip(city,rain))  #將城市和降水量的列表合成為字典
for k,v in d.items():  #str轉float類型
    rain_item.append(float(v))
print(d)

在對爬取的內容進行處理時,可能會因為數據的類型而報錯,如爬下來的數據為str類型,而排序需要數字類型,故需要進行float類型轉化

使用該爬取方法,是模擬用戶打開網頁,并且會在電腦上進行顯示。在爬取實驗進行中途,中國天氣網進行了網址更新,原網址出現了部分城市數據無法顯示的問題,但當刷新界面后,數據可正常顯示,此時可采用模擬鼠標點擊刷新的方法避免錯誤。由于后續找到了新網址,故將這一方法省去。

2.數據可視化

  • 用Matplotlib庫函數繪制曲線,并輸出最大值及相應城市、最小值及相應城市、平均值和中位值
  • 數據的確定:medium分奇偶計算中位值所處排序后數據的位置(中位值);用sum求和后除于數據個數(平均值);max和min函數找到最值再由數值經循環找到對應的城市列表
  • 繪圖:使用plt函數繪制圖像,并注明橫縱坐標、所需注釋
  • 文本處理:在進行注釋時,plt函數所要求的格式為str類型,故需要進行類型轉換,同時添加適當文字說明

代碼:

#-*- codeing = utf-8 -*-
import matplotlib.pyplot as plt
from lxml import etree
from selenium import webdriver
import re
import matplotlib
matplotlib.rc("font",family='YouYuan')
city = [''for n in range(34)]   #存放城市列表
rain = [''for n in range(34)]   #存放有關降雨量信息的數值
driver = webdriver.Chrome(executable_path='chromedriver')   #使用chrome瀏覽器打開
for a in range(1,5):      #直轄市數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0100.shtml'  #網址
    driver.get(url_a)    #打開網址
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(5,10):      #非直轄一位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(10,35):      #非直轄二位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
if len(rain)%2 == 0:        #尋找中值
    medium = int(len(rain)/2)
else:
    medium = int(len(rain)/2)+1
medium_text = "中位值:" + rain[medium]
d = dict(zip(city,rain))  #將城市和降水量的列表合成為字典
rain_item = []
city_min = []
city_max = []
for k,v in d.items():
    rain_item.append(float(v))
average_rain = sum(rain_item)/len(rain_item)
average_text = "平均值:"+ str(average_rain)
max_rain = max(rain_item)  #最大值
min_rain = min(rain_item)  #最小值
for k,v in d.items():
    if float(v) == min_rain:
        city_min.append(k)
min_text = "降雨量最小的城市:"+str(city_min)+" 最小值:"+str(min_rain)
for k,v in d.items():
    if float(v) ==max_rain:
        city_max.append(k)
max_text = "降雨量最大的城市:"+str(city_max)+" 最大值:"+str(max_rain)
plt.bar(range(len(d)), rain_item, align='center')
plt.xticks(range(len(d)), list(d.keys()))
plt.xlabel('城市',fontsize=20)
plt.ylabel('降水量',fontsize=20)
plt.text(0,12,average_text,fontsize=6)
plt.text(0,13,medium_text,fontsize=6)
plt.text(0,14,max_text,fontsize=6)
plt.text(0,15,min_text,fontsize=6)
plt.show()

2.運行界面

3.互動界面

使用tkinter庫進行GUI的構建使用button函數實現交互,調用編寫的get函數獲取對用戶輸入的內容進行獲取并使用循環進行遍歷處理,若城市輸入正確,則在界面上輸出當地的降水量代碼:

#-*- codeing = utf-8 -*-
from lxml import etree
from selenium import webdriver
import re
import matplotlib
matplotlib.rc("font",family='YouYuan')
from tkinter import *
import tkinter as tk
city = [''for n in range(34)]   #存放城市列表
rain = [''for n in range(34)]   #存放有關降雨量信息的數值
driver = webdriver.Chrome(executable_path='chromedriver')   #使用chrome瀏覽器打開
for a in range(1,5):      #直轄市數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0100.shtml'  #網址
    driver.get(url_a)    #打開網址
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(5,10):      #非直轄一位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(10,35):      #非直轄二位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
d = dict(zip(city,rain))  #將城市和降水量的列表合成為字典
root=tk.Tk()
root.title('降水量查詢')
root.geometry('500x200')
def get():
    values = entry.get()
    for k,v in d.items():
        if k == values:
            label = Label(root, text= v+'mm')
            label.pack()
frame = Frame(root)
frame.pack()
u1 = tk.StringVar()
entry = tk.Entry(frame, width=20, textvariable=u1,  relief="sunken")
entry.pack(side="left")
frame1 = Frame(root)
frame1.pack()
btn1=Button(frame1, text="查詢", width=20, height=1, relief=GROOVE, command=lambda :get())
btn1.pack(side="left")
root.mainloop()

4.運行界面

 

寫在最后

在爬取天氣的過程中,僅發現中國天氣網有各省份降水量的數據,可見我國在數據開源方面還有很長的路要走

到此這篇關于python爬取各省降水量及可視化詳解的文章就介紹到這了,更多相關python爬取請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章,希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python編寫可視化界面的全過程(Python+PyCharm+PyQt)
  • Python實現K-means聚類算法并可視化生成動圖步驟詳解
  • python數據分析之員工個人信息可視化
  • 關于Python可視化Dash工具之plotly基本圖形示例詳解
  • python用pyecharts實現地圖數據可視化
  • Python繪制K線圖之可視化神器pyecharts的使用
  • Python繪制詞云圖之可視化神器pyecharts的方法
  • python 可視化庫PyG2Plot的使用
  • Python數據分析之彩票的歷史數據
  • Python 數據分析之逐塊讀取文本的實現
  • Python數據分析庫pandas高級接口dt的使用詳解
  • Python Pandas數據分析工具用法實例
  • 用Python 爬取貓眼電影數據分析《無名之輩》
  • 大數據分析用java還是Python
  • python 數據分析實現長寬格式的轉換
  • PyCharm設置Ipython交互環境和宏快捷鍵進行數據分析圖文詳解
  • Python實戰之疫苗研發情況可視化

標簽:呼和浩特 股票 駐馬店 畢節 湖州 中山 衡水 江蘇

巨人網絡通訊聲明:本文標題《python爬取各省降水量及可視化詳解》,本文關鍵詞  python,爬取,各省,降水量,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬取各省降水量及可視化詳解》相關的同類信息!
  • 本頁收集關于python爬取各省降水量及可視化詳解的相關信息資訊供網民參考!
  • 推薦文章
    日韩avdvd| 日本在线不卡免费视频一区| 午夜久久网| 成人a大片在线观看| 亚飞与亚基在线观看| 欧美一区二区三区性| a级毛片免费观看网站| 国产网站免费视频| 99久久网站| 国产麻豆精品高清在线播放| 免费国产在线视频| 欧美另类videosbestsex视频| 韩国三级香港三级日本三级la| a级黄色毛片免费播放视频| 欧美激情一区二区三区在线 | 国产高清视频免费| 九九免费精品视频| 99久久精品国产高清一区二区 | 国产一区二区精品| 国产成人欧美一区二区三区的| 二级特黄绝大片免费视频大片| 欧美大片aaaa一级毛片| 成人免费观看的视频黄页| 你懂的日韩| 一本高清在线| 香蕉视频三级| 成人免费网站视频ww| 久久国产精品自由自在| 久久精品欧美一区二区| 九九久久国产精品大片| 九九干| 精品久久久久久影院免费| 久久99这里只有精品国产| 亚洲精品影院久久久久久| 国产视频一区二区在线观看| 一级毛片视频在线观看| 国产伦久视频免费观看视频| 青青青草影院| 午夜家庭影院| 免费毛片播放| 黄视频网站免费观看| 九九干| 99色视频在线观看| 日韩在线观看视频黄| 青青久久精品| 亚洲精品中文一区不卡| 天堂网中文字幕| 日本在线www| 国产成+人+综合+亚洲不卡| 香蕉视频三级| 999久久66久6只有精品| 欧美电影免费看大全| 亚洲 男人 天堂| 国产高清在线精品一区a| 成人免费观看视频| 91麻豆精品国产自产在线| 国产视频网站在线观看| 成人免费高清视频| 久久国产精品永久免费网站| 二级特黄绝大片免费视频大片| 国产伦久视频免费观看 视频| 欧美电影免费看大全| 国产麻豆精品视频| 久久久成人网| 日本在线www| 精品在线免费播放| 日韩专区在线播放| 久久精品人人做人人爽97| 精品国产亚洲人成在线| 久久久久久久久综合影视网| 青青久热| 四虎久久精品国产| 日韩在线观看免费| 久久国产一久久高清| 999久久久免费精品国产牛牛| 欧美激情一区二区三区在线播放| 久久99这里只有精品国产| 国产一区二区高清视频| 黄视频网站免费观看| 国产美女在线观看| 久久精品大片| 国产国产人免费视频成69堂| 日韩在线观看视频网站| 国产精品1024永久免费视频| 国产视频久久久| 成人高清视频在线观看| 四虎精品在线观看| 精品久久久久久中文字幕2017| 成人a级高清视频在线观看| 精品视频免费在线| 欧美一级视频免费| 韩国妈妈的朋友在线播放| 国产精品自拍亚洲| 亚洲 国产精品 日韩| 尤物视频网站在线观看| 午夜欧美成人久久久久久| 国产麻豆精品hdvideoss| 午夜在线亚洲| 亚久久伊人精品青青草原2020| 欧美激情影院| 色综合久久天天综线观看| 成人免费观看的视频黄页| 国产a视频| 精品国产亚一区二区三区| 欧美激情一区二区三区视频 | 国产亚洲男人的天堂在线观看| 日韩一级黄色片| 韩国三级香港三级日本三级| 麻豆午夜视频| 精品国产三级a| 久久精品免视看国产成人2021| 韩国三级一区| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 黄视频网站免费看| 青青青草影院| 欧美激情一区二区三区视频 | 四虎影视库| 91麻豆国产级在线| 亚洲精品永久一区| 日本特黄特色aaa大片免费| 一级女性全黄久久生活片| 国产成人精品综合久久久| 国产视频网站在线观看| 天天色色色| 欧美激情一区二区三区在线 | 美女免费精品视频在线观看| 精品国产一区二区三区精东影业| 四虎影视久久| 91麻豆精品国产高清在线| 精品国产亚一区二区三区| 一级毛片视频在线观看| 美国一区二区三区| 国产91精品一区二区| 天天做日日爱| 亚洲女人国产香蕉久久精品| 国产麻豆精品hdvideoss| 青草国产在线| 欧美激情一区二区三区在线| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 日韩avdvd| 在线观看导航| 二级特黄绝大片免费视频大片| 亚州视频一区二区| 欧美一级视频免费观看| 国产91视频网| 精品国产三级a| 四虎影视久久| 韩国毛片基地| 久久国产精品自线拍免费| 日韩av片免费播放| 欧美激情影院| 九九免费精品视频| 精品国产一区二区三区久久久狼| 尤物视频网站在线观看| 韩国三级香港三级日本三级la| 四虎影视久久久| 国产极品精频在线观看| a级毛片免费观看网站| 香蕉视频一级| 免费一级生活片| 国产一区免费观看| 成人av在线播放| 深夜做爰性大片中文| 精品视频一区二区三区| 可以免费看污视频的网站| 青草国产在线| 日韩专区第一页| 中文字幕Aⅴ资源网| 国产91丝袜在线播放0| 欧美激情一区二区三区视频高清| 亚洲精品影院久久久久久| 亚久久伊人精品青青草原2020| 精品视频在线观看免费| 一本高清在线| 欧美a级大片| 久久国产影院| 日韩在线观看免费完整版视频| 精品国产香蕉在线播出| 欧美一级视频免费| 九九精品久久| 精品国产一区二区三区久久久狼| 四虎影视久久久| 久久国产影院| 四虎影视精品永久免费网站| 国产91素人搭讪系列天堂| 成人高清免费| 黄视频网站免费看| 日本免费看视频| 中文字幕Aⅴ资源网| 欧美激情一区二区三区视频 | 韩国三级香港三级日本三级| 国产视频网站在线观看| 精品国产香蕉伊思人在线又爽又黄| 免费的黄色小视频| 免费国产一级特黄aa大片在线| 韩国三级一区| 精品视频一区二区三区| 四虎论坛| 一级片片| 你懂的日韩|