欢迎光临 - 我的站长站,本站所有资源仅供学习与参考,禁止用于商业用途或从事违法行为!

python教程

Python爬虫抓取中国天气并发送到微信

python教程 我的站长站 2021-06-17 共145人阅读

Python爬取中国天气

随便点进一个城市的详细天气预报,这里以北京为例。

按照惯例开下F12。这种实时更新的界面一般是通过AJAX传入JSON文件实现的,打开network选项卡刷新验证一下。

Python爬虫抓取中国天气并发送到微信
Python天气爬虫截图
url = "https://d1.weather.com.cn/sk_2d/101010100.html?_=1618886817920"
requests_url = requests.get(url)

这里的url是刚才那个文件的url,在Network选项卡中右键复制即可获得。

可以给requests.get加一个请求头,放一个假UA,防止被反爬。

message = json.loads(requests_url.text.encode("latin1").decode("utf8").replace("var dataSK = ", ""))

获取文件信息

这里我先用latin1 编码,再用utf-8解码,发现可以提取出正常的文本信息,这时通过str文本的replace方法把里面的代码部分var dataSK =去除,再用json库的loads方法将其转化成Python字典。

到这一步就很简单了,通过字典的键获取对应的值。

cityname = message['cityname']
aqi = int(message['aqi'])
sd = message['sd']
wd = message['WD']
ws = message['WS']
temp = message['temp']
weather = message['weather']

最后按照想要的格式输出就可以了,为了方便整个程序的操作,我把这一段代码封装成了函数。

def get_weather():
url = "https://d1.weather.com.cn/sk_2d/101010100.html?_=1618886817920"
requests_url = requests.get(url)
message = json.loads(requests_url.text.encode("latin1").decode("utf8").replace("var dataSK = ", ""))
cityname = message['cityname']
aqi = int(message['aqi'])
sd = message['sd']
wd = message['WD']
ws = message['WS']
temp = message['temp']
weather = message['weather']
if aqi <= 50:
airQuality = "优"
elif aqi <= 100:
airQuality = "良"
elif aqi <= 150:
airQuality = "轻度污染"
elif aqi <= 200:
airQuality = "中度污染"
elif aqi <= 300:
airQuality = "重度污染"
else:
airQuality = "严重污染"
return cityname + " " + '今日天气:' + weather + ' 温度:' + temp + ' 摄氏度 ' + wd + ws + ' 相对湿度:' + sd + ' 空气质量:' 
+ str(aqi) + "(" + airQuality + ")"

爬取百度热搜

不多说,直接打开F12,Network选项卡中却没有我们想要的,看来这次只能直接爬取网页了。这里要使用BeautifulSoup库。

requests_page = requests.get('http://top.baidu.com/buzz?b=1&c=513&fr=topbuzz_b42_c513')
soup = BeautifulSoup(requests_page.text, "lxml")

这里解析出所有的html代码,再F12一下看看我们需要的内容在哪个标签下。定位一下主页里的标题,啊,我一看,原来是个a标签class='list-title',这好办。

soup_text = soup.find_all("a", class_='list-title')

然后我们把它输出出来。

for text in soup_text:
print(text.string)

然后发现,还他喵的是乱码,我们再试试.encode("latin1").decode("GBK")

for text in soup_text:
print(text.string.encode("latin1").decode("GBK"))

还真成了,我吐了,敢情你俩是一家的。。。

这里改动一下,我们把他们封装进列表里面,方便整理。

def get_top_list():
requests_page = requests.get('http://top.baidu.com/buzz?b=1&c=513&fr=topbuzz_b42_c513')
soup = BeautifulSoup(requests_page.text, "lxml")
soup_text = soup.find_all("a", class_='list-title')
top_list = []
for text in soup_text:
top_list.append(text.string.encode("latin1").decode("GBK"))
return top_list

爬取金山词霸每日一句

我直接找到他的每日一句文件。

直接开始写代码,轻车熟路。这里很简单,不解释。

def get_daily_sentence():
url = "http://open.iciba.com/dsapi/"
r = requests.get(url)
r = json.loads(r.text)
content = r["content"]
note = r["note"]
daily_sentence = content + "n" + note
return daily_sentence

整理信息

简单的调用一下我们写的函数,将返回信息整理到一个字符串内即可,方便我们下一步的发送。具体代码跟随后面整体代码展示一遍展示。

通过企业微信机器人发送

首先将机器人添加到群聊,具体步骤不演示,不会自行百度或查阅官方文档。

然后获取你的机器人的webhook链接。(不要把这个链接散播出去,要不然谁都可以调用你的机器人发送信息,造成垃圾信息污染)

我们直接向这个链接发送post请求就可以完成机器人发送信息了,十分的简单。

Python爬虫抓取中国天气并发送到微信
Python天气爬虫截图
url = #这里填写你的机器人的webhook链接
headers = {"Content-Type": "text/plain"}
data = {
"msgtype": "text",
"text": {
"content": #这里填写要发送的内容,这里选择了纯文本模式
}
}
requests_url = requests.post(url, headers=headers, data=json.dumps(data))

完成。

完整代码

import simplejson as json
import requests
import datetime
import fake_useragent # 这个库可以不用
from bs4 import BeautifulSoup
import time
def get_fake_ua(): #这个函数是用来获取随机UA的,可以不用
location = '/fake_useragent_0.1.11.json' #这里是我导入的fakeuseragent库文件,可以不用
ua = fake_useragent.UserAgent(path=location)
headers = {
'user-agent': ua.random
}
return headers
def get_week_day(date):
week_day_dict = {
0: '星期一',
1: '星期二',
2: '星期三',
3: '星期四',
4: '星期五',
5: '星期六',
6: '星期天',
}
day = date.weekday()
return "今天日期为:" + str(datetime.date.today()) + ' ' + week_day_dict[day]
def get_weather():
url = "https://d1.weather.com.cn/sk_2d/101010100.html?_=1618886817920"
r_url = requests.get(url, headers=get_fake_ua())
message = json.loads(r_url.text.encode("latin1").decode("utf8").replace("var dataSK = ", ""))
cityname = message['cityname']
aqi = int(message['aqi'])
sd = message['sd']
wd = message['WD']
ws = message['WS']
temp = message['temp']
weather = message['weather']
if aqi <= 50:
airQuality = "优"
elif aqi <= 100:
airQuality = "良"
elif aqi <= 150:
airQuality = "轻度污染"
elif aqi <= 200:
airQuality = "中度污染"
elif aqi <= 300:
airQuality = "重度污染"
else:
airQuality = "严重污染"
return cityname + " " + '今日天气:' + weather + ' 温度:' + temp + ' 摄氏度 ' + wd + ws + ' 相对湿度:' + sd + ' 空气质量:' 
+ str(aqi) + "(" + airQuality + ")"
def get_top_list():
requests_page = requests.get('http://top.baidu.com/buzz?b=1&c=513&fr=topbuzz_b42_c513')
soup = BeautifulSoup(requests_page.text, "lxml")
soup_text = soup.find_all("a", class_='list-title')
i = 0
top_list = []
for text in soup_text:
i += 1
top_list.append(text.string.encode("latin1").decode("GBK"))
if i == 10:
break
return top_list
def get_daily_sentence():
url = "http://open.iciba.com/dsapi/"
r = requests.get(url, headers=get_fake_ua())
r = json.loads(r.text)
content = r["content"]
note = r["note"]
daily_sentence = content + "n" + note
return daily_sentence
def get_sendContent():
sendContent =  get_week_day(datetime.date.today()) + "nn" + get_weather() + "nn" + str(get_top_list()).replace(
"', '", 'n').replace("['", "").replace("']", "") + "nn" + get_daily_sentence()
return sendContent
def send(content):
url = # 填写你的webhook链接
headers = {"Content-Type": "text/plain"}
data = {
"msgtype": "text",
"text": {
"content": content,
}
}
requests_url = requests.post(url, headers=headers, data=json.dumps(data))
if requests_url.text == '{"errcode":0,"errmsg":"ok"}':
return "发送成功"
else:
return "发送失败" + requests_url.text
print(send(get_sendContent()))
相关专题
天气预报
天气预报
2022-06-23 54

天气预报是网站制作做经常用到的功能,我的站长站为您整理分享关于本站所有的天气预报信息,包含天气预报源码,天气预报API接口,天气预报代码教程等等....

相关推荐
  • Python抓取
  • 天气API源码
  • Python批量抓取公众号,下载音频和视频

    之前发过Python批量抓取公众号的教程,这次不抓取公众号阅读数数据,批量下载公众号文章,音频和视频,直接上代码:def video(res, headers,date): vid = re.search(r&#39;wxv_.{19}&#39;,res.text) # time.sleep(2) if vid: vid = vid.group...

    python教程 140 2年前
  • Python爬虫抓取中国天气并发送到微信

    Python爬取中国天气随便点进一个城市的详细天气预报,这里以北京为例。按照惯例开下F12。这种实时更新的界面一般是通过ajax传入json文件实现的,打开network选项卡刷新验证一下。Python天气爬虫截图url = "https://d1.weather.com.cn/sk_2d/101010100.h...

    python教程 145 3年前
  • python爬虫下载抖音用户所有短视频+无水印方法

    这次分享下载抖音用户所有短视频方法,python爬虫批量抓取,无水印下载,希望和大家多多交流互相学习!获取用户链接方法1、首先在抖音上随机挑选一个小姐姐,用户主页右上角点开,获取分享链接python下载抖音视频截图得到类似分享链接:在抖音,记录美好生活! https:...

    python教程 306 3年前
  • Python获取彩云天气实时天气API源码

    import requests # 用户输入的秘钥和经纬度(以逗号分隔)api_key = "" # 这里输入用户自己的秘钥location = "" # 输入用户的经纬度 # 抓取天气信息的函数def get_weather_info(api_key, location): try: # 实时天气API realtime_ur...

    python教程 4 4周前
  • Python爬虫抓取中国天气并发送到微信

    Python爬取中国天气随便点进一个城市的详细天气预报,这里以北京为例。按照惯例开下F12。这种实时更新的界面一般是通过ajax传入json文件实现的,打开network选项卡刷新验证一下。Python天气爬虫截图url = "https://d1.weather.com.cn/sk_2d/101010100.h...

    python教程 145 3年前
  • PHP获取城市天气API接口源码

    PHP获取城市天气API接口源码,接口调用的是微鲤的接口,2020年9月1日 10:11:07测试接口还可以正常使用。API查询接口代码<?php function tian(){ $city=$_GET[&#39;city&#39;]; $url="https://wthrcdn.etouch.cn/weather_mini?city=".$city; ...

    php教程 140 4年前
  • 免费分享一个天气Api接口(附使用示例)

    网上的大多数天气接口要么是收费的,要么只支持 iframe 嵌入方式,根本就没法用……今天“不小心”从 360 那挖到了一个支持 json 的天气接口,支持自动判断地区,获取最近五天的天气,支持天气相关信息展示。非常好用!接口请求格式如下:http://cdn.weather.hao....

    js教程 178 5年前