项目背景
随着数据分析和信息检索的普及,开发一个能够自动获取用户输入关键词并展示结果的网页应用成为现代Web开发的重要方向。此项目利用Python的requests库实现HTTP请求,通过BeautifulSoup解析HTML,同时实现数据存储和本地运行的独立功能。
技术思路
- 网络请求与接口调用:使用Python的
requests库发送POST请求,通过HTTP协议获取目标服务器返回的数据。 - 文件读写与数据处理:将处理后的数据存储为JSON文件,方便后续使用。
- 事件响应机制:通过按钮触发请求,实现用户输入与数据展示的自动化流程。
代码实现
import requests
from bs4 import BeautifulSoup
def fetch_info(url, keyword):
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/53757 (KHTML, like Gecko) Chrome/120.0.5987.0 Safari/53757"
}
try:
response = requests.get(url, headers=headers, params={keyword: 1})
response.raise_for_status()
soup = BeautifulSoup(response.text, 'html.parser')
result = soup.find('div', class_='result')
data = result.get_text(strip=True)
print(f"结果:{data}")
return data
except Exception as e:
print(f"请求失败:{e}")
return "请求失败,请检查输入是否正确"
# 示例输入
url_input = "https://example.com/temperature?city=London"
keyword_input = "London"
data = fetch_info(url_input, keyword_input)
数据展示示例
<!DOCTYPE html>
<html>
<head>
<title>信息查询</title>
</head>
<body>
<h1>关键词查询结果</h1>
<div class="result">
<p>您查询的London地区温度情况如下:</p>
<p>平均温度:22°C</p>
<p>最大温度:28°C</p>
<p>最小温度:18°C</p>
</div>
</body>
</html>
总结
本教程展示了如何利用Python的requests和BeautifulSoup实现一个网页信息查询工具。通过简单但有效的代码示例,我们不仅实现了数据的自动获取和展示,还实现了数据的存储和本地运行功能。项目展示了现代Web开发中技术整合的典型应用,能够帮助用户快速完成信息检索任务,同时具备良好的可维护性和运行效率。