首页 > 编程语言 >探索 Python Web 开发:从框架到爬虫

探索 Python Web 开发:从框架到爬虫

时间:2024-10-16 17:17:45浏览次数:3  
标签:__ Web Python 爬虫 Django Flask API requests

Python 是 Web 开发中广泛使用的编程语言,因其简单、灵活和强大的生态系统,适合构建各种类型的 Web 应用和 API。在本篇博客中,我们将讨论 Web 开发的几个重要主题,包括 Flask 和 Django 框架、API 开发、HTTP 请求处理以及网页爬虫的基础。

9.1 Flask 框架基础

Flask 是一个轻量级的 Python Web 框架,非常适合构建小型应用或 API。由于其灵活性,Flask 提供了极简的开发体验,开发者可以自由选择各种扩展。

安装 Flask

你可以通过 pip 安装 Flask:

pip install Flask

创建一个简单的 Flask 应用

from flask import Flask

app = Flask(__name__)

@app.route('/')
def hello():
    return "Hello, Flask!"

if __name__ == '__main__':
    app.run(debug=True)

在这个简单的应用中,我们定义了一个根路由 /,返回 “Hello, Flask!”。运行程序后,服务器将开始监听并响应 HTTP 请求。

Flask 还提供了支持模板、表单处理、数据库集成和会话管理的功能。

9.2 Django 框架基础

Django 是一个功能齐全的 Web 框架,遵循 "Django for perfectionists with deadlines" 的理念。它内置了大量功能,适合快速开发大型 Web 应用。

安装 Django

通过 pip 安装 Django:

pip install Django

创建一个 Django 项目

django-admin startproject mysite
cd mysite
python manage.py runserver

Django 会自动创建项目文件结构,包括 settings.py 文件、URL 路由文件以及应用的入口点。

创建一个简单的 Django 应用

你可以使用以下命令创建应用,并在 urls.py 中定义路由:

python manage.py startapp myapp

# 在 myapp/views.py 中定义视图
from django.http import HttpResponse

def hello(request):
    return HttpResponse("Hello, Django!")

# 在 myapp/urls.py 中定义路由
from django.urls import path
from . import views

urlpatterns = [
    path('', views.hello),
]

Django 提供了 ORM(对象关系映射),模板引擎,用户认证,管理后台等功能,使其成为构建复杂 Web 应用的强大工具。

9.3 API 开发与 RESTful 架构

API(应用程序接口)允许客户端与服务器进行通信。在 Web 开发中,RESTful API 是一种常见的架构风格,它强调资源的表现和使用 HTTP 动词(如 GET、POST、PUT、DELETE)来执行操作。

Flask 中的 API 开发

可以使用 Flask 来创建 RESTful API:

from flask import Flask, jsonify, request

app = Flask(__name__)

# 模拟数据
items = [{'id': 1, 'name': 'Item 1'}, {'id': 2, 'name': 'Item 2'}]

@app.route('/items', methods=['GET'])
def get_items():
    return jsonify(items)

@app.route('/items', methods=['POST'])
def add_item():
    new_item = request.json
    items.append(new_item)
    return jsonify(new_item), 201

if __name__ == '__main__':
    app.run(debug=True)

Django 中的 API 开发

在 Django 中,可以使用 Django REST Framework 来开发 API:

pip install djangorestframework

然后在 views.py 中定义 API 视图,并在 urls.py 中设置路由:

from rest_framework.views import APIView
from rest_framework.response import Response

class ItemView(APIView):
    def get(self, request):
        return Response({'message': 'GET request'})

    def post(self, request):
        data = request.data
        return Response({'message': 'POST request', 'data': data})

API 的设计应该基于资源,将每个资源(如用户、文章)设计为一个唯一的 URL,并根据 HTTP 方法执行不同操作。

9.4 使用 requests 处理 HTTP 请求

requests 是 Python 中最流行的 HTTP 库,简化了处理 HTTP 请求的工作。你可以用它发送 GET、POST、PUT、DELETE 等请求,并轻松处理响应。

安装 requests

pip install requests

使用 requests 发送 HTTP 请求

import requests

# 发送 GET 请求
response = requests.get('<https://api.example.com/data>')
print(response.status_code)  # 输出响应状态码
print(response.json())  # 以 JSON 格式解析响应

# 发送 POST 请求
payload = {'key': 'value'}
response = requests.post('<https://api.example.com/data>', json=payload)
print(response.status_code)
print(response.json())

requests 非常适合与 REST API 进行交互,并且提供了简洁的接口来管理会话、处理认证和异常。

9.5 网页爬虫基础 (BeautifulSoup, Scrapy)

网页爬虫是一种自动化工具,允许你从网站上提取数据。Python 提供了几个常用的爬虫工具,如 BeautifulSoup和 Scrapy

使用 BeautifulSoup 进行网页解析

BeautifulSoup 是一个用于解析 HTML 和 XML 文档的库,结合 requests 可以实现简单的网页爬虫。

pip install beautifulsoup4

示例:

import requests
from bs4 import BeautifulSoup

# 获取网页内容
response = requests.get('<https://example.com>')
soup = BeautifulSoup(response.text, 'html.parser')

# 查找所有链接
links = soup.find_all('a')
for link in links:
    print(link.get('href'))

使用 Scrapy 进行爬虫开发

Scrapy 是一个强大的爬虫框架,适合构建复杂的爬虫。

安装 Scrapy:

pip install Scrapy

使用 Scrapy,创建爬虫项目,并定义爬虫类:

scrapy startproject myproject

定义爬虫:

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['<https://example.com>']

    def parse(self, response):
        for link in response.css('a::attr(href)').getall():
            yield {'link': link}

运行爬虫:

scrapy crawl myspider

总结

Web 开发是 Python 的一大强项,不论你是想构建简单的应用,还是大型的企业系统,Python 都能提供相应的工具。从 Flask 和 Django 框架到 API 开发,再到 HTTP 请求和网页爬虫,Python 的生态系统几乎涵盖了 Web 开发的各个方面。


版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

标签:__,Web,Python,爬虫,Django,Flask,API,requests
From: https://blog.csdn.net/qq_45728381/article/details/142967024

相关文章

  • Python学习的自我理解和想法(10)
    学的是b站的课程(千锋教育),跟老师写程序,不是自创的代码!今天是学Python的第10天,学的内容是函数。开学了,时间不多,写得不多,见谅。目录1.函数入门2.函数使用说明1.定义函数2.函数组成3.函数命名4.函数参数5.函数易忘点6.函数的调用3.函数调用时的注意事项4.函数的参数(1......
  • Python入门:A+B问题
    1.A+B问题I前言本篇作为课程第一篇,主要是对Python基础语法进行扫盲,本节课会学习到下面知识:输入本道题目的工作任务很简单,只是计算两个数的和,但是在计算之前,我们首先要明确的一个问题就是如何把这两个数据输入到计算机中,并由程序读取呢?输入当然是使用键盘之类的输入设备完......
  • python-基础-常见字符串格式化方法总结
    1.f-string方法案例:点击查看代码#计算圆的面积importmathdefcalculate_circle_area(radius):"""计算圆的面积"""returnmath.pi*(radius**2)radius=5#圆的半径area=calculate_circle_area(radius)print(f"圆的面积为:{area:.2f}"......
  • python中的函数和方法的区别是什么
    python中的函数和方法的区别:1、函数要手动传self,方法不用传self。2、如果是一个函数,要用类名去调用,如果是一个方法,要用对象去调用。举例说明:class Foo(object):    def __init__(self):        self.name="haiyan"    def func(self):     ......
  • python如何将list排序
    python提供了对list排序的两种方法1、使用list内建函数sort排序list.sort(key=None,reverse=False)eg:In [57]: l=[27,47,3,42,19,9]In [58]: l.sort()In [59]: lOut[59]: [3, 9, 19, 27, 42, 47]上面这种是直接对l列表里面的元素排序,sort()函数还提供......
  • python中怎么遍历字典
    遍历字典:keys() 、values()、items()1、xxx.keys():返回字典的所有的key,返回一个序列,序列中保存有字典的所有的键。效果图:代码:# keys() 该方法会返回字典的所有的key#   该方法会返回一个序列,序列中保存有字典的所有的键d = {'name':'孙悟空','age':1......
  • 外网爆火!仅需Python基础,即可从0构建LLM大语言模型(附PDF)
    在当今人工智能技术飞速发展的时代,大型语言模型(LLM)作为聊天机器人、文本生成和理解等应用的核心,已经成为研究和商业领域关注的焦点。但对于大多数开发者来说,它们的工作原理仍然是一个黑箱,更不用说如何从头开始构建一个这样的模型了。而《从头开始构建大型语言模型》这本书,......
  • python+flask框架的 基于Java的外卖系统设计与实现 前台mp48(开题+程序+论文) 计算机
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容选题背景随着互联网技术的飞速发展,外卖服务已成为人们日常生活中不可或缺的一部分。关于外卖系统的研究,现有研究主要以技术实现和用户体验优化为主......
  • python+flask框架的 基于Java的外卖系统设计与实现前台mp48(开题+程序+论文) 计算机毕
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容选题背景随着互联网的快速发展和人们生活节奏的加快,外卖服务已成为现代都市生活中不可或缺的一部分。关于外卖系统的研究,现有研究主要以技术实现和......
  • Python vs Java:爬虫任务中的效率比较
    爬虫技术作为一种自动化的数据采集手段,广泛应用于数据挖掘、信息聚合、内容监控等多个领域。Python和Java是两种流行的编程语言,它们都可以用来开发高效的爬虫程序。本文将探讨Python和Java在爬虫任务中的效率,并展示如何在代码中设置代理信息以提高爬虫的可用性和安全性。......