首页 > 编程语言 >基于selenium的爬取dblp论文的python爬虫

基于selenium的爬取dblp论文的python爬虫

时间:2024-10-03 16:23:47浏览次数:6  
标签:dblp python 元素 selenium element url HTML print 页面

出于阅读文献的需要,导师让我写一个能够爬取dblp上文献资料的爬虫,话不多说,开学。

学习路径总结

  • 前端基本知识
  • request库与bs库
  • 目标特征,规划爬取步骤
  • 动态加载的应对方法-selenium

前端基本知识

前端开发是指创建Web页面或应用程序用户可以与之交互的部分。前端开发主要涉及三种语言:HTML、CSS和JavaScript。

  1. HTML:HTML 是 HyperText Markup Language(超文本标记语言)的缩写,是用于创建网页内容的标准标记语言。HTML 不是一种编程语言,而是一种标记语言,标记语言是一套标记标签 (markup tag)。HTML 使用标记标签来描述网页。HTML 文档包含了HTML 标签及文本内容。HTML文档也叫做 web 页面。

  2. CSS:CSS 是 Cascading Style Sheets(级联样式表)的缩写,用于描述网页上的元素应该如何被渲染。它可以让我们的网页更加美观,例如定义颜色、字体、布局等。

  3. JavaScript:JavaScript 是一种轻量级的编程语言。JavaScript 是可插入 HTML 页面的编程代码。JavaScript 插入 HTML 页面后,可由所有的现代浏览器执行。JavaScript 很容易学习。它是一种解释性脚本语言,主要用于在浏览器上实现更复杂的功能。

HTML 基本介绍:

HTML 文档,也称为网页,由嵌套的 HTML 元素和文本组成。HTML元素通过"标签"进行标记。标签通常是成对出现的,比如 <p></p>,其中 <p> 是开始标签,</p> 是结束标签。

下面是一个简单的 HTML 文档示例:

<!DOCTYPE html>
<html>
<head>
    <title>页面标题</title>
</head>
<body>
    <h1>这是一个标题</h1>
    <p>这是一个段落。</p>
    <p>这是另一个段落。</p>
    <a href="https://www.runoob.com">这是一个链接</a>
    <img src="https://s2.loli.net/2024/03/07/MTh95SVOIcARyL1.jpg" width="720" height="540" />
    <div id="header">This is a header</div> 
    <p class="text-muted">This is a paragraph.</p>
    <!--class: 给元素指定一个或多个类名,方便通过 CSS 或 JavaScript 操作-->
    <span style="color: red;">This text is red.</span>
    <!--style: 直接为元素定义 CSS 样式-->
    <img src="https://s2.loli.net/2024/01/31/TD67mOMGSt3EkPY.gif" alt="Description" width="180" height="135">
    <!--其中alt表示图片的描述文本-->
    </body>
</html>
  • <!DOCTYPE html> 声明这是一个 HTML5 文档。
  • <html> 元素是根元素,页面的所有其他元素都嵌套在其中。
  • <head> 元素包含了所有的头部标签元素。在 <head>元素中你可以插入脚本(scripts), 样式文件(CSS),及各种meta信息。
  • <title> 元素描述了页面的标题。
  • <body> 元素包含了可见的页面内容。
  • <h1> 元素定义一个大标题。
  • <p> 元素定义一个段落。

渲染效果如图所示在浏览器中的渲染结果

requests库与bs库基本使用方法

requests.get()

res = requests.get(url,headers=headers,params,timeout)
""" url:要抓取的 url 地址。

• headers:用于包装请求头信息。

• params:请求时携带的查询字符串参数。

• timeout:超时时间,超过时间会抛出异常。"""
"res是一个Httpresponse响应对象,具备以下属性"
import requests
response = requests.get('http://www.baidu.com')
print(response.encoding)
response.encoding="utf-8"    #更改为utf-8编码
print(response.status_code)  # 打印状态码
print(response.url)          # 打印请求url
print(response.headers)      # 打印头信息
print(response.cookies)      # 打印cookie信息
print(response.text)  #以字符串形式打印网页源码
print(response.content) #以字节流形式打印


request下载图片:

import requests
url = 'https://ss2.bdstatic.com/70cFvnSh_Q1YnxGkpoWK1HF6hhy/it/u=38785274,1357847304&fm=26&gp=0.jpg'
#简单定义浏览器ua信息
headers = {'User-Agent':'Mozilla/4.0'}
#读取图片需要使用content属性
html = requests.get(url=url,headers=headers).content
#以二进制的方式下载图片
with open('C:/Users/Administrator/Desktop/image/python_logo.jpg','wb') as f:
    f.write(html)


此处仅仅介绍get方法,post,cookie,session等内容暂且用不上。

bs库

Beautiful Soup是一个用于解析结构化数据的Python 库。它允许您以与使用开发人员工具与网页交互类似的方式与 HTML 交互。

soup=BeautifulSoup(page.content,"html.parser")

注意是解析content内容,因为解析text可能出现字符编码问题,而content属性保留原始字节,更加方便解码。

而html.parer是其一种解析器,其他解析器参见[解析器概述](Beautiful Soup 文档 — Beautiful Soup 4.12.0 文档 --- Beautiful Soup Documentation — Beautiful Soup 4.12.0 documentation (crummy.com))

而我们已经知道,在html网页中,每个元素都将分配一个div属性,使其具有唯一可识别性。

result=soup.find(id="***")"""这将返回第一个id为***的元素"""
job_elements = results.find_all("div", class_="card-content")"""返回所有class为'card-content'的内容"""
for job_element in job_elements:
    title_element = job_element.find("h2", class_="title")
    company_element = job_element.find("h3", class_="company")
    location_element = job_element.find("p", class_="location")
    print(title_element.text.strip())#strip用于删除多余空格
    print(company_element.text.strip())
    print(location_element.text.strip())
    print()
    python_jobs = results.find_all("h2", string="Python")#string将严格匹配h2内容

解析原站html

这一步主要通过f12或是查看网站源代码实现(注意f12通过检查看到的源代码虽然齐整,却是经过处理后的,可能出现与网页源代码不一致的情况)

此处以[dblp中搜索icml 2024为例](dblp: Search for "icml 2024"),我们可以知道dblp搜索页面为我们提供了论文列表,而我们可以通过列表中的url信息访问论文源站,因此爬取策略定为从dblp中获取每一篇论文的url,然后再通过url抓取论文的标题,摘要等信息。

try:
            # 获取所有 'publ' 类的元素
            soup = bs(driver.page_source, 'html.parser')
            all_urls = soup.find_all("nav", attrs={"class": "publ"})
        except Exception as e:
            print(f"解析页面时出错: {e}")
            return []

        urls = []
        for publ in all_urls:
            try:
                first_a = publ.find('a')
                if first_a and 'href' in first_a.attrs:
                    urls.append(first_a['href'])
            except Exception as e:
                print(f"提取 URL 时出错: {e}")

        return urls

但此时就会发现一个问题,即dblp的搜索网页采用了动态加载模式,即其不会一次性加载所有内容,而是会在你浏览到页面底部时自动刷新其余内容,这样就带来了一个问题,如果我们直接get源站内容就只能获取网页初始呈现的内容,为了解决这一问题,我们就需要selenium来帮助我们模拟浏览器的这一下拉行为,从而获取网页的所有内容。

selenium

def fetch_dblp_urls(query):
    # 设置 Edge 浏览器选项
    edge_options = Options()#配置浏览器启动参数,z
    edge_options.add_argument("--headless")  
"""add_argument(argument) 方法:
用途:向浏览器添加启动参数。
参数:argument 是字符串,表示启动参数。
示例:options.add_argument("--start-maximized")
功能:添加参数 --headless,使浏览器以无界面模式运行(不显示界面)"""
    # 启动 Edge 浏览器
    service = Service(r"D:\tool\edgedriver_win32\msedgedriver.exe")  # 替换为实际的 msedgedriver 路径
    """Service(executable_path) 类:
来源:from selenium.webdriver.edge.service import Service
用途:指定 EdgeDriver 可执行文件的位置"""
    driver = webdriver.Edge(service=service, options=edge_options)#创建了一个交互对象
	
    try:
        url = f"https://dblp.org/search?q={query}"#f-string字符串格式化,用以在字符串中嵌入变量***
        driver.get(url)#让浏览器访问指定url

        try:
            # 等待页面加载
            WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CLASS_NAME, 'publ')))
            """WebDriverWait(driver, timeout) 类:
来源:from selenium.webdriver.support.ui import WebDriverWait
用途:显式等待,直到某个条件发生或超时。
until(method, message='') 方法:
用途:等待某个条件成立。                      
EC.presence_of_element_located(locator):
来源:from selenium.webdriver.support import expected_conditions as EC
用途:判断某个元素是否出现在 DOM 中。
By.CLASS_NAME:
来源:from selenium.webdriver.common.by import By
用途:定位策略,通过元素的 class 属性定位。
功能:
等待最多 10 秒,直到页面中出现 class 为 'publ' 的元素。"""
        except Exception as e:
            print(f"页面加载时出错: {e}")

        # 模拟滚动以加载更多内容
        last_height = driver.execute_script("return document.body.scrollHeight")
        """
driver.execute_script("return document.body.scrollHeight")
execute_script(script, *args) 方法:
用途:在当前页面执行 JavaScript 脚本。
参数:
script:要执行的 JavaScript 代码。
*args:脚本中需要的参数。
功能:
获取当前页面的总高度(滚动高度),用于判断是否需要继续滚动加载。
"""
        while True:
            try:
                # 滚动到底部
                driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
"""JavaScript 脚本解释:
window.scrollTo(x, y):将窗口滚动到指定位置。
document.body.scrollHeight:页面的总高度。
功能:
将页面滚动到最底部,触发懒加载或无限滚动加载新内容"""
                time.sleep(2)  # 等待加载更多内容

                # 检查新内容是否已加载
                new_height = driver.execute_script("return document.body.scrollHeight")
                if new_height == last_height:  # 如果没有新内容
                    break
                last_height = new_height
            except Exception as e:
                print(f"滚动过程中出错: {e}")
                break

        try:
            # 获取所有 'publ' 类的元素
            soup = bs(driver.page_source, 'html.parser')
            all_urls = soup.find_all("nav", attrs={"class": "publ"})
        except Exception as e:
            print(f"解析页面时出错: {e}")
            return []

        urls = []
        for publ in all_urls:
            try:
                first_a = publ.find('a')
                if first_a and 'href' in first_a.attrs:
                    urls.append(first_a['href'])
            except Exception as e:
                print(f"提取 URL 时出错: {e}")

        return urls
    except Exception as e:
        print(f"处理过程中出现错误: {e}")
    finally:
        driver.quit()  # 关闭浏览器

这里是本次项目使用到的selenium模块,当然selenium内容还有很多,就不再在一一列举了。

总结一下:

  1. 获取用户输入的查询关键字和年份。
  2. 使用 Selenium 启动无界面的 Edge 浏览器,访问构造的 DBLP 搜索页面。
  3. 等待页面加载指定的元素,确保内容已显示。
  4. 模拟用户滚动操作,加载更多内容,直到所有内容加载完成。
  5. 使用 BeautifulSoup 解析页面源代码,提取所有目标链接。
  6. 返回提取的链接列表。
  7. 根据目标链接指向的源站,重复使用bs提取其中的abstract与title,由于各种不同源站结构不同,所以分类讨论的过程极其折磨。

这里仅提供其中一个示例

   elif "openreview" in url:
                #divcontent 
                title=soup.find("h2", attrs={"class": "citation_title"})
                if title:
                    title=title.text
                else:
                    title=None
                abstract = soup.find("span", attrs={"class": "note-content-value"})
                if abstract:
                    abstract = abstract.text
                else:
                    abstract = None

最后将爬取的摘要与信息写入文件,就大功告成了。

效果图

标签:dblp,python,元素,selenium,element,url,HTML,print,页面
From: https://www.cnblogs.com/seniorous/p/18445762

相关文章

  • Python并发编程(1)——Python并发编程的几种实现方式
    左手编程,右手年华。大家好,我是一点,关注我,带你走入编程的世界。公众号:一点sir,关注领取python编程资料Python并发编程是指在Python中编写能够同时执行多个任务的程序。并发编程在任何一门语言当中都是比较难的,因为会涉及各种各样的问题,在Python当中也不例外。Python提供了多......
  • 【艾思科蓝】Python数据分析与可视化实战:从入门到进阶
    【IEEE出版|会后3-4个月EI检索】第三届云计算、大数据应用与软件工程国际学术会议(CBASE2024)_艾思科蓝_学术一站式服务平台更多学术会议请看:学术会议-学术交流征稿-学术会议在线-艾思科蓝 目录引言一、Python数据分析入门1.Python数据分析环境搭建2.数据读取与预......
  • python3 队列的使用
    在leetcode如下题目中使用队列637.二叉树的层平均值:#Definitionforabinarytreenode.#classTreeNode:#def__init__(self,val=0,left=None,right=None):#self.val=val#self.left=left#self.right=rightclassSolutio......
  • 在Visual Studio Code中配置使用venv隔离python环境
    venv的用途Python的venv是一个用于创建虚拟环境的模块,主要作用是为每个项目提供一个隔离的Python运行环境。这样不同项目的依赖可以相互独立,不会产生冲突。例如,一个项目可以使用Python3.8,另一个项目使用Python3.10,彼此之间不受影响。相比其他环境管理工具,如conda,venv是Python......
  • [Python手撕]二叉树中的最大路径和
    #Definitionforabinarytreenode.#classTreeNode:#def__init__(self,val=0,left=None,right=None):#self.val=val#self.left=left#self.right=rightclassSolution:defmaxPathSum(self,root:Optional[TreeNod......
  • 全网最适合入门的面向对象编程教程:55 Python字符串与序列化-字节序列类型和可变字节字
    全网最适合入门的面向对象编程教程:55Python字符串与序列化-字节序列类型和可变字节字符串摘要:在Python中,字符编码是将字符映射为字节的过程,而字节序列(bytes)则是存储这些字节的实际数据结构,字节序列和可变字节字符串的主要区别在于其可变性和用途,bytearray是可变的字节序列......
  • lazy_loader python 子包以及函数懒加载框架
    lazy_loaderpython子包以及函数懒加载框架,内部处理上是基于了importlib.import_module进行动态加载包含的特性可以确保子模块对于用户的可见行,不引起而外的开销允许外部库在使用的时候被加载,提升导入时间说明此包在kedro的datasets模块中使用比较多,基本上每个datase......
  • python必会的函数或者操作
    排序sorted(data,reverse=TrueorFalse)zip()将多个可迭代对象打包成一个元组列表listorset(zip())map()对可迭代对象中的每个元素应用函数map(data,func)filter()跟map类似的用法reduce()对可迭代对象中的元素进行累计计算fromfunctoolsimportreduce......
  • [转]Selenium
    Seleniumhttps://www.selenium.dev/ GettingStarted SeleniumWebDriver Ifyouwanttocreaterobust,browser-basedregressionautomationsuitesandtests,scaleanddistributescriptsacrossmanyenvironments,thenyouwanttouseSeleniumW......
  • python+flask计算机毕业设计门诊管理系统(程序+开题+论文)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容研究背景随着医疗技术的飞速发展和患者需求的日益增长,传统的手工门诊管理模式已难以满足现代医院高效、精准、便捷的服务要求。门诊作为医院面向患......