首页 > 其他分享 >代码

代码

时间:2023-04-01 15:46:35浏览次数:37  
标签:weibo name 代码 driver elem div find

import time import xlrd from  selenium import webdriver from selenium.webdriver.common.keys import Keys import os import requests import json import excelSave as save import re
from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC # from database import parse_and_save_comments  # 导入新建的Python文件和函数 import pymysql import datetime
# 用来控制页面滚动 def Transfer_Clicks(browser):     time.sleep(5)     try:         browser.execute_script("window.scrollBy(0,document.body.scrollHeight)", "")     except:         pass     return "Transfer successfully \n"
#判断页面是否加载出来 def isPresent():     temp =1     try:         driver.find_elements_by_css_selector('div.line-around.layout-box.mod-pagination > a:nth-child(2) > div > select > option')     except:         temp =0     return temp
#插入数据 def insert_data(elems,path,name,yuedu,taolun,num,save_pic):     for elem in elems:         workbook = xlrd.open_workbook(path)  # 打开工作簿         sheets = workbook.sheet_names()  # 获取工作簿中的所有表格         worksheet = workbook.sheet_by_name(sheets[0])  # 获取工作簿中所有表格中的的第一个表格         rows_old = worksheet.nrows  # 获取表格中已存在的数据的行数               rid = rows_old         #用户名         weibo_username = elem.find_elements_by_css_selector('h3.m-text-cut')[0].text         weibo_userlevel = "普通用户"         #微博等级         try:             weibo_userlevel_color_class = elem.find_elements_by_css_selector("i.m-icon")[0].get_attribute("class").replace("m-icon ","")             if weibo_userlevel_color_class == "m-icon-yellowv":                 weibo_userlevel = "黄v"             if weibo_userlevel_color_class == "m-icon-bluev":                 weibo_userlevel = "蓝v"             if weibo_userlevel_color_class == "m-icon-goldv-static":                 weibo_userlevel = "金v"             if weibo_userlevel_color_class == "m-icon-club":                 weibo_userlevel = "微博达人"             except:             weibo_userlevel = "普通用户"         #微博内容         #点击“全文”,获取完整的微博文字内容         weibo_content = get_all_text(elem)         #获取微博图片         if save_pic:             num = get_pic(elem,num)         #获取分享数,评论数和点赞数                       shares = elem.find_elements_by_css_selector('i.m-font.m-font-forward + h4')[0].text         if shares == '转发':             shares = '0'         comments = elem.find_elements_by_css_selector('i.m-font.m-font-comment + h4')[0].text         if comments == '评论':             comments = '0'         likes = elem.find_elements_by_css_selector('i.m-icon.m-icon-like + h4')[0].text         if likes == '赞':             likes = '0'
        #发布时间         weibo_time = elem.find_elements_by_css_selector('span.time')[0].text         '''         print("用户名:"+ weibo_username + "|"               "微博等级:"+ weibo_userlevel + "|"               "微博内容:"+ weibo_content + "|"               "转发:"+ shares + "|"               "评论数:"+ comments + "|"               "点赞数:"+ likes + "|"               "发布时间:"+ weibo_time + "|"               "话题名称" + name + "|"               "话题讨论数" + yuedu + "|"               "话题阅读数" + taolun)         '''         value1 = [[rid, weibo_username, weibo_userlevel,weibo_content, shares,comments,likes,weibo_time,keyword,name,yuedu,taolun],]         # 爬取的数据         print("当前插入第%d条数据" % rid)         save.write_excel_xls_append_norepeat(book_name_xls, value1)         # 创建MySQL连接         conn = pymysql.connect(host='localhost', port=3306, user='root', password='123456', db='topic')             # 创建数据库游标对象         cursor = conn.cursor()         # 定义插入数据的 SQL 语句         # sql = "INSERT INTO weibo (rid, weibo_username, weibo_userlevel,weibo_content, shares,comments,likes,weibo_time,keyword,name,yuedu,taolun) VALUES (%s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s)"         for item in value1:             data = {}             # 在这里获取微博数据并赋值给 data 字典             # 构造 SQL 语句             sql = "INSERT INTO weibo (rid, weibo_username, weibo_userlevel,weibo_content, shares,comments,likes,weibo_time,keyword,name,yuedu,taolun) VALUES (%s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s)"             values = (data["rid"], data["用户名称"], data["微博等级"], data["微博内容"], data["微博转发量"], data["微博评论量"], data["微博点赞"], data["发布时间"], data["搜索关键词"], data["话题名称"], data["话题讨论数"], data["话题阅读数"])             # 执行 SQL 语句             cursor.execute(sql, values)             # 提交事务         conn.commit()         cursor.close()         conn.close()
#获取“全文”内容 def get_all_text(elem):     try:         #判断是否有“全文内容”,若有则将内容存储在weibo_content中         href = elem.find_element_by_link_text('全文').get_attribute('href')         driver.execute_script('window.open("{}")'.format(href))         driver.switch_to.window(driver.window_handles[1])         weibo_content = driver.find_element_by_class_name('weibo-text').text         driver.close()         driver.switch_to.window(driver.window_handles[0])     except:         weibo_content = elem.find_elements_by_css_selector('div.weibo-text')\                         [0].text     return weibo_content
def get_pic(elem,num):     try:         #获取该条微博中的图片元素,之后遍历每个图片元素,获取图片链接并下载图片         #如果是多张图片         if elem.find_elements_by_css_selector\            ('div > div > article > div > div:nth-child(2) > div > ul > li') != [] :             pic_links = elem.find_elements_by_css_selector\            ('div > div > article > div > div:nth-child(2) > div > ul > li')             for pic_link in pic_links:                 pic_link = pic_link.find_element_by_css_selector\                            ('div > img').get_attribute('src')                 response = requests.get(pic_link)                 pic = response.content                 with open(pic_addr + str(num) + '.jpg', 'wb') as file:                     file.write(pic)                     num += 1         #如果图片只有一张         else:             pic_link = elem.find_element_by_css_selector\                        ('div > div > article > div > div:nth-child(2) > div > div > img').\                        get_attribute('src')             response = requests.get(pic_link)             pic = response.content             with open(pic_addr + str(num) + '.jpg', 'wb') as file:                 file.write(pic)                 num += 1     except Exception as e:         print(e)     return num     #获取当前页面的数据 def get_current_weibo_data(elems,book_name_xls,name,yuedu,taolun,maxWeibo,num):     #开始爬取数据         before = 0         after = 0         n = 0         timeToSleep = 100         while True:             before = after             Transfer_Clicks(driver)             time.sleep(3)             elems = driver.find_elements_by_css_selector('div.card.m-panel.card9')             print("当前包含微博最大数量:%d,n当前的值为:%d, n值到5说明已无法解析出新的微博" % (len(elems),n))             after = len(elems)             if after > before:                 n = 0             if after == before:                         n = n + 1             if n == 5:                 print("当前关键词最大微博数为:%d" % after)                 insert_data(elems,book_name_xls,name,yuedu,taolun,num,save_pic)                 break             if len(elems)>maxWeibo:                 print("当前微博数以达到%d条"%maxWeibo)                 insert_data(elems,book_name_xls,name,yuedu,taolun,num,save_pic)                 break             '''             if after > timeToSleep:                 print("抓取到%d多条,插入当前新抓取数据并休眠5秒" % timeToSleep)                 timeToSleep = timeToSleep + 100                 insert_data(elems,book_name_xls,name,yuedu,taolun,num,save_pic)                 time.sleep(5)             ''' #爬虫运行 def spider(username,password,book_name_xls,sheet_name_xls,keyword,maxWeibo,num,save_pic):         #创建文件     if os.path.exists(book_name_xls):         print("文件已存在")     else:         print("文件不存在,重新创建")         # weibo_id         value_title = [["rid", "用户名称", "微博等级", "微博内容", "微博转发量","微博评论量","微博点赞","发布时间","搜索关键词","话题名称","话题讨论数","话题阅读数"],]         #? value_title = [["rid", "name", "grade", "text", "zhuanfa","comment","dianzan","time","keyword","theme","taolun","yuedu"],]         save.write_excel_xls(book_name_xls, sheet_name_xls, value_title)
    # 写入数据库         #加载驱动,使用浏览器打开指定网址       driver.set_window_size(452, 790)     driver.get('https://m.weibo.cn')         driver.get("https://passport.weibo.cn/signin/login")     print("开始自动登陆,若出现验证码手动验证")     time.sleep(3)
    elem = driver.find_element_by_xpath("//*[@id='loginName']");     elem.send_keys(username)     elem = driver.find_element_by_xpath("//*[@id='loginPassword']");     elem.send_keys(password)     elem = driver.find_element_by_xpath("//*[@id='loginAction']");     elem.send_keys(Keys.ENTER)       print("暂停20秒,用于验证码验证")     time.sleep(2)             # 添加cookie     #将提前从chrome控制台中复制来的cookie保存在txt中,转化成name, value形式传给的driver     #实现自动登录     #如果txt中的cookie是用保存的,则可以直接使用, 无需转化     '''     driver.delete_all_cookies()     with open(r'./weibocookie.txt') as file:         cookies = json.loads(file.read())     for name, value in cookies.items():         print(name, value)         driver.add_cookie({'name': name, 'value': value})     driver.refresh()     '''             while 1:  # 循环条件为1必定成立         result = isPresent()         # 解决输入验证码无法跳转的问题         driver.get('https://m.weibo.cn/')         print ('判断页面1成功 0失败  结果是=%d' % result )         if result == 1:             elems = driver.find_elements_by_css_selector('div.line-around.layout-box.mod-pagination > a:nth-child(2) > div > select > option')             #return elems #如果封装函数,返回页面             break         else:             print ('页面还没加载出来呢')             time.sleep(20)     time.sleep(2)
    #搜索关键词 //*[@id="app"]/div[1]/div[1]/div[1]/div/div/div[2]/form/input     elem = driver.find_element_by_xpath("//*[@class='m-text-cut']").click();     # 改元素=微博话题的名称     点击搜索框     time.sleep(2)     # elem = driver.find_element_by_xpath("//*[@type='search']");     # 定位搜索栏     elem = driver.find_element_by_xpath("//*[@id='app']/div[1]/div[1]/div[1]/div/div/div[2]/form/input");         # 点击搜索按钮     elem.send_keys(keyword)     elem.send_keys(Keys.ENTER)     time.sleep(5)
#   删去了下面的,搜索关键词带##直接跳转到疫情超话界面     # elem = driver.find_element_by_xpath("//*[@class='box-left m-box-col m-box-center-a']")     # 修改为点击超话图标进入超话,减少错误         # 搜索疫情--点击话题--点击#疫情#(讨论,阅读)--点击超话疫情(帖子粉丝)--     # elem = driver.find_element_by_xpath("//img[@src ='http://simg.s.weibo.com/20181009184948_super_topic_bg_small.png']")     # elem=driver.find_element_by_css_selector("#app > div:nth-child(1) > div:nth-child(1) > div:nth-child(2) > div.module-page-fragment > div.m-container-max.m-top-nav > div > div > div > ul > li:nth-child(10) > span")     #     elem = driver.find_element_by_xpath("//*[@id='app']/div[1]/div[1]/div[2]/div[2]/div[1]/div/div/div/ul/li[10]/span") # #    搜索肺炎后,点击搜索框下的超话按钮, # # 然后进入第一个肺炎超话。  直接搜索#疫情#进入超话 #     elem.click()     print("超话链接获取完毕,休眠2秒")       time.sleep(2)     name = keyword       #  //*[@id="app"]/div[1]/div[1]/div[1]/div[4]/div/div/div/a/div[2]/h4[1] 超话里帖子那行     # shishi_element = driver.find_element_by_xpath("//*[@class='scroll-box nav_item']/ul/li/span[text()='帖子']")     # shishi_element = driver.find_element_by_xpath("//*[@id='app']/div[1]/div[1]/div[4]/div/div/div[2]/div/div/div/div[3]/div/div/h4")     # shishi_element = driver.find_element_by_xpath("//*[@id='app']/div[1]/div[1]/div[4]/div/div/div[2]/div/div/div")     get_current_weibo_data(elems,book_name_xls,name,yuedu,taolun,maxWeibo,num) #爬取实时     time.sleep(2)   if __name__ == '__main__':     username = "你的微博登录名" #你的微博登录名     password = "你的微博登录名" #你的密码       # driver.get('https://m.weibo.cn')     # driver_path ="C:\\Users\han\.cache\selenium\chromedriver\win32\111.0.5563.64"     driver_path ="./chromedriver.exe"     driver = webdriver.Chrome(executable_path=driver_path )     #你的chromedriver的地址     driver.implicitly_wait(2)#隐式等待2秒
    # book_name_xls = "test.xls" #填写你想存放excel的路径,没有文件会自动创建 mlxg     book_name_xls = "table.xls"     sheet_name_xls = '微博数据' #sheet表名 数据写入xls的微博数据列     maxWeibo = 10 #设置最多多少条微博     keywords = ["#疫情#",] # 此处可以设置多个超话关键词     num = 1     save_pic = False  #设置是否同时爬取微博图片,默认不爬取     pic_addr = 'img/' #设置自己想要放置图片的路径         # 将解析的评论数据写入MySQL数据库     parse_and_save_comments(weibo_id, comments)
    for keyword in keywords:         spider(username,password,book_name_xls,sheet_name_xls,keyword,maxWeibo,num,save_pic) driver.quit() # 关闭网页

标签:weibo,name,代码,driver,elem,div,find
From: https://www.cnblogs.com/1h1y/p/17278715.html

相关文章

  • AI写代码 GitHub Copilot + Idea 安装和使用教程
    GitHubCopilot是微软与OpenAI共同推出的一款AI编程工具,基于GitHub及其他网站的源代码,根据上文提示为程序员自动编写下文代码,可以极大地提高编写代码的效率。根据已有上下文补全代码根据函数名和参数,生成方法体根据注释自动生成代码代码优化生成测试代码一、GitHubCopil......
  • 3.实现代码提示
    笔记软件在2023/4/112:20:32推送该笔记定义命令(package.json)"activationEvents":[ "onLanguage:soildity" ], "main":"./extension.js","contributes":{"languages":[{"id"......
  • 代码随想录day 32● 122.买卖股票的最佳时机II ● 55. 跳跃游戏 ● 45.跳跃游戏II
    122.买卖股票的最佳时机II给定一个数组,它的第 i个元素是一支给定股票第i天的价格。设计一个算法来计算你所能获取的最大利润。你可以尽可能地完成更多的交易(多次买卖一支股票)。注意:你不能同时参与多笔交易(你必须在再次购买前出售掉之前的股票)。示例1:输入:[7,1,5,3,6......
  • PHP 实现 PHP在线代码运行工具
    转载来源https://www.cnblogs.com/XiaoMingBlingBling/p/14651830.html demo源码下载:点击下载  HTML代码(index.html):注:代码编撰区域使用开源项目ACE(Ajax.orgCloud9Editor)实现<!DOCTYPEhtml><htmllang="zh"><head><metacharset="UTF-8......
  • 代码大全 阅读笔记03
    复杂数据类型恰当地对数据进行结构化,可以使程序更简单、更容易理解也更容易维护。可以用表来代替复杂的逻辑结构。当你被程序的复杂逻辑迷惑时,应考虑是否可用查寻表来简化程序。抽象数据类型是降低复杂性的有力武器。它使你可以分层编写程序,而且是从问题域,而不是程序语言细节来编......
  • 共享单车需求量数据用CART决策树、随机森林以及XGBOOST算法登记分类及影响因素分析|附
    全文链接:http://tecdat.cn/?p=28519作者:YiyiHu最近我们被客户要求撰写关于共享单车的研究报告,包括一些图形和统计输出。近年来,共享经济成为社会服务业内的一股重要力量。作为共享经济的一个代表性行业,共享单车快速发展,成为继地铁、公交之后的第三大公共出行方式但与此同时,它......
  • IntelliJ IDEA技巧 格式化代码、有时候代码太乱,手动调整代码代码多的时候太浪费时间了
    系列文章目录文章目录系列文章目录第一步第二步开始使用第一步更改Java等常用代码的展示效果1、打开IDEA左上角File—>Settings。2、选择Editor—>CodeStyle—>Java(可根据实际需要更改语言)。第二步开始使用前面的工作做完之后,这里的格式化代码的快捷键才会出来试试看......
  • 项目一众筹网05_03_树的节点的增删改查、radio、代码里面实现模拟用户点击重置、每次
    系列文章目录文章目录系列文章目录18-添加子节点-目标和思路19-添加子节点-前端:打开模态框20-添加子节点-前端:发送Ajax请求==代码里面实现模拟用户点击重置==21-添加子节点-后端==bug发现异步的问题:每次加载数据的时候都要考虑一下异步的问题==22-更新节点-目标和思路23-更新节点......
  • 虾皮shopee商品详情接口,虾皮商品详情接口代码教程
    业务场景:作为全球最大的B2C电子商务平台之一,shopee平台提供了丰富的商品资源,吸引了大量的全球买家和卖家。为了方便开发者接入拼多多平台,shopee平台提供了丰富的API接口,其中商品详情接口是非常重要的一部分。大家有探讨稳定采集shopee整站实时商品详情数据接口,通过该接口开......
  • 基于国产车规级处理器T507-H开发平台,如何用50行Python代码实现图传和人脸识别?
    我们在米尔国产T507-H车规级处理器的开发板上尝试无线图传功能,并且叠加人脸识别检测视频中是否存在人脸。这次使用的是USB摄像头,可以直接接在开发板的接口上。1.连接摄像头连接好摄像头后使用指令dmesg,看到能读取到摄像头。显示为HIK720pCamera接下来使用v4l来检测相机的详细参......