一、xpath操作
# xpath和css选择器一样 都是让我们快速得到标签信息 # html中选择标签,可以使用的通用方式 -css选择 -xpath选择 -XPath即为XML路径语言(XML Path Language),它是一种用来确定XML文档中某部分位置的语言 # 语法的简单介绍 -nodename 选取此节点的所有子节点 -/ 从根节点选取 /body/div -// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置 //div -. 选取当前节点。 -.. 选取当前节点的父节点。 -@ 选取属性。 # 终极大招 -复制 可以去网站上找到我们需要的位置,然后在通过右键检查,找到这个标签的位置,然后右键复制xpath即可
1.1 代码演示
doc=''' <html> <head> <base href='http://example.com/' /> <title>Example website</title> </head> <body> <div id='images'> <a href='image1.html' id='id_a'>Name: My image 1 <br/><img src='image1_thumb.jpg' /></a> <a href='image2.html'>Name: My image 2 <br /><img src='image2_thumb.jpg' /></a> <a href='image3.html'>Name: My image 3 <br /><img src='image3_thumb.jpg' /></a> <a href='image4.html'>Name: My image 4 <br /><img src='image4_thumb.jpg' /></a> <a href='image5.html' class='li li-item' name='items'>Name: My image 5 <br /><img src='image5_thumb.jpg' /></a> <a href='image6.html' name='items'><span><h5>test</h5></span>Name: My image 6 <br /><img src='image6_thumb.jpg' /></a> </div> </body> </html> ''' from lxml import etree html=etree.HTML(doc) html=etree.parse('search.html',etree.HTMLParser()) # 1 所有节点 a=html.xpath('//*') # 2 指定节点(结果为列表) a=html.xpath('//head') # 3 子节点,子孙节点 a=html.xpath('//div/a') a=html.xpath('//body/a') #无数据 a=html.xpath('//body//a') # 4 父节点 a=html.xpath('//body//a[@href="image1.html"]/..') a=html.xpath('//body//a[1]/..') # 也可以这样 a=html.xpath('//body//a[1]/parent::*') a=html.xpath('//body//a[1]/parent::div') # 5 属性匹配 a=html.xpath('//body//a[@href="image1.html"]') # 6 文本获取 text() ******** a=html.xpath('//body//a[@href="image1.html"]/text()') # 7 属性获取 ****** a=html.xpath('//body//a/@href') a=html.xpath('//body//a/@id') # # 注意从1 开始取(不是从0) a=html.xpath('//body//a[1]/@id') # 8 属性多值匹配 # a 标签有多个class类,直接匹配就不可以了,需要用contains a=html.xpath('//body//a[@class="li"]') a=html.xpath('//body//a[@name="items"]') a=html.xpath('//body//a[contains(@class,"li")]') a=html.xpath('//body//a[contains(@class,"li")]/text()') # 9 多属性匹配 a=html.xpath('//body//a[contains(@class,"li") or @name="items"]') a=html.xpath('//body//a[contains(@class,"li") and @name="items"]/text()') # 10 按序选择 a=html.xpath('//a[2]/text()') a=html.xpath('//a[3]/@href') # 取最后一个 a=html.xpath('//a[last()]/@href') # 位置小于3的 a=html.xpath('//a[position()<3]/@href') # 倒数第二个 a=html.xpath('//a[last()-2]/@href') # 11 节点轴选择 # ancestor:祖先节点 # 使用了* 获取所有祖先节点 a=html.xpath('//a/ancestor::*') # # 获取祖先节点中的div a=html.xpath('//a/ancestor::div') # attribute:属性值 a=html.xpath('//a[1]/attribute::*') a=html.xpath('//a[1]/attribute::href') # child:直接子节点 a=html.xpath('//a[1]/child::*') # descendant:所有子孙节点 a=html.xpath('//a[6]/descendant::*') # following:当前节点之后所有节点 a=html.xpath('//a[1]/following::*') a=html.xpath('//a[1]/following::*[1]/@href') # following-sibling:当前节点之后同级节点 a=html.xpath('//a[1]/following-sibling::*') a=html.xpath('//a[1]/following-sibling::a') a=html.xpath('//a[1]/following-sibling::*[2]') a=html.xpath('//a[1]/following-sibling::*[2]/@href') print(a)
二、selenium动作链
# 网站中有些按住鼠标,滑动的效果 -滑动验证码 # 两种形式 -形式一: actions=ActionChains(bro) #拿到动作链对象 actions.drag_and_drop(sourse,target) #把动作放到动作链中,准备串行执行 actions.perform() -方式二: ActionChains(bro).click_and_hold(sourse).perform() distance=target.location['x']-sourse.location['x'] track=0 while track < distance: ActionChains(bro).move_by_offset(xoffset=2,yoffset=0).perform() track+=2
三、自动登入12306
# 因为登入12306有滑动验证码校验 所以我们可以使用到selenium的动作链 from selenium import webdriver from selenium.webdriver.common.by import By import time from selenium.webdriver import ActionChains from selenium.webdriver.chrome.options import Options options = Options() # 12306检测到了我们使用了selenium控制了浏览器,所以它的滑块出不来 所以我们需要去掉这些检测 options.add_argument("--disable-blink-features=AutomationControlled") # 去掉自动化控制的提示 bro = webdriver.Chrome(executable_path='./chromedriver.exe', options=options) bro.get('https://kyfw.12306.cn/otn/resources/login.html') bro.maximize_window() bro.implicitly_wait(10) try: username = bro.find_element(by=By.ID, value='J-userName') # 获取用户输入框 username.send_keys('') # 输入用户名 password = bro.find_element(by=By.ID, value='J-password') # 获取密码输入框 password.send_keys('') # 输入密码 time.sleep(3) btn = bro.find_element(by=By.ID, value='J-login') # 获取登入按钮 btn.click() # 点击登入按钮 span = bro.find_element(by=By.ID, value='nc_1_n1z') # 获取滑动验证码按钮 ActionChains(bro).click_and_hold(span).perform() # 鼠标点主 ActionChains(bro).move_by_offset(xoffset=300, yoffset=0).perform() # 滑动 直接向右滑动300 time.sleep(10) except Exception as e: print(e) finally: bro.close()
四、打码平台使用
# 有时候有些登入需要使用验证码才能够登入那么我们可以借助第三方来帮我们实现 # 可以使用超级鹰 import time from selenium import webdriver from selenium.webdriver.common.by import By from chaojiying import ChaojiyingClient # 超级鹰提供给我们的sdk from PIL import Image bro = webdriver.Chrome(executable_path='./chromedriver.exe') bro.get('http://www.chaojiying.com/apiuser/login/') bro.implicitly_wait(10) bro.maximize_window() try: username = bro.find_element(by=By.XPATH, value='/html/body/div[3]/div/div[3]/div[1]/form/p[1]/input') # 使用xpath找到用户输入框 password = bro.find_element(by=By.XPATH, value='/html/body/div[3]/div/div[3]/div[1]/form/p[2]/input') code = bro.find_element(by=By.XPATH, value='/html/body/div[3]/div/div[3]/div[1]/form/p[3]/input') btn = bro.find_element(by=By.XPATH, value='/html/body/div[3]/div/div[3]/div[1]/form/p[4]/input') username.send_keys('') # 输入用户名 password.send_keys('') # 输入密码 # 获取验证码 我们可以先把整个页面截图,然后在使用pillow截出验证码图片,然后交给超级鹰帮我们识别: # 1 整个页面截图 bro.save_screenshot('main.png') # 2 使用pillow,从整个页面中截取出验证码图片 code.png img = bro.find_element(By.XPATH, '/html/body/div[3]/div/div[3]/div[1]/form/div/img') # 利用xpath找到验证码图片 location = img.location size = img.size print(location) # 位置 print(size) # 大小 # 使用pillow扣除大图中的验证码 验证码的左上角的xy轴 到 验证码的右下角的xy轴 img_tu = (int(location['x']), int(location['y']), int(location['x'] + size['width']), int(location['y'] + size['height'])) # # 抠出验证码 # #打开 img = Image.open('./main.png') # 抠图 fram = img.crop(img_tu) # 截出来的小图 fram.save('code.png') # 3 使用超级鹰破解 chaojiying = ChaojiyingClient('', '', '937234') # 用户名和密码还有超级鹰给我们的id # 用户中心>>软件ID 生成一个替换 96001 im = open('code.png', 'rb').read() # 本地图片文件路径 来替换 a.jpg 有时WIN系统须要// print(chaojiying.PostPic(im, 1902)) # 1902 验证码类型 官方网站>>价格体系 3.4+版 print 后要加() res_code=chaojiying.PostPic(im, 1902)['pic_str'] code.send_keys(res_code) time.sleep(5) btn.click() time.sleep(10) except Exception as e: print(e) finally: bro.close()
五、使用selenium爬取京东的商品信息
from selenium import webdriver from selenium.webdriver.common.by import By # 按照什么方式查找,By.ID,By.CSS_SELECTOR import time from selenium.webdriver.common.keys import Keys def get_goods(driver): try: goods = driver.find_elements(by=By.CLASS_NAME, value='gl-item') # 先找商品信息框 for good in goods: name = good.find_element(by=By.CSS_SELECTOR, value='.p-name em').text # 商品名字 price = good.find_element(by=By.CSS_SELECTOR, value='.p-price i').text # 商品价格 commit = good.find_element(by=By.CSS_SELECTOR, value='.p-commit a').text # 商品评论 url = good.find_element(by=By.CSS_SELECTOR, value='.p-name a').get_attribute('href') # 商品地址 img = good.find_element(by=By.CSS_SELECTOR, value='.p-img img').get_attribute('src') # 商品图片 if not img: # 因为京东加载商品是按照懒加载的 所以页面最下面的图片会获取不到 所以我们需要使用其他获取 img ='https://'+ good.find_element(by=By.CSS_SELECTOR, value='.p-img img').get_attribute('data-lazy-img') print(''' 商品名字:%s 商品价格:%s 商品链接:%s 商品图片:%s 商品评论:%s ''' % (name, price, url, img, commit)) button = driver.find_element(by=By.PARTIAL_LINK_TEXT, value='下一页') button.click() time.sleep(1) get_goods(driver) except Exception as e: print(e) def spider(url, keyword): driver = webdriver.Chrome(executable_path='./chromedriver.exe') driver.get(url) driver.implicitly_wait(10) # 使用隐式等待 try: input_tag = driver.find_element(by=By.ID, value='key') # 获取输入框 input_tag.send_keys(keyword) # 输入想要获取的商品名字 input_tag.send_keys(Keys.ENTER) # 按回车 get_goods(driver) # 执行 finally: driver.close() if __name__ == '__main__': spider('https://www.jd.com/', keyword='精品内衣') # 地址, 获取什么商品
七、scrapy框架介绍
# 前面学的都是模块,做专业的爬虫,可以使用框架 (django:web) scrapy:爬虫框架 -做爬虫用的东西,都封装好了,只需要在固定的位置写固定的代码即可 # scrapy 号称爬虫界的djagno -django 大而全,做web相关的它都用 -scrapy 大而全,做爬虫的,它都用 # 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据或者通用的网络爬虫 # 安装 scrapy -mac,linux: pip3 install scrapy -win:看人品 -pip3 install scrapy -人品不好: 1、pip3 install wheel #安装后,便支持通过wheel文件安装软件 xx.whl 3、pip3 install lxml 4、pip3 install pyopenssl 5、下载并安装pywin32:https://sourceforge.net/projects/pywin32/files/pywin32/ 6、下载twisted的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted 7、执行pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl 8、pip3 install scrapy # 释放出scrapy 可执行文件 -以后使用这个创建爬虫项目 ---》django-admin创建django项目 # 创建爬虫项目 scrapy startproject myfirstscrapy # 创建爬虫 [django创建app] scrapy genspider cnblogs www.cnblogs.com # 启动爬虫 scrapy crawl cnblogs --nolog # pycharm中运行 新建run.py from scrapy.cmdline import execute execute(['scrapy', 'crawl', 'cnblogs','--nolog'])
标签:xpath,body,selenium,爬虫,bro,html,div,find From: https://www.cnblogs.com/stephenwzh/p/16955978.html