Ruby语言爬虫是指使用Ruby编写的网络爬虫程序,用于自动化地从互联网上获取数据。其中,CRawler是一个基于文本的小型地牢爬虫,它被设计为可扩展,所有游戏数据均通过JSON文件提供,程序仅处理游戏引擎。除此之外,还有其他令人敬畏的网络爬虫,蜘蛛和各种语言的资源,如Python、Java、C#、JavaScript、PHP、C++、Ruby、R、Erlang、Perl、Go、Scala等。
1、Ruby语言爬虫是指使用Ruby编写的网络爬虫程序,用于自动化地从互联网上获取数据。
2、CRawler是一个基于文本的小型地牢爬虫,它被设计为可扩展,所有游戏数据均通过JSON文件提供,程序仅处理游戏引擎。
3、除了CRawler之外,还有其他令人敬畏的网络爬虫,蜘蛛和各种语言的资源,如Python、Java、C#、JavaScript、PHP、C++、Ruby、R、Erlang、Perl、Go、Scala等。
上代码
require 'open-uri'
require 'nokogiri'
require 'watir'
# 设置爬虫ip服务器信息
proxy_host = 'duoip'
proxy_port = '8000'
# 创建一个爬虫ip服务器对象
proxy = URI::HTTP.build(host: proxy_host, port: proxy_port)
# 使用Nokogiri库解析网页内容
html = open('meeting.tencent', http_proxy: proxy)
doc = Nokogiri::HTML(html)
# 使用Watir库遍历网页中的所有视频链接
browser = Watir::Browser.new(:chrome)
browser.goto 'meeting.tencent'
links = browser.links
links.each do |link|
link_url = link.href
if link_url =~ /video/ # 判断链接是否指向视频
browser.goto link_url
video_url = browser.title # 获取视频URL
puts video_url
end
end
这段代码首先导入了所需的库,包括OpenURI、Nokogiri和Watir。然后,它设置了爬虫ip服务器的主机名和端口号,并创建了一个爬虫ip服务器对象。接着,它使用Nokogiri库解析了指定网页的内容,并使用Watir库遍历了网页中的所有链接。对于每个链接,它检查是否指向视频,如果是,则获取该视频的URL并打印出来。注意,这段代码需要在安装了OpenSSL和谷歌浏览器的环境中运行。
标签:写个,url,ruby,爬虫,link,proxy,Ruby,browser From: https://blog.51cto.com/u_13488918/8162591