实验目的
能够独立部署RYU控制器;
能够理解RYU控制器实现软件定义的集线器原理;
能够理解RYU控制器实现软件定义的交换机原理。
实验要求
(一)基本要求
搭建下图所示SDN拓扑,协议使用Open Flow 1.0,并连接Ryu控制器,通过Ryu的图形界面查看网络拓扑。
- 建立拓扑
sudo mn --topo=single,3 --mac --controller=remote,ip=127.0.0.1,port=6633 --switch ovsk
- 连接Ryu控制器
ryu-manager ryu/ryu/app/gui_topology/gui_topology.py --observe-links
- 通过Ryu的图形界面查看网络拓扑
在浏览器中打开http://127.0.0.1:8080
阅读Ryu文档的The First Application一节,运行当中的L2Switch,h1 ping h2或h3,在目标主机使用 tcpdump 验证L2Switch,分析L2Switch和POX的Hub模块有何不同。
- 创建L2Switch.py文件并添加代码
from ryu.base import app_manager
from ryu.controller import ofp_event
from ryu.controller.handler import MAIN_DISPATCHER
from ryu.controller.handler import set_ev_cls
from ryu.ofproto import ofproto_v1_0
class L2Switch(app_manager.RyuApp):
OFP_VERSIONS = [ofproto_v1_0.OFP_VERSION]
def __init__(self, *args, **kwargs):
super(L2Switch, self).__init__(*args, **kwargs)
@set_ev_cls(ofp_event.EventOFPPacketIn, MAIN_DISPATCHER)
def packet_in_handler(self, ev):
msg = ev.msg
dp = msg.datapath
ofp = dp.ofproto
ofp_parser = dp.ofproto_parser
actions = [ofp_parser.OFPActionOutput(ofp.OFPP_FLOOD)]
data = None
if msg.buffer_id == ofp.OFP_NO_BUFFER:
data = msg.data
out = ofp_parser.OFPPacketOut(
datapath=dp, buffer_id=msg.buffer_id, in_port=msg.in_port,
actions=actions, data = data)
dp.send_msg(out)
-
运行L2
Switch ryu-manager L2Switch.py
-
mininet>
pingall
-
开启主机终端 mininet>xterm h2 h3
在h2主机终端中输入tcpdump -nn -i h2-eth0
在h3主机终端中输入tcpdump -nn -i h3-eth0-
h1 ping h2
-
h1 ping h3
-
-
分析L2Switch和POX的Hub模块有何不同
Hub和L2Switch模块都是洪泛转发,但L2Switch模块下发的流表无法查看,而Hub模块下发的流表可以查看
编程修改L2Switch.py,另存为L2xxxxxxxxx.py,使之和POX的Hub模块的变得一致
创建文件L2032002539.py
from ryu.base import app_manager
from ryu.ofproto import ofproto_v1_3
from ryu.controller import ofp_event
from ryu.controller.handler import MAIN_DISPATCHER, CONFIG_DISPATCHER
from ryu.controller.handler import set_ev_cls
class hub(app_manager.RyuApp):
OFP_VERSIONS = [ofproto_v1_3.OFP_VERSION]
def __init__(self, *args, **kwargs):
super(hub, self).__init__(*args, **kwargs)
@set_ev_cls(ofp_event.EventOFPSwitchFeatures, CONFIG_DISPATCHER)
def switch_feathers_handler(self, ev):
datapath = ev.msg.datapath
ofproto = datapath.ofproto
ofp_parser = datapath.ofproto_parser
# install flow table-miss flow entry
match = ofp_parser.OFPMatch()
actions = [ofp_parser.OFPActionOutput(ofproto.OFPP_CONTROLLER, ofproto.OFPCML_NO_BUFFER)]
# 1\OUTPUT PORT, 2\BUFF IN SWITCH?
self.add_flow(datapath, 0, match, actions)
def add_flow(self, datapath, priority, match, actions):
# 1\ datapath for the switch, 2\priority for flow entry, 3\match field, 4\action for packet
ofproto = datapath.ofproto
ofp_parser = datapath.ofproto_parser
# install flow
inst = [ofp_parser.OFPInstructionActions(ofproto.OFPIT_APPLY_ACTIONS, actions)]
mod = ofp_parser.OFPFlowMod(datapath=datapath, priority=priority, match=match, instructions=inst)
datapath.send_msg(mod)
@set_ev_cls(ofp_event.EventOFPPacketIn, MAIN_DISPATCHER)
def packet_in_handler(self, ev):
msg = ev.msg
datapath = msg.datapath
ofproto = datapath.ofproto
ofp_parser = datapath.ofproto_parser
in_port = msg.match['in_port'] # get in port of the packet
# add a flow entry for the packet
match = ofp_parser.OFPMatch()
actions = [ofp_parser.OFPActionOutput(ofproto.OFPP_FLOOD)]
self.add_flow(datapath, 1, match, actions)
# to output the current packet. for install rules only output later packets
out = ofp_parser.OFPPacketOut(datapath=datapath, buffer_id=msg.buffer_id, in_port=in_port, actions=actions)
# buffer id: locate the buffered packet
datapath.send_msg(out)
- 运行结果:
运行ryu-manager L2032002539.py
(二)进阶要求
阅读Ryu关于simple_switch.py和simple_switch_1x.py的实现,以simple_switch_13.py为例,完成其代码的注释工作,并回答下列问题:
- a) 代码当中的mac_to_port的作用是什么?
mac_to_port的作用是保存mac地址到交换机端口的映射
- b) simple_switch和simple_switch_13在dpid的输出上有何不同?
在simple_switch_13.py中为dpid = format(datapath.id, "d").zfill(16)
在simple_switch.py中为dpid = datapath.id
在simple_switch_13.py中使用了zfill() 方法返回指定长度为16的字符串,原字符串右对齐,前面填充0;而simple_switch.py直接输出dpid
- c) 相比simple_switch,simple_switch_13增加的switch_feature_handler实现了什么功能?
增加了实现交换机以特性应答消息响应特性请求功能
- d) simple_switch_13是如何实现流规则下发的?
在触发PacketIn事件后,首先解析相关数据结构,获取协议信息、获取源端口、包学习,交换机信息,以太网信息,等。如果以太网类型是LLDP类型,则忽略。如果不是LLDP类型,则获取目的端口和源端口还有交换机id,然后进行交换机自学习,先学习源地址对应的交换机的入端口,再查看是否已经学习目的mac地址,如果没有就洪泛转发。如果学习过,则查看是否有buffer_id,如果有则在添加流时加上buffer_id,向交换机发送数据包和流表。
- e) switch_features_handler和_packet_in_handler两个事件在发送流规则的优先级上有何不同?
switch_features_handler下发流表的优先级比_packet_in_handler高
编程实现和ODL实验的一样的硬超时功能。
-
编写代码
timeout.py
-
建立拓扑
sudo mn --topo=single,3 --mac --controller=remote,ip=127.0.0.1,port=6633 --switch ovsk
-
运行
ryu-manager timeout.py
-
mininet>
h1 ping h2
-
查看流表
dpctl dump-flows
个人总结
本次实验难度适可,通过本次实现,我了解了ryu的基础应用,初步了解了RYU控制器实现软件定义的集线器原理和
RYU控制器实现软件定义的交换机原理。并在对比上次实验POX与这次实验RYU的实验操作,我更加理解了mininet 控
制流表下发和硬超时。
在实验中,我在运行L2Switch ryu-manager L2Switch.py
这一步骤中出了点小问题,原因是因为我打开
的另一终端占用了ryu端口,使得代码无法成功运行,在关闭该终端后,代码便可正常运行,也可以ping通了。