cisco nexus7000 基本系统配置
1.开启cdp
cdp enable
cdp format device-id system-name 默认是对端设备的设备名
2.ntp开启
普通vdc2下开启ntp同步,先在default vdc上打上clock protocol ntp vdc 2
DC1-N7K-2(config)# ntp server 10.1.1.1 use-vrf mannagement
DC1-N7K-2(config)# ntp source-interface mamt 0
3.cisco Fabric services (CFS) 配置同步
switch(config)#cfs ipv4 distribute #cfs基于ipv4分发
switch(config)#ntp distribute #将ntp分发出去
4.schdeuler 计划任务
定义计划任务
feature scheduler
switch(config)#scheduler job name glabjob
switch(config-job)#reload
switch(config-job)#configure
switch(config-job-config)#ip route 10.1.1.0/24 10.1.1.1
switch(config-job-config)#exit
调用计划任务
switch(config)#scheduler schedule name glabscheduler
switch(config-schedule)#job name glabjob
switch(config-schedule)#time daliy 12:00
switch(config-schedule)#exit
5.抓包,只能抓取cpu处理的流量,不能抓取过站的流量
switch#ethanalyzer local interface inband captrue-filter "tcp.port eq 23 or icmp or host 10.1.1.1" limit-captured-frames 100
6.rollback 配置快照及回滚
switchconfig)#license grace-period 使用120天的授权,实验环境
switch(config)#checkpoint B #创建当前快照
switch(config)#checkpoint A
show diff rollback-patch checkpoint A checkpoint B #比较两个快照的不一样的地方
switch(config)#rollback running-config checkpoint B #回滚到B快照
7.配置session,不生效,只有commit之后才生效,一般做割接用
switch(config)#configure session GLAB
switch(config-s)#*****
switch(config-s)#verify #检查语法,不生效
switch(config-s)#commit #提交生效
cisco nexus7000 VDC虚拟化
1.4种vdc类型(default vdc no-default vdc admin vdc storge vdc)
default vdc中可以管理vdc,同时能跑生产流量
2.limit-resource module-type f1 m1 m1-xl m2-xl 是默认配置,关联设备的模块
注意:在一个模块上接口必须以port group为单位关联到VDC,不然关联不上
3.具体配置no-default vdc
switch(config)#vdc DC1-N7K-2 #创建no-default vdc 如果是创建storage vdc (vdc DC1-N7K-2 type storage)
switch(config-vdc)#allocate interface ethernet eth3/39-40 #将相应接口关联到vdc
switch(config-vdc)#boot-order 2 #vdc的先启动vdc2
4.创建admin vdc (DC1-N7K-1)
DC1-N7K-1(config)#system admin-vdc migrate DC1-N7K-5 作用:把DC1-N7K-1的普通vdc功能迁移到DC1-N7K-5中去,只保留管理VDC作用
5.vdc间的切换,去做配置
DC1-N7K-1#switchto vdc DC1-N7K-2
DC1-N7K-1-DC1-N7K-2#switchback #退回上一级vdc 前缀的名字变长 (no vdc combined-hostname)可能将前缀定位到指定的vdc
6.vdc的高可用
双引擎模式,有三种模式(bringdown restart switchover)
单引擎模式,有三种模式(bringdown reload restart)
bringdown:vdc 挂了就挂了
restart:vdc挂了试着重启
switchover:vdc试着初始化另外一块引擎
switch(config-vdc)#ha-policy single-sup (bringdown reload restart)
switch(config-vdc)#ha-policy dual-sup (bringdown restart switchover)
查看命令: show vdc DC1-N7K-2 detail
cisco nexus7000 接口配置
1.bfd配置
feature bdf
int vlan 34 #接口下关闭ip redirects
no ip redirects
router os 1 #ospf下调用bdf检测
bfd
show bfd neighbors #查看bfd邻居
cisco nexus7000 FEX配置(应用于父子系统之间)
feature fex
fex 158 -----创建fex板卡号,后续就是以158号命令接口号
int eth e1/1
switchport mode fex-fabic
fex associate 158
feature fex
int eth1/1-2
channel-gourp 158
on shut
fex 158
int port-channle 158
switchport mode fex-fabic
fex associate po158
查看fex状态:show fex
cisco nexus7000 CFS配置(Evpc配置)
n5k-2:
cfs ipv4 distribute
configure sync
switch-profile cisco
sync-peer destination 172.16.5.51
n5k-1:
cfs ipv4 distribute
configure sync
switch-profile cisco
sync-peers destination 172.16.5.52
vlan 10
int eth101/1/20,eth102/1/20
shut
speed 1000
chan 1 mode active
no shut
int por1
switch acc vlan 10
verity
commit
cisco nexus7000 OTV配置
组播建OTV邻居(优点当站点比较多的情况下,可以极大的节省带宽)
一、三层路由可达
二、组播(OTV join interface要开启ip igmp ver 3,上联的Agg的接口要开启pim和igmpv3,沿途的三层互联口开启pim,配置ip pim rp-address 20.0.0.1)
1、OTV设备join interface配置:
int e1/34
ip igmp ver 3 ---默认是igmp ver 2 没有配置v3只会影响站点内的组播的流量,不会影响otv的控制和数据层面的流量
2、OTV上联Agg设备接口开启pim和igmp,同时Agg设备上指向组播RP
feature pim
int e1/34
ip pim sparse-mode
ip igmp ver 3
ip pim rp-address 20.0.0.1
三、二层internal接口
除了OTV到Agg设备的二层trunk,vlan外,还得建立site-vlan用做在多OTV设备拓扑发现其它OTV边界设备
四、OTV配置
1、在Agg设备开启各vlan的svi接口,测试站点内的svi口的连通性
2、在OTV设备上
feature otv
otv site-vlan 10
otv site-identifier 0x1 ----同一站点内保持一致,不同站点的一定要不一致
interface overlay 0
otv control-group 224.1.1.1
otv data-group 232.1.1.0/24
otv extend-vlan 100,101 ----扩展的vlan ID
otv join-interface e1/34
五、针对有hsrp的,实现本地化
1、过滤hsrp的虚拟mac地址,在OTV设备上做
mac-list HSRP-VMAC deny 0000.0c07.ac00 ffff.ffff.ff00
mac-list HSRP-VMAC deny 0000.0c9f.f000 ffff.ffff.f000
mac-list HSRP-VMAC permit 0000.0000.0000 0000.0000.0000
route-map HSRP-VMAC-Filter permit 10
match mac-list HSRP-VMAC
otv-isis default
vpn overlay0
redistribute filter route-map HSRP-VMAC-Filter
2、过滤hsrp的组播,在OTV设备上做
ip access-list hsrp
permit udp any 224.0.0.2/32 eq 1985
permit udp any 224.0.0.102/32 eq 1985
ip access-list all-ips
match ip any any
vlan access-map hsrp-localize 10
match ip address hsrp
action drop
vlan access-map hsrp-localize 20
match ip address all-ips
action forward
vlan filter hsrp-localize vlan-list 100
vlan filter hsrp-localize vlan-list 101
查看命令:show otv adjacency | show otv overlay 0 | show otv vlan | show otv arp-nd-cache | show mac address-table vlan 100 | show otv route
注意:OTV设备一般会与Agg分开,也就是OTV的设备上不会有svi接口,这样做的目的是,OTV二层扩展之后,hsrp等一些流量也会扩展到其他站点,这样就会存在次优路径问题,则需要在OTV上去调用策略过滤hsrp的流量,使其hsrp站内本地化
如果OTV和svi在同一个设备上会将本地的hsrp的组播流也会过滤
单播建OTV邻居(优点当站点比较少一般2,3站点的情况下,简化OTV的配置)
站点1,存在两个OTV的情况
第一个OTV为主(10.10.1.1)
interface overlay0
otv join-interface eth3/17
otv extend-vlan 100-101
otv adjacency-server unicast-only
no shutdown
第二个OTV为辅(10.10.1.2)
interface overlay0
otv join-interface eth3/17
otv extend-vlan 100-101
otv adjacency-server unicast-only
otv use-adjacency-server 10.10.1.1 unicast-only ----指向主的那个OTV
站点2,存在一个OTV的话
interface overlay0
otv join-interface eth3/17
otv extend-vlan 100-101
otv adjacency-server unicast-only
otv use-adjacency-server 10.10.1.1 10.10.1.2 unicast-only ----指向主的那个OTV
Cisco n5k VXLAN配置
core网络如支持组播的情况下,vxlan无需控制层面,但是泛洪流量大占用带宽
幻想RP:ip pim rp-address 10.10.10.1 bidir
VXLAN与OTV的比较
1.OTV能实现不同数据中心间的vlan的扩展,但不能增加vlan的数量仍为4096,vxlan也能实现数据中心间的vlan的扩展,能扩展vxlan vni的数量为1600万
2.OTV存在控制层面和数据层面,所有的OTV设备能通过GC(group control)组播组或单播来建立邻居关系,通过邻居间GD(group data)组播组的通告将各自的mac、otv表项传递给对方。VXLAN不存在控制层面,是通过数据驱动泛洪式学习,存在大量泛洪流量
3.vxlan能通过vxlan网关来实现不同vni间的通信
4.vxlan能结合MP-BGP来实现vxlan的控制层面,减少泛洪式学习的cost值
5.vxlan可以实现分布式网关,优化网络次优路径