您的位置:新葡亰496net > 服务器网络 > 卡夫卡质量优化之坎坷路,nmcli网卡绑定与teami

卡夫卡质量优化之坎坷路,nmcli网卡绑定与teami

发布时间:2019-06-19 08:48编辑:服务器网络浏览(71)

    Kafka品质优化之坎坷路(2),kafka品质优化

    接上一篇:

    题外话:
     上一篇轻易说了刹那间和好对kafka的一些基础明白,以及c 中哪些采纳librdkafka来达成我们团结的事务须求。这一篇就来商讨商讨一些另类游戏的方法,跟代码非亲非故,用到的技能也不算新,可是令作者备感奇异的是,竟然从未人那样使用过,实施过。。。
     笔者挺哀痛的,这么一些通用且实用,而且通过非常粗略的操作就会进级数倍质量的方法,竟然甚少人去选取他们,乃至奇异。忽然认为中中原人民共和国以此IT景况里,怎么才具培养和练习出巨大的工程师,公司珍视的是好处,领导赏识的是结果,不懂本领的人做领导,懂技术的人被领导,面试靠出口,专业靠开会,升迁靠资历,找工作靠教育水平。。。
     百分之99的品类,“先出多个本子,前面再思虑优化”“这几个供给很轻巧,怎么落到实处本身不管,明天自家将要”,然则。。恒久没有时间梳理,也忙于思量。项目长久很急,程序猿永恒在突击。。。在此以前的代码永世要靠下一任调bug。。。

    新葡亰496net,扯远了,回归正题吧。

    一.卡夫卡条件搭建
     英特网有大多蒙受搭建的课程示例,看了一下,大致全部是千篇一律,都以并行转过来转过去,没有设想到骨子里行使场景,也不思索质量终归怎么着,也不考虑怎么要那样搭,反正大家都以按那些套路来的,乃至本人想找一篇搭建5个节点集群的都找不到。
     实际生育情形中,我们的kafka是搭建在服务器上的,大家都驾驭每台服务器搭建三个节点,多个节点组成一个集群。大家也知晓kafka的性格瓶颈是在互联网IO和磁盘读写速度上。
    好端端处境下如此搭建当然是没难点的,而且kafka本身是为短新闻而安排的,可是在繁多选拔场景中,我们只可以实时传输图片这种大音信,假若大家要搭建四个接济日吞吐量陆仟万数额的集群,每条音信1M,
    我们来算一下:
     如若每一种节点带宽是一千Mbps,可传输的字节数就壹仟/8=125M, 借使要协理每分钟管理500条数据,那须要八个多大的集群呢?
    好的,500条*1M=500M, 500M/125M=4。 约等于4个节点的集群。没毛病呢很好的朋友?
    没毛病么?毛病十分的大啊。我们算的那500M只是是数量吞吐量的带宽,但是吞吐量吞吐量,有吞也可能有吐啊。
    最简便的1份添丁1份花费,各须求占掉个中八分之四的带宽,那大家要高达每分钟生产500条消费500条,最少就要求一千M字节的带宽。
    那只是最美丽的景况,实际使用中,必然不止三个用户要从kafka中消费数据,要是有3个用户要从集群中消费数量,还要协理每秒500条,那就意味着小编那些集群的吞吐总数要达到每分钟三千M字节,互连网io比特率要满足每分钟30000Mbps,假若种种节点采取千兆网卡,那表示自个儿须求一个由20台服务器组成的集群。一台服务器保守点配置一般的5万块钱一台,那就要求100万本金。
    那鲜明不对啊,kafka不是名称叫吞吐量宇宙第一的么,怎么会要靠积聚服务器的数据来满足仅仅是每秒处理500条数据的须求呢?
    那其间确定有标题,笔者要去找官方要个说法去,那跟你们吹出来的一点一滴不合乎啊,逗我呢吧?
    求带麻袋,大家再仔细回过头来想一想,难点出在哪呢,大家的一个钱打二拾八个结也没难题,那依旧算的最最卓越的图景下,实际的生育意况或许更差。不对,一定不日常。

    细心屡了又屡,真的没难点,大家企业正是那般用的哟,我们公司也是那样用的哟,没毛病呢亲密的朋友?
    没毛病么?毛病不小啊。通过上边的测算大家很分明会吸收二个强大而且官方可验证的下结论,限制kafka品质的只可以是互联网带宽非常不够大。有未有法子消除呢?换万兆带宽?整个都换到万兆,那不行,开支又翻了一倍,200万本钱。

    好啊,接下去正是大家怎么着化解那么些网络瓶颈的实施之路了:
        既然大家的瓶颈是在互连网上,网络的瓶颈又是在网卡上,把千兆网卡换万兆网卡又不具体,那就只剩一条路了,扩大块网卡。OK,一般的服务器都帮衬4网口 1管理口,先来插上四根网线,配置四个ip地址。没毛病,然后我们就想了,既然都有四块网卡,每块网卡又有单独的ip地址了,那咱们是还是不是足以在一台机械上搭建4个kafka节点,每一种节点绑定一块网卡呢,来试试看吧,很震憾。。。根据教程,一步一步,摩擦摩擦,biu的一。。。。纳尼??竟然起不来??难道我安顿出难点了?检查贰回,给自个儿起。。。检查两回,给自身起。。。检查一次。。。百度谷歌(Google),检查陆遍。。。什么鬼???kafka难道不帮衬在一台机器上开五个经过?不对啊,不是还或许有在一台机器上搭建伪集群的课程摆在那呢,这表明不是kafka的难题。然后又是一顿查,一顿乱试,终于。。我们检查出了本来面目:在同样台机械上起三个kafka要求布署端口号不一致,而且新版kafka逐步扬弃了host.name和port那多个布局项,全数有关的配备,只必要配备listeners就能够。
    再全部删掉重新来过,配网卡ip,配listeners,给作者起!哈哈哈,终于起来了,而且能够不荒谬生产消费数据了,小编真是太狠了,这么难的题材居然被自身化解了,经过这么多努力,大家到底能够完毕一块网卡对应二个kafka节点的英豪愿望了,还会有哪个人??  然则。。。俗话说的好。。。不要喜欢的太早。。。太早。。早。。

    来啊,让大家看一看你的网络IO瓶颈能还是不可能达到伍仟Mbps吧,手指火速的输入一串代码:sar -n DEV 1  
    当当当。。随着生产线程数的加码,网络io异常的快达成一千Mbps了,小编要再加11个生产! sar -n DEV 1 当当当。。。什么?互连网io竟然还是一千Mbps,不对不对,怎么肥四?抓个包看一看,四个ip分别创立tcp链接并初始互相数据,没难点呀,再细致一瞅,作者去,为什么全数ip指向的皆以同二个mac地址,那不科学啊,是在逗我吧?作者不信,肯定是本身哪儿配置错了,显明是作者心远远不够义气,鲜明是作者起步的不二等秘书技不对。。。小编不信,作者不信。。。作者不信。。。让大家再试三遍。。四遍。。。一次。。。
    求带麻袋,全数网卡ip都指向了贰个mac地址,是否说必要手动配置网卡的路由音讯,让各样网卡都通过和煦的路由来转载数量,查资料,看教程,看man手册,配置路由。。让我们再虔诚的试叁次。。。试五次。。。试二次。。。不玩了。。笔者要回家,作者想老妈。。。

    静下心来再思虑:大家明日得以鲜明的是,在一台机器上搭建集群是有效的,只需配置端口号差异就可以,每个kafka节点绑定一块网卡的法门不可行,固然把套接字绑定到多个一定网卡的ip上,数据包离开主机时会首先通过路由表,路由表会寻觅最低资本的互联网接口(任性静态的接口)举办发送,大家陈设的四块网卡具有同等的开支,因为四块网卡是在同八个子网内(即同贰个网段),由此传输率不会超过单张网卡的传输率,借使要化解那几个标题,那么有效的门路是手动配置路由表音信,而且要保管四块网卡的ip位于差异的网段上,并要确定保证不一样的网段是足以连接的。

    行吗,实际利用中大家是被分配ip的那一个,而不是能够率性分配网段的这个,明显这种艺术也不可行,不过起码大家总括出了一套立竿见影方案不是么。

    我们花了大批量的岁月商量kafka跟网卡之间的涉嫌,但出人意料回过头来想,发现大家毫不知觉中绕了多个大弯。百川归海,大家是要消除互联网带宽的主题材料,结果相反把本身绕到跟kafka的关系上了,既然在一台机械上得以搭建伪集群,那么为何不把那台机器的具有网卡做叁个绑定呢?

    从Centos7开端采用team方式,链路聚合的形式进行多网卡绑定,让我们来试一试呢:
    详细表达请参见官方文档:

    要简明的是,用于绑定的网卡,不应有配备任许建超态的IP地址,举办绑定在此以前,要求将有着网卡恢复生机到初阶化状态。而且一台服务器只可以有四个网关。
    大家必要的是充实带宽方式的绑定,至于别的方式,请自行钻研,通过NetworkManager来配置一下:

    1. 创建team1,并采取形式:
      命令:nmcli connection add con-name team1 type team ifname team1 config '{"device": "team1", "runner": {"name": "loadbalance","tx_hash": ["eth", "ipv4", "ipv6"],"tx_balancer": {"name": "basic"}}}'
    1. 增加网卡拓展绑定(本机一共四块网卡)
      命令:nmcli connection add con-name team1-port1 type team-slave ifname enp2s0f0 master team1
      nmcli connection add con-name team1-port2 type team-slave ifname enp2s0f1 master team1
      nmcli connection add con-name team1-port3 type team-slave ifname enp2s0f2 master team1
      nmcli connection add con-name team1-port4 type team-slave ifname enp2s0f3 master team1
    1. 给绑定后的虚构网卡设置IP地址和网关
      命令:nmcli connection modify team1 ipv4.addresses 192.20.25.100/24 ipv4.gateway 192.20.25.254 ipv4.method manual
      备注:ipv4.addresses 192.20.25.100/24这里是四块网卡聚合成一块网卡的ip地址和子网掩码缩写。
      ipv4.gateway 192.20.25.254那边是网卡的网关配置。
    1. 启动team1
      命令:nmcli connection up team1 

    5.重启网络
    命令:systemctl restart network

    1. 查看情状
      命令:teamdctl team1 state
      备注:这里应该显得了4块网卡的音信。
    1. 列出team1的端口
      命令:teamnl team1 ports
      备考:这里应该显得了4块网卡的新闻。

    其余的操作:nmcli device disconnect  enp2s0f0 (禁止使用在那之中的一块)
    nmcli device connect enp2s0f0(启用其中的一块)
    ip link set down enp2s0f0 (关闭掉其中的一块进行测试)

    1. 查看网络
      命令:ip add
      备注:这里就能够显示出team1的新闻(ip和网关等新闻)。

    迄今,配置多网卡链路聚合结束。

    不行希望中,大家在其上述搭建了一个kafka伪集群,开始测试。。。开十一个生产!
    当当当。。。网络IO到达1000Mbps,两千Mbs,三千Mbps,3600Mbps...天呐,竟然成功了。。。而且带宽损失率竟然不超越百分之10.。。

    大家成年人在一个侥幸的一世,学习提高的本钱如此之小,

    我们中年人在贰个不佳的一代,学习提升的开支如此之大。

    CentOS 6在此之前,网络接口使用延续号码命名:eth0、eth1等,当 扩充或删除网卡时,名称恐怕会产生变化 
    CentOS 7使用基于硬件,设备拓扑和安装类型命名: 
    (1) 网卡命名机制 systemd对互联网设施的命超级模特式
    (a) 借使Firmware或BIOS为主板上并轨的设施提供的索引消息可用,且可预测则遵照此索引进行命名,比如eno1
    (b) 若是Firmware或BIOS为PCI-E扩展槽所提供的目录音信可用,且可预测,则依照此索引进行命名,举例ens1
    (c) 就算硬件接口的大要地点消息可用,则依据此信息进行命 名,比方enp2s0
    (d) 要是用户显式运转,也可遵照MAC地址实行命名, enx2387a1dc56
    (e) 上述均不可用时,则动用古板命名机制

    1.创设二个team0的会晤接口:" nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name":"activebackup"}}' 

    OdysseyHEL7 学习笔记30——配置链路聚合和桥接

    翼虎HEL7之后,网络方面变化不小,其原因是互连网服务全体都由NetworkManager管理了,而在6版本里一般都以关闭NetworkManager,主要还是因为缺乏成熟。下边表达下在rhel7和centos7接纳nmcli命令管理配置互联网的主意。

    一.CentOS 7网络属性配置

    (一)网卡名称命名

    动用守旧命超级模特式: 

    (1) 编辑/etc/default/grub配置文件 GRUB_CMDLINE_LINUX="rhgb quiet net.ifnames=0"

    新葡亰496net 1

    image.png


    卡夫卡质量优化之坎坷路,nmcli网卡绑定与teaming配置。(2) 为grub2生成其布置文件

    grub2-mkconfig -o /etc/grub2.cfg 或是grub2-mkconfig > /etc/grub2.cfg
    (3) 重启系统
    或选择对/boot/grub2/grub.cfg来实现修改
    步骤:

    (1)vim /boot/grub2/grub.cfg

    新葡亰496net 2

    image.png

    新葡亰496net 3

    image.png


    (2) cdnet ——cd /etc/sysconfig/network-scripts来修改配置文件
    vim ifcfg-ens33

    新葡亰496net 4

    image.png


    (3)保存后。重启使其收效

    2.翻看接口:"nmcli con show" 是不是存在team0接口。

    一、聚合网络
    汇集网络team的门类:

    rhel7使用ip link取代ifconfig命令,使用teamd管理双网卡聚合,使用nmcli命令行配置网络。

    (二) CentOS7主机名

    (1)配置文件:/etc/hostname ,暗中认可未有此文件,通过DNS反向剖析获取主机名,主机名默感觉:localhost.localdomain——cat /etc/hostname 

    新葡亰496net 5

    image.png

    (2)突显主机名音信 hostname hostnamectl status 
    (3)设置主机名 hostnamectl set-hostname centos7.magedu.com

    有别于于centos6,采取上述命令后会自动生成,且自动写入配置文件中

    新葡亰496net 6

    image.png


    (4)删除文件/etc/hostname,复苏主机名localhost.localdomain 
    CentOS 7互连网布局工具 

    图表工具:nm-connection-editor 

    字符配置tui工具:nmtui 

    新葡亰496net 7

    image.png

     

            1、activebackup;

    nmcli创立的网络连接是私自的,类型各样富含bond、bridge、vlan、wifi、bluetooth、ethernet、vpn等等,名字能够肆意取。设备和连续是一对多的涉及,但各样设备同期只可以对应三个开发银行的连年。

    (三)nmcli命令

    (1)命令行工具:nmcli——有无数的子命令

    新葡亰496net 8

    image.png

    透过 nmcli connection help来熟知有关命令

    新葡亰496net 9

    image.png


    nmcli [ OPTIONS ] OBJECT { COMMAND | help }

    • device - show ——也便是ip link,查看数据链路层新闻
    • nmcli connection show ——也就是ip addr查看网络层音讯
      (2)修改IP地址等质量
    • nmcli connection modify ens33 connection.id eth0——将name=ens33改为eth0

      cat /etc/sysconfig/network-scripts/ifcfg-ens33

      新葡亰496net 10

      image.png


      nmcli con reload:重新加载,功效是使配置文件生效

    • 在eth1网卡上增加产量四个网卡
      nmcli connection add con-name home-eth1 ethernet ifname eth1

      ls /etc/sysconfig/network-scripts/ifcfg-home-eth1

      新葡亰496net 11

      image.png


      那儿让该网卡生效功用在eth第11中学:nmcli connection uo home-eth1,原本的网卡被挤掉,使用新布署的网卡,因为该网卡的BOOTPROTO是dhcp类型的,所以会活动获取新的网站
      一旦想将活动获得格局改为手动获取格局,则通过:nmcli connection modify home-eth1 ipv4.method manual ipv4.addresses 3.3.3.3/24 ipv4.gateway 3.3.3.1 ipv4.dns 2.2.2.2

      接下来nmcli connection up home-eth1来使其收效
      剔除新添网卡:
      nmcli connection down home-eth1
      nmcli connection del home-eth1
      nmcli connection show来查看是不是删除
      (3)修改配置文件施行生效
      systemctl restart network 或是 nmcli con reload 
      nmcli命令生效: nmcli con down eth0 ;nmcli con up eth0

    (四)使用nmcli配置互联网

    NeworkManager是管理和监督检查互联网设置的护理进度 
    器械即互连网接口,连接是对网络接口的配置。
    二个互联网接口 可有三个接二连三配置,但同一时间唯有贰个连连配置生效 

    • 突显全数包蕴不运动总是
      nmcli con show 
    • 展现全数活动总是
      nmcli con show --active 
    • 来得网络连接配置
      nmcli con show "System eth0“ 
    • 显示设备状态
      nmcli dev status
    • 来得互连网接口属性 nmcli dev show eth0 
    • 开革新连接default,IP自动通过dhcp获取
      nmcli con add con-name default type Ethernet ifname eth0 
    • 除去连接 nmcli con del default 
    • 创建新连接static ,钦定静态IP,不自动连续 nmcti con add con-name static ifname eth0 autoconnect no type Ethernet ip4 172.25.X.10/24 gw4 172.25.X.254

    3.绑定第一块网卡:"nmcli con add con-name 网卡外号1 ifname 原网卡名1 type team-slave master team0"。

            2、loadbalence;

    nmcli的一般用法:

    (五)nmcli实现bonding

    添加bonding接口
    (1)nmcli con add type bond con-name mybond0 ifname mybond0 mode active-backup
    (2)增多从属接口 nmcli con add type bond-slave ifname ens7 master mybond0 nmcli con add type bond-slave ifname ens3 master mybond0
    注:如无为从属接口提供连接名,则该名称是接口名称加类型构成 
    (3)要开动绑定,则必须首先运维从属接口 nmcli con up bond-slave-eth0 nmcli con up bond-slave-eth1 
    (4) 运转绑定 nmcli con up mybond0

      绑定第二块网卡:"nmcli con add con-name 网卡外号2 ifname 原网卡名2 type team-slave master team0"。

            3、roundrobin;

    nmcli dev status  //查看系统现存互联网设施的连天情形
    nmcli conn show    //查看已有连接
    nmcli conn delete UUID1 UUID2 UUID3  //删除无需的连接
    nmcli dev connect eno16777736    //连接设备eno16777736,该操作看似于接上网卡网线
    nmcli dev disconnect eno16777736  //断开设备eno16777736,类似于拔掉网线

    以实验来验证:

    步骤:
    (1)首先将八个网卡都在设定在叁个网段(都以仅主机方式)
    开首铺排 ncmli connection add type bond con-name bond0 ifname bond0 mode active-backup(主备形式)

    新葡亰496net 12

    image.png

    (2)使bond0生效——nmcli connection up bond0

    新葡亰496net 13

    image.png


    (3)nmcli connection show——查看是还是不是启用该配置网卡
    (4)关联四个slave网卡——
    nmcli connection add con-name bond0-slave1 type bond-slave ifname eth0 master bond0
    nmcli connection add con-name bond0-slave2 type bond-slave ifname eth1 master bond0

    新葡亰496net 14

    image.png

    (5)使网卡生效——nmcli connection up bond0-slave1 nmcli connection up bond0-slave2
    产生安装
    cat /proc/net/bonding/bond0 来查阅具体哪个网卡生效
    删去bond0网卡方法
    (1)禁止使用网卡 nmcli connection down bond0
    nmcli connection delete bond0
    nmcli connection show-来查看是或不是删除
    nmcli connection delete bond0-slave1
    nmcli connection delete bond0-slave2
    nmcli connection reload——同步
    nmcli connection show-做最终的承认

    (报mac错误,正常)

    二、配置聚合网络

    nmcli conn down eno16777736  //关闭连接eno16777736

    (六)网络组Network Teaming

    (1)网络组:是将七个网卡聚合在同步方法,从而实现冗错和提 高吞吐量 
    互联网组分化于旧版中bonding本领,提供更加好的习性和扩张性 
    互联网组由基本驱动和teamd守护进度达成. 
    三种主意runner
    broadcast
    roundrobin
    activebackup
    loadbalance
    lacp (implements the 802.3ad Link Aggregation Control Protocol)
    (2)运转互联网组接口不会自行运营互联网组中的port接口 ——nmcil connection up team0时,互联网组中的port接口未有运转
    运维互连网组接口中的port接口总会自动运维网络组接口 ——nmcli connection up team-slave-eth0,此时网络组接口也会运行
    剥夺互连网组接口会自行禁用网络组中的port接口——nmcli connectiion down team0,互连网组的port接口也会被禁止使用
    未有port接口的网络组接口能够运行静态IP连接 
    启用DHCP连接时,没有port接口的网络组会等待port接 口的参与
    (3)创制网络组接口
    nmcli con add type team con-name CNAME ifname INAME [config JSON] CNAME 连接名,INAME 接口名 JSON 指定runner方式 格式:'{"runner": {"name": "METHOD"}}' METHOD 可以是broadcast, roundrobin, activebackup, loadbalance, lacp
    (4)创建port接口
    nmcli con add type team-slave con-name CNAME ifname INAME master TEAM CNAME 连接名 INAME 网络接口名 TEAM 网络组接口名 
    连接名若不点名,暗中认可为team-slave-IFACE nmcli dev dis INAME nmcli con up CNAME INAME 设备名 CNAME 互连网组接口名或port接口
    (5)网络组示例
    nmcli con add type team con-name team0 ifname team0 config ‘{"runner": {"name": "loadbalance"}}' 
    nmcli con mod team0 ipv4.addresses 192.168.1.100/24 
    nmcli con mod team0 ipv4.method manual 
    nmcli con add con-name team0-eth1 type team-slave ifname eth1 master team0 nmcli con add con-name team0-eth2 type team-slave ifname eth2 master team0 nmcli con up team0 
    nmcli con up team0-eth1 
    nmcli con up team0-eth2 
    teamdctl team0 state; nmcli dev dis eth1
    尝试:成立互连网组
    ip link nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "activebackup"}}' 
    nmcli con mod team0 ipv4.addresses '192.168.0.100/24' 
    nmcli con mod team0 ipv4.method manual 
    nmcli con add con-name team0-port1 type team-slave ifname eth1 master team0 nmcli con add con-name team0-port2 type team-slave ifname eth2 master team0 teamdctl team0 state
    ping -I team0 192.168.0.254 
    nmcli dev dis eno1 
    teamdctl team0 state 
    nmcli con up team0-port1 
    nmcli dev dis eno2 
    teamdctl team0 state 
    nmcli con up team0-port2 
    teamdctl team0 state
    (5)管理网络组配置文件/etc/sysconfig/network-scripts/ifcfg-team0
    DEVICE=team0
    DEVICETYPE=Team
    TEAM_CONFIG="{"runner": {"name": "broadcast"}}"
    BOOTPROTO=none
    IPADDR0=172.25.5.100
    PREFIX0=24
    NAME=team0
    ONBOOT=yes
    /etc/sysconfig/network-scripts/ifcfg-team0-eth1
    DEVICE=eth1
    DEVICETYPE=TeamPort
    TEAM_MASTER=team0
    NAME=team0-eth1
    ONBOOT=yes

                                              ## 实验练习
    

    创造二个互连网组,runner方式为broadcast,手动加多网站
    步骤
    nmcli connection add type team con-name team0 ifname team0 config '{"runner":{"name":"broadcast"}}'
    nmcli conection modify team0 ipv4.adresses 192.168.136.176/24 ipv4.method manual
    添加port接口
    nmcli connection add type team-salve con-name team-slave0-eth1 ifname team-slave-eth1 master team0
    nmcli connection add type team-salve con-name team-slave0-eth0 ifname team-slave-eth0 master team0
    ping 192.168.136.176
    teamdctl team0 state
    除去网络组
    nmcli connection down team0
    nmcli connection delete team0
    nmcli connection delet team-slave0-eth1
    nmcli connection delet team-slave0-eth0
    nmcli connection reload

     

    三种情势:

    nmcli conn up eno16777736  //展开连接eno16777736

    二.网桥

    (1)概念:
    桥接:把一台机械上的几何个互联网接口“连接”起来。其结 果是,在那之中一个网口收到的报文少禽被复制给其余网口并发送 出去。以使得网口之间的报文能够互相转载。网桥正是如此 一个配备,它有几四个网口,并且那么些网口是桥接起来的。 与网桥相连的主机就会经过交流机的报文转载而互相通讯。 
    主机A发送的报文被送到调换机S1的eth0口,由于eth0与 eth1、eth2桥接在一同,故而报文被复制到eth1和eth2,并 且发送出去,然后被主机B和置换机S2收受到。而S2又会将 报文转载给主机C、D。

    新葡亰496net 15

    image.png

    (2)配置完成网桥
    配置原理和bonding和网络组的创办类似,具体配置进度如下:
    nmcli connection add type briage con-name brg0 ifname brg0
    nmcli connection modify br0 ipv4.addresses 192.168.38.100/24
    ipv4.method manuall
    nmcli con add type bridge-slave con-name br0-slave0-eth1 ifname eth1 master br0
    nmcli con add type bridge-slave con-name br0-slave0-eth0 ifname eth10master br0
    翻开配置情状
    cat /etc/sysconfig/network-scripts/ifcfg-br0
    cat /etc/sysconfig/network-scripts/ifcfg-br0-port0
    brctl show
    除去网桥
    率先禁止使用网卡,然后删除网卡brctl delbr br0 
    去除网桥中网卡 brctl delif eth0 
    在意:NetworkManager只援助以太网接口接口连接到网桥,不支 持聚合接口

    4.布置team0接口参数:"nmcli connection modify team0 ipv4.addresses "网段大概ip" ipv4.method manual connection.autoconnect yes"

                1、命令行;

    nmcli dev show  //查看设备详细新闻

    三测试网络工具

    (1)在命令行下测试网络的连通性 
    来得主机名 hostname 
    测试网络连通性 ping mtr 
    来得正确的路由表 ip route 
    规定名称服务器使用: nslookup  host  dig 
    追踪路由 • traceroute • tracepath
    (2)互连网客户端工具
    ftp,lftp
    子命令:get、 mget、ls、help
    lftp [-p port] [-u user[,password]] SERVER 
    lftpget URL 
    wget [option]... [URL]...
    -q: 静默形式 -c: 断点续传 -O: 保存地点 --limit-rate=: 内定传输速率,单位K,M等 links U悍马H2L --dump --source

     

                2、配置文件;

    创制、命名连接,并做基本配备

    5.开头聚合网络:"nmcli con up team0"

                3、图形化分界面;

    nmcli conn add type ethernet con-name ens160 ifname ens160
    //创设新连接con-name是ens160,也能够根据个人习于旧贯改为eth0.
    nmcli conn mod ens160 ipv4.method manual  //配置IP地址获取格局为手动
    nmcli conn mod ens160 ipv4.addresses "10.x.x.x/24" //配置IP和掩码
    nmcli conn mod ens160 ipv4.gateway "10.x.x.254"  //配置网关
    nmcli conn mod ens160 ipv4.dns "x.x.x.x"  //配置dns
    nmcli conn mod ens160 connection.autoconnect yes  //配置开机自动运营
    nmcli conn up ens160 //运行网卡

     

        1、命令行格局:

    配置网卡bond

    添加team0

    1. 创办主接口

    [root@linuxidc ~]# nmcli connection add con-name team0 type team ifname team0 config {"runner":{"name":"activebackup"}}

    nmcli con add type bond con-name bond0 ifname bond0 mode active-backup

    配置IP地址:
    [root@linuxidc ~]# nmcli connection modify team0 ipv4.addresses "192.168.10.100/24"
    [root@linuxidc ~]# nmcli connection modify team0 ipv4.method manual

    1. 给主接口分配ip地址

    增加接口,在累加前边,确定保证增进的接口的一连已删除:

    nmcli con mod bond0  ipv4.addresses '11.16.25.100/24'

    [root@linuxidc ~]# nmcli connection add con-name team0-port1 ifname ens34 type team-slave master team0

    nmcli con mod bond0  ipv4.method manual

    [root@linuxidc ~]# nmcli connection add con-name team0-port1 ifname ens38 type team-slave master team0

    nmcli con mod bond0 connection.autoconnect yes

        编辑ifcfg-team0配置文件,在那行加上单引号和双引号:

    1. 创制从接口

    TEAM_CONFIG='{"runner":{"name":"activebackup"}}'

    nmcli con add type bond-slave ifname eno1 master bond0

        重启互联网服务:
    [root@linuxidc network-scripts]# systemctl restart network

    nmcli con add type bond-slave ifname eno2 master bond0

        此时看来team0和绑定的2张网卡的Mac地址变为一致:

    1. 翻开主接口和从接口

        查看team0的做事情景:

    nmcli con up bond-slave-eno2

    [root@linuxidc ~]# teamdctl team0 state
    setup:
      runner: activebackup
    ports:
      ens38
        link watches:
          link summary: up
          instance[link_watch_0]:
            name: ethtool
            link: up
      ens34
        link watches:
          link summary: up
          instance[link_watch_0]:
            name: ethtool
            link: up
    runner:
      active port: ens34

    nmcli con up bond-slave-eno1

        2、配置文件
      1 DEVICE=team0
      2 DEVICETYPE=Team
      3 ONBOOT=yes
      4 BOOTPROTO=none
      5 IPADDR=192.168.10.100
      6 NETWORK=255.255.255.0
      7 TEAM_CONFIG='{"runner":{"name":"roundrobin"}}'

    nmcli con up bond0

      1 DEVICE=ens34
      2 DEVICETYPE=TeamPort
      3 ONBOOT=yes
      4 BOOTPROTO=none
      5 TEAM_MASTER=team0

    网卡teaming配置

        使用teamnl命令查看team的取舍和端口:
    [root@linuxidc network-scripts]# teamnl team0 ports
     8: ens34: up 1000Mbit FD 
     4: ens38: up 1000Mbit FD

    #nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "activebackup"}}'

    12345678910111213141516 [root@linuxidc network-scripts]# teamnl team0 options
     queue_id (port:ens34) 0 
     priority (port:ens34) 0 
     user_linkup_enabled (port:ens34) false
     user_linkup (port:ens34) true
     enabled (port:ens34) true
     queue_id (port:ens38) 0 
     priority (port:ens38) 0 
     user_linkup_enabled (port:ens38) false
     user_linkup (port:ens38) true
     enabled (port:ens38) true
     mcast_rejoin_interval 0 
     mcast_rejoin_count 0 
     notify_peers_interval 0 
     notify_peers_count 0 
     mode roundrobin

    #nmcli con mod team0 ipv4.addresses '192.168.0.100/24'

    [root@linuxidc network-scripts]# teamnl team0 getoption mode

    #nmcli con mod team0 ipv4.method manual

    3、图形化配置分界面

    #nmcli con add type team-slave con-name team0-port1 ifname eno1 master team0

    开垦nm-connection-editor,加多三个新连接:

    #nmcli con add type team-slave con-name team0-port2 ifname eno2 master team0

    新葡亰496net 16

    #teamdctl team0 state(查看情状)

    新葡亰496net 17

    Linux网卡聚合一般有以下两种形式

    新葡亰496net 18

    • broadcast 传输来源全体端口的包
    • roundrobin 以轮循的点子传输全数端口的包
    • activebakup 那是一个故障迁移程序,监察和控制链接改换并选用活动的端口实行传输
    • loadbalance 监察和控制流量并选择哈希函数以尝试在甄选传输端口的时候达到宏观均衡
    • lacp 实施802.3ad 链路聚合协议,能够运用与 loadbalance 运转程序同样的传输端口

    三、配置桥接网络
    1、使用brctl命令

    设若聚合选拔的是lacp格局,互联网中选拔PXE装机会出现难题,因为PXE只会初始化一块网卡去DHCP申请地址,在那些进度中去修改交流机配置显著是不伏贴的,只好选拔动态聚合。注意lacp形式须要衔接交流机支持。

    翻开桥接网络:
    [root@linuxidc ~]# systemctl restart network
    [root@linuxidc ~]# brctl show
    bridge namebridge idSTP enabledinterfaces
    virbr08000.000000000000yes

    本文永世更新链接地址:http://www.linuxidc.com/Linux/2017-03/141539.htm

     增添桥接网络:

    新葡亰496net 19

    [root@linuxidc ~]# brctl addbr br0

    增多接口:
    [root@linuxidc ~]# brctl addif ens34 br0

    2、使用nmcli命令

    [root@linuxidc ~]# nmcli connection add con-name br1 type bridge ifname br1

    [root@linuxidc ~]# nmcli connection modify br1 ipv4.addresses "192.168.20.20/24,192.168.20.1"
    [root@linuxidc ~]# nmcli connection modify br1 ipv4.method manual

    [root@linuxidc ~]# nmcli connection add con-name br1-port1 type bridge-slave ifname ens34 master br1

    正文恒久更新链接地址:http://www.linuxidc.com/Linux/2015-04/115884.htm

    新葡亰496net 20

    本文由新葡亰496net发布于服务器网络,转载请注明出处:卡夫卡质量优化之坎坷路,nmcli网卡绑定与teami

    关键词: