华人澳洲中文论坛

热图推荐

    基于KubeSphere,技研智联完成云原生容器化平台理论

    [复制链接]

    2023-2-18 07:13:40 57 0

    原标题:基于KubeSphere,技研智联完成云原生容器化平台理论  
    作者:郑建林,现任深圳市技研智联科技无限公司架构师,技术担任人。多年物联网及金融行业教训,对云计算、区块链、大数据等畛域有较深化钻研及运用。现次要从事 PaaS 平台建立,为公司各业务产品线提供平台底座如技术中台,数据中台,业务中台等。  
    公司简介  
    深圳市技研智联科技无限公司:为佛山技研智联科技无限公司子公司,前者为三技精细和研华合资公司。提供从工控装备,网关,云平台一体化的专业印染数字化工业互联网平台。  
    佛山技研智联科技无限公司(下列简称“技研智联”)是由三技精细技术(广东)股分无限公司以及研华科技股分无限公司于 2020 年 8 月合资成立,是一家专一于为纺织企业提供自动化管制零碎软件、工业互联网运用平台、数字化转型与智能制作总体解决计划,并为企业提供行业软件征询、实行、集成等办事的高新技术企业,专精特新中小企业。  
    公司开展至今曾经是 100 多人范围专业技术产品团队,自主研发的 ITEX 智慧纺织云平台,目前曾经衔接 70 多家工厂,2000 多台装备,可以把工厂各个零碎、各类跨业务的数据在同一个平台上买通,让企业完成基于数据和流程的业务协同。  
    公司较早就开始拥抱云原生容器化部署,反对客户在私有云 ITEX 云平台使用 SaaS 产品,同时反对用户按公有云形式公有化部署装置使用。目前 IT 和运维团队范围 5 人,次要知足本身研发上云和客户装置部署运维需要。  
    配景引见  
    自己为深圳市技研智联科技无限公司架构师和技术担任人,担任全部公司根底平台搭建立计,所在团队为全部公司产品业务提供根底 PaaS 平台,包罗技术中台,数据中台,业务中台等。原先业务团队次要做 SaaS 云平台和边沿管制相干产品。使用超融会办事器上联系部署 K8s 集群,经过 Rancher 来办理办事器集群。DevOps 用的 git 反对的脚步打 Docker 镜像形式,手动公布办事。存在办事器资源缺乏,扩展性欠缺,运维办理未便,技术框架差别等问题,跟着业务开展需求底层资源办理,技术框架,公共办事一致办事化火烧眉毛。  
    选型阐明  
    作为公司根底办事平台团队,需求提供一致易用的容器办事公布部署办理一站式平台,期间比较了 Openshift,Rancher,以及青云科技推出的KubeSphere 这几大开源 PaaS 容器办理平台,比较特征如下(但愿尽可能主观,各个平台组件不停开展,若有失正确望见谅):  
    表 1 开源 PaaS 容器办理平台比较  


         一方面 KubeSphere 优秀的交互体验一下击中了研发人员的心思,同时本着融会产品模块化开发的初衷,终究选择了 KubeSphere,但愿能进步交互成果,此外冀望能够晋升总体产品底层设施不乱性和开发效力。  
    理论进程  
    K8s 集群基于腾讯云办事器 centos7.9 零碎采取三个 Master 节点高可用集群多个 Worker 节点计划搭建,使用不乱 K8s v1.23.5 版本。分为开发,测试,预公布和出产四个公有网络 K8s 集群。  
    网络计划  
    网络采取 Calico CNI。比拟 Flannel,Calico 网络插件拥有如下劣势:  
    功用更片面,还可提供网络平安和办理;  
    Calico 不使用 Overlay 网络。相同,Calico 配置第 3 层网络,该网络使用 BGP 路由协定在主机之间路由数据包,机能拥有劣势 - 能做网络战略,可与办事网格 Istio 集成。  
    集群网络为腾讯云 VPC 公有网络外网不成拜候,对外采取负载平衡一致接入通过 APISIX 流量网关后再到业务网关处置。办事之间都是内网经过 K8s 虚构网络解析办事名拜候。  
    存储计划  
    出于本钱斟酌,存储次要采取腾讯云 CBS 云硬盘存储,经过 NFS 挂载到 PV 中供办事绑定 PVC 使用。对机能要求高的也能够使用腾讯云上提供的其余高机能存储办事。  
    DevOps 继续集成部署  
    在使用 KubeSphere 以前公司私有云办事都部署在超融会办事器环境,使用 GitLab 的 CI 才能,在 Rancher 上公布办事。开发测试环境开发人员进行代码编译打包而后公布,出产环境开发人员打 tag 推送镜像,而后一致由运维人员使用 Rancher 进行公布部署。CI/CD 流程架构图如下:  


    改用 KubeSphere 后开发人员集成公布在 KubeSphere DevOps 名目里实现全部流程的编纂运转查看等操作。基于 Jenkins 脚本编排流水线,出产环境由运维人员进行 DevOps 名目受权操作。操作起来更流利,能完成更繁杂的流水线编排,但 Jenkins 容器镜像相对于较大会吃资源一点。基于 KubepShere CI/CD 流程架构图如下:  


    日志与监控  


    日志监控采取更加轻量的 Loki 零碎组件来收集处置,并用 Grafana 进行可视化展现,监控使用 Prometheus,一样使用 Grafana 来展现。  


    KubeSphere 账号权限办理  
    各个运用广泛存在本人的账号角色体系,办理起来会对比繁琐,因此买通产品运用账号和 KubepShere 账号体系能极大进步配置使用体验,幸好 KubepShere 提供了 oauth 受权接口模板,只需求根据例子配置 url 及 client_id,写好回调解理接口便可买通账号受权登录。受权登录架构图如下:  


    使用成果  
    账号以及名目权限办理  
    买通运用零碎账号跟 KubepShere 账号受权后,用户及权限办理更易便捷,KubeSphere 集功效果如下图:  
    首次登录 KubeSphere 受权集体信息便可,后续登录无需反复受权操作。目前缺乏的地方是企业租户和角色没有和咱们平台运用买通,需求各自配置。受权信息需求账号 ID,账号名字以及邮箱等。第一次受权确赖账号信息如下图所示:  


    运用办事公布部署  
    运用办事公布部署功用更片面,便利一致办理管制。  


    在使用过程当中也泛起过偶然卡住需求勾销从新运转状况,多个流水线同时运转需求较长期排队问题,后续运转效力这块但愿可以优化。  
    资源及办事机能监控  
    KubeSphere 监控提供了 Prometheus 监控套件,对办事器资源及使用状况能实时监控同时能够查问历史变动,极小气便了零碎保护办理,提前发现零碎资源瓶颈进行处置,进步不乱性。办事器集群监控如下图所示:  


    KubeSphere 同时反对对单个办事的机能和资源使用进行监控,这是原先使用 Rancher 没有体验过的,对评价总体办事部署资源机能占用有了很好计算参考和优化标的目的。办事监控如下图所示:  


    容器办理组件扩展  
    去年六月底 KubeShere 3.3.0 版本公布后第一时间装置尝鲜,一开始全功用装置 KubeSphere,core,Prometheus,Istio,DevOps,monitor,APP 运用商店等各个组件。发现全部一套部署上来会很重,同时以后阶段有些组件还不太用得上,因而在部署装置配置文件里对一些模块(如 Istio,APP 商店)设置为 false 不装置便可。  
    将来布局  
    PaaS 容器办理监控等根底设施作为企业产品办事的首要底座,不乱性,易用性,可适配性也是咱们不停寻求的指标,因此方案后续结合 KubeSphere 弱小的容器办理平台才能进行本身产品需要办事办理进行融会,几个首要标的目的如下:  
    轻量化部署 KubeSphere 中心组件,同时开发适配本人需求的插件。  
    轻量化部署后做多环境集群一致办理。  
    同时特殊场景下反对混合云场景。  
    按照后续业务量适合机会上 Istio 和 Serverless。

    发表回复

    您需要登录后才可以回帖 登录 | 立即注册

    返回列表 本版积分规则

    :
    中级会员
    :
    论坛短信
    :
    未填写
    :
    未填写
    :
    未填写

    主题42

    帖子51

    积分242

    图文推荐