Twitter 宣布抛弃 Mesos,全面转向 Kubernetes

发布时间:2024-06-24 点击:81
云计算
作者 | 阿里云智能高级技术专家 张磊
划重点
twitter 的基础设施从 mesos 全面转向 kubernetes阿里云容器平台团队即将开源kubernetes 高级作业管理集合
美国西部时间 5 月 2 日下午 7 点,twitter 公司在旧金山总部举行了一次技术发布会兼 meetup。会上,twitter 计算平台(twitter computing platform)产品与技术负责人 david mclaughlin 正式宣布,twitter 的基础设施将从 mesos 全面转向 kubernetes。
mesos 项目发布于 2009 年,而 twitter 公司则是 mesos 项目的早期支持者和使用者之一。作为世界上最成功的社交媒体巨头之一,twitter 公司以其庞大的生产集群规模(万级别节点)而备受关注。2011 年,twitter 公司开始在 mesos 项目的基础上开发 aurora 项目以便同时管理其内部的在线和离线业务,逐步成为 mesos 社区的代言人。
在持续投入 mesos 项目近 10 年之后,twitter公司为什么突然宣布全面转向 kubernetes 体系?在这个令人瞩目的决定背后,是什么样的架构和设计支撑twitter 基础设施360度的“华丽转身”呢?
云时代,twitter 基础设施面临新挑战
twitter 公司创始于 2006 年。时至今日,全世界每天都有至少 5 亿条推文产生。在过去十余年飞速成长和海量数据的挑战下,twitter 基础设施架构的演进过程,一直以来都是全世界技术公司眼中的标杆案例。这其中,像 mesos 这样优秀的老牌调度框架、 以及像 aurora 这样启发自 google borg 配置管理的编排引擎,可谓功不可没。
事实上,在互联网级别的技术场景下,依托顶级工程师和成熟技术自建基础设施,一直以来都是一线非云互联网厂商的架构首选。正是在这个过程中,相对成熟并且工作层次较低的 mesos 项目收获到了大量规模级生产环境部署案例。
不过,随着云计算的普及和 kubernetes 这样以“云”为核心的容器化基础设施项目的迅速崛起,这种传统互联网基础技术架构选型方法逐步暴露出很多前所未有的问题。在本次发布会上, david 就以 twitter 公司当前面临的挑战为例,对这些问题作出了简明扼要的总结:
1、存储系统的多样化与专业化,使传统基础设施复杂度急剧上升
相比于传统技术架构对存储系统的单一假设(比如一套 ceph 打天下),云时代的软件架构为用户存储选择带来了爆发性增长。仅以阿里云为例,它在公有云上能够为用户提供的各种类型的存储服务就多达 10 余种,其中的细分方案更是数不胜数。随着互联网公司的基础架构和软件规模的不断扩张和发展,互联网软件本身对存储的需求也更加细化和专业。
比如,在 twitter,local persistent volume 这种“非典型”存储诉求,逐渐在平衡性能与成本的过程中成为一种主流方案。作为 csi(container storage inerface)的提出者,kubernetes 社区不仅拥有最完善的 local pv 机制,还能够凭借标准接口和 pv、pvc 体系,完全为用户抹平其它数十种不同存储服务的对接问题。这在互联网软件架构日趋复杂和面向多云的发展趋势中,无疑是至关重要的。
2、mesos 和 aurora 体系与“云原生”始终渐行渐远
云时代一个重要的技术发展趋势就是软件的生命周期会逐步向“生在云上、长在云上”的形态靠拢。这也就意味着作为支撑软件的核心基础设施项目,必然要向“发挥云的最大价值”的方向不断演进。
遗憾的是,mesos 以及 aurora 项目或许是由于发布较早,始终没能够将“云”变成整个基础设施体系中的“一等公民”。相比之下,kubernetes 体系从发布伊始就不断倡导“声明式 api”、“容器设计模式”、“控制器模型”等各项理念,其实都是为了帮助用户能够在云上以“可扩展、可复制、高度自动化”的方式开发、交付和运维软件。如今,这些顶层架构设计与各种最佳实践,被广大开发者们冠名为“云原生”。这也成为kubernetes 项目与其它竞争对手相比最大的不同。
3、传统的多云、多集群管理成本居高不下,并在可预见的未来内迅速攀升
在传统的互联网架构中,自建数据中心和基础设施体系是整个软件系统的第一假设。而“云”所扮演的角色,更像是在流量突发时应付峰值的资源“备胎”。
在这种以“云”为辅助角色的指导思想下,多云和多集群很难成为整个架构的重中之重。这就使得多云和多集群能力,成为底层资源对接层的职责,而与更重要的应用开发、交付和运维体系失去直接关联。这种方案短期内固然可以奏效,但长期的维护和迭代成本却很容易因为上层应用本身千变万化的形态与高速迭代而超出把控。
此外,这种设计的另一个极端是让整体基础设施走向“多活”技术深渊:这实际上已经远远超出 90% %u4ee5上互联网公司的技术能力。在云原生体系普及之后,“每朵云上都有无数个 kubernetes 集群”逐渐成为应用基础设施能够依赖的新常态。
这就为多云和多集群管理提供了一种全新的突破性思路:只要软件选择面向 kubernetes 来进行架构、设计和实现,那么“多云、多集群”就自然而然成为应用基础设施的默认能力。在 twitter 的业务越来越多的需要多云、多集群环境交付的趋势下, kubernetes 这种从根本上帮助应用迅速向多云交付的“捷径”,成为 twitter 选择变更自身技术体系的另一个重要原因。
作为不断在快速发展和迭代的互联网公司,高压力和快节奏背景下的企业往往无暇顾及基础设施架构的标准化与兼容性问题,这同样也是 twitter 公司面临的主要问题之一。所以,在这次转型过程中,“kubernetes native”成为一个被反复强调的关键词。
大规模生产环境的" kubernetes native "技术路径
作为不断在快速发展和迭代的互联网公司,高压力和快节奏背景下的企业往往无暇顾及基础设施架构的标准化与兼容性问题,这同样也是 twitter 公司面临的主要问题之一。所以,在这次转型过程当中,“kubernetes native”成为一个被反复强调的关键词。在发布会上,twitter 公司公布了选择 kubernetes native 方向的诸多评估依据。
1. 良好的开源技术与开源生态;
2. 全世界所有的公有云都提供 kubernetes 服务,不必担心厂商锁定;
3. 原生具备有状态业务(stateful application)的管理语义;
4. 项目本身快速迭代,具有很强创新能力和先进性;
5. 具备标准的存储对接接口,帮助 twitter 无缝迁移各种现有存储服务;
最终,twitter 公司用一句话总结了这次评估的结果:“我们认为,使用 kubernetes 项目作为 twitter 公司基础设施向前演进的核心依赖,将会是一个正确的选择”。
而在这条演进路径上,twitter 也公布了多项具体的技术举措,比如:
1. 开发 twitter 专属的有状态应用管理控制器(twitterset);
2. 开发满足 twitter 场景的节点控制器(nodecontroller);
3. 自定义 service discovery 组件以便同 twitter 自己的流量管理服务对接;
4. 编写兼容 aurora 语义的作业管理控制器以便将现有的 aurora 上的业务进行迁移;
5. 开发更丰富的应用发布策略和实例稳定性支持;
6. 改造 aurora 的 dsl 以对接 kubernetes,集成现有的 ci/cd 系统。
david 表示:“twitter 公司基础设施的巨大规模一直不是一个秘密,但至少在今天,规模不再是我们的首要担心,我们能看到像阿里巴巴这样的社区领导者正在将更大规模的 k8s 集群推向生产环境”。
david mclaughlin 宣布整个迁移计划将从现在开始一直持续到 2020 年。届时,整个 twitter 的技术栈都会运行在以 kubernetes 为基础的容器化基础设施之上,并且呈现“内部 k8s 集群 公有云 k8s 服务”的多集群组合形态。
david 最后对twitter的未来进行总结时强调:在 2020 年,twitter自己的软件栈会以“一部分运行在自有 k8s 集群,另一部分运行在公共云上”的多集群形态进行开发和交付。
显然,在思考“如何通过云来让自身的基础设施能力价值最大化,然后让公司专注于更具价值的核心业务”这件事情上,twitter 已经得到一个相对清晰而富有远见的答案。更重要的是,这个选择,很可能会使公司与得以拥抱 kubernetes 的 twitter 工程师们实现真正意义上的共赢。
世界级互联网公司加持的规模化云原生技术
不难看到,twitter 公司这次走向 kubernetes native背后的技术本质,其实是在最大程度的利用 kubernetes 项目本身的核心概念与可扩展能力取得规模化定制性需求与社区标准之间的平衡。
这同样也是阿里巴巴正在社区倡导的一条关键途径。从 2018 年开始,阿里巴巴联

我司本案号下有两个网站和
ssl证书如何安装,都有哪些申请步骤?
网站注册信息怎么查?域名申请要注意哪些问题?
云服务器ecs的购买步骤
华为云服务器ecs是虚拟机吗
买域名的网站哪个好 买域名要注意哪些问题
阿里云服务器会自动续费吗
这3种无服务器缺点:云提供商绝对不会提及