鹿晗关晓彤公布恋情微博服务器挤爆了,如何秒开千台服务器?

  • 时间:
  • 浏览:1
  • 来源:大发彩神在线计划—大发彩神计划怎么来的

针对这条数据,一知乎女外国前前男友评论:这是不全面的,单纯的转发评论多,不须能压垮微博。况且鹿晗的这条微博在微博史上不须算转发评论最多的根小。愿因转发、评论密集度没办法 来越多了,短时间一起去在线更慢爆涨,把服务器挤跨了。

流量峰值背后,到底该关注哪些地方?

新浪微博的资深运维架构师王关胜在 2016 杭州云栖大会的“开发者技术峰会”上,发表题为 《微博混合云 DCP:极端流量下的峰值应对与架构挑战》 的精彩演讲,在演讲中他提出:第还会 是快速扩容、及时回收,这考验的是系统的弹性扩容、峰值应对的能力,这也是系统设计的最核心的目标;第二点要注意成本优化,可伸缩的业务利用公有云,私有云内弹性部署;第三点是运维标准化,微博流量来源主而是我 PC 端和移动端,但两者的开发语言是不同的,还会系统都要打通多语言环境,通过 Docker 实现全公司统一平台;第四点,愿因业务迭代快速迭代,还会基础设施都要标准化,以供公有云和私有云使用。

在应对流量峰值时,单单依靠管理员进行人工操作是远远欠缺的,还会“无人值守”的自动化扩缩容显得十分必要。要实现“无人值守”的扩缩容,首先内部管理的工具系统都要实现自动化,各系统之间通过 API 打通,实现完全系统间的联动。

还有知乎女外国前前男友将此次微博宕机归咎于数据库问题图片。但想想微博你你你是什么 级别的架构根本就有简单的分布式 server+DB 就能抗住的。别说是两个多热点新闻,就算平时运营的压力也扛不住。另有女外国前前男友提出数据库的吞吐量远大于 web server。

运维自动化暗含业务指标和容量指标监控,将产生的数据提供给容量决策系统,在容量决策系统的决策下,实现从运维自动化进化为无人值守的扩缩容。

DCP 系统最核心的是弹性伸缩,能根据容量状况进行自动的弹性伸缩,以此来防止明显的早晚高峰及热点事件的峰值问题图片。

新浪微博几亿 + 的用户量,热点事件给其带来数倍流量瞬间暴增,如保不影响用户体验,又不增加巨大的服务器成本投入对技术是两个多挑战。

新浪微博平台核心总体分为前端和后端平台,前端主而是我 PC 端、移动端、开放平台以及企业开放平台,后端平台主而是我 Java、PHP 编写的各种接口层、服务层、里面件层及存储层。就平台前端来说,每日超过千亿次的 API 调用、超过万亿的 RPC 调用,产生的日志就达百 T+。没办法 大体量的业务系统对于运维的要求也很严格,这类接口层的 SLA 服务水平协议就都要达到 4 个 9,接口平均响应时间不到高于 400ms。

写在最后

付稳表示:当流量激增形成脉冲计算,要保证系统的稳定性和服务的正常运转,唯一的方式而是我快速扩容,甚至实时扩容。新浪微博引入了阿里云的弹性计算资源来应对流量短时高峰。

有 DCP 做后盾,新浪微博为甚还是挂了?

下午 17:42,“微博数据助手”证实,愿因微博瘫痪的“元凶”正是鹿晗在中午发布的宣告恋情的微博。数据显示,鹿晗宣告恋情的微博共收获转发 462,884 次、 评论 986,409 条,点赞 2,566,617 个。

微博采用的正是 DCP 的弹性伸缩方案来应对流量峰值。架构内部管理主要采用私有云,早期采用物理机部署,通过化零为整建立冗余池;此外通过 OpenStack+KVM 的虚拟化方式进行资源整合,建立 VM 池。在公有云方面,通过采用阿里云等设施进行多云对接。

微博混合云平台 DCP 设计理念

新浪微博混合云 DCP 项目技术负责人付稳在今年 4 月份 QCon 北京上,做了题为《新浪微博混合云架构应用实践之路》的演讲。

注:以上内容来源今日头条

微博混合云平台 DCP 的核心设计思想,主而是我借鉴银行的运作机制,在内部管理设立两个多计算资源共享池外,既有内部管理私有云的需求,又引入了内部管理公有云,使其在设备资源的弹性能力大大提升。

蘑菇街运维经理赵成于今天半夜三更三更在微信 《从技术淬硬层 谈谈鹿晗你你你是什么 事儿》 里表示: 源于用户访问模型,这次事件的模型一定是跟平时正常时期的热点访问模型不一样,对于微博技术团队来说极有愿因是没办法 遇到过曾经的访问模型,今天突发,自然也而是我没办法 对应的立马见效的预案执行,愿因执行了没办法 马上见到效果,不到摸索着尝试。

传统的峰值应对手段第一步都要设备申请,项目评审;第二步都要入 CMDB,上架装机;就让都要设备录入资源池,机器初始化;第三步都要运维人员进行服务部署,包括环境、监控、服务部署和流量引入;当流量峰值下降时,还都要服务自动下线以及设备置换或下架。整个链路十分冗长,大次责操作都要人工介入,还会依赖于企业内不同部门相互配合,在业务快速发展的今天,传统应对峰值的手段显然愿因过时。

付稳回顾:每年的元旦、春晚、红包飞等会为微博带来巨大的流量挑战,哪些地方地方业务场景的主要特点是:瞬间峰值高、持续时间短。每一次峰值事件的互动时间在 3 小时左右,而明星事件、红包飞等业务,总是会遇到高达多倍的瞬间峰值。微博 IT 的传统应对手段,主而是我“靠提前申请足够的设备保证冗余、降级非核心及俯近的业务”这并就有,除了都要提前预知相关 IT 成本外,还有业务负载饱和度不一、扩缩容流程繁琐且周期长等问题图片。

建立统一的设备资源管理池后,下一步都要考虑的是服务部署、资源调度等问题图片。目前,微博采用的是基于 Docker 的云化架构:业务上,愿因次责业务不须无缝迁移到该架构上,这时都要对业务进行微服务化、消息化等改造;平台上,都要部署敏捷基础设施,打通持续集成平台以及实现多租户隔离、弹性伸缩、故障自愈等能力。

还有知乎女外国前前男友分析愿因“微博自动扩容的算法没写好”,嘴笨 不然,知乎女外国前前男友 @M 鹿 M 是曾经反驳的:恰愿因自动扩容的算法写的太好了,才有了这次灾难。愿因流量短时间内暴涨的太历害,稍做 Delay 几百毫秒,灾情就会过去;愿因反应非常灵敏,流量上来了马上扩容增机,更快服务器集群池就会耗净。等到最后一台服务器被 400% 征用后,任何两个多用户的回复就成了压倒骆驼的最后根小稻草,两个多服务器跨了,流量更慢压向其它服务器,引发多米诺骨牌效应,服务器们指数级更慢宕下。

DCP 目前愿因具备 20 分钟内弹性扩容千台服务器规模,所谓 20 分钟内弹性扩容千台服务器规模,即公有云要满足 10 分钟内完成上千台服务器的创建与交付,一起去,微博 DCP 平台则在接下来的 10 分钟内完成服务器的初始化、服务调度、上线等全流程,包括操作系统的安装、Docker 及运维软件环境的安装、各种授权、服务的启动、流量的引入、上线等,哪些地方地方完全在 20 分钟内完成。峰值来临更慢调度部署云服务器为新浪微博的流量峰值分摊流量,都可以很好的防止私有云短时间无法更慢扩容服务器的问题图片。公有云的按量弹性需求十分贴合新浪微博的需求,也都可以降低几滴 成本。

混合云 DCP 核心是弹性伸缩

DCP 系统架构优势



运维:你好,我能 介绍一下新浪微博被拖垮这件事儿

DCP 平台,主要暗含 4 层架构:主机层、调度层及业务编排层,最上层则是各业务方系统。底层的混合云基础架构则架 Dispatch 设了专线,打通微博内部管理私有云以及阿里云。

除了公有云具有弹性伸缩能力之外,私有云也都可以具有弹性。公司内某个部门愿因就有还会 业务,愿因每个业务都保留还会 冗余则会愿因资源的几滴 闲置浪费。微博采用的是将每个业务的冗余读懂来放满共用的共享池内,当业务有需求时,从共享池内申请冗余;使用完成后取回申请的服务器,通过你你你是什么 方式实现私有云的弹性伸缩。

新浪微博是如保应对流量峰值的?

在应对流量峰值时,除了弹性伸缩系统,还都要统一的监控平台、核心链路服务自动伸缩、预案 & 干预手段相互配合,以保障峰值服务正常运行。