DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享

本文讲的是DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享【编者的话】微服务是最近非常热门的话题了,它带来的好处吸引不少互联网公司对现有项目进行微服务架构改进。 本次分享是博主根据自身的项目经验,介绍如何对现有架构进行调整,总结这过程中的相关技术选型,以及如何实施技改,并分享最终取得的非常让人意外的成果。

大家好,我是凤凰牌老熊,很高兴能有机会和大家交流关于微服务系统建设相关的话题。 近期和微服务相关的话题非常地火,大家看到的各种开发技术网站,微服务都是一个热门的话题。 今天我也来凑凑热闹吧。 将要和大家分享的是我已经做过的一个项目和正在做的一个项目。这两个项目都是对现有系统进行微服务改造,我将重点介绍具体技术改造的内容,为后来者提供借鉴参考。 一些关于微服务的高大上的理论内容,比如微服务的意义、为什么要微服务、限流熔断的理论依据和实现框架等等内容,大家可以参看以前专家的分享。

先介绍第一个项目的技术改造。这是一个数据仓库的建仓项目。 公司的业务数据的读写往往都会分布在多个项目中,这给前端数据展示以及数据分析造成困难。拿视频数据来说,其元数据,如作者、演员等信息,一般会由内容管理系统来生产;而视频流数据,如编码、时长等,是由编码系统来产生的。视频的观看人数、点击数等,又是由统计系统来提供。 而在页面展示的时候,这些内容都要同时显示出来。这就需要一个数据仓库作为中介,将所有数据收集起来,并提供给前端使用。 这个数据仓库系统基本上会对接公司所有的业务系统,提供数据读、写和分析支持。 

我在2014年接手这个项目的时候,已经有一个比较稳定运行的系统。实际技改工作是2015年初开始,2015年底完成。成果主要包括:

  • 数据读写的性能大幅提升。高峰期读的QPS 由 50次/分钟,提升到 2万/秒,日访问量也从2万左右,提升到接近20亿。并可以轻易横向扩展。数据写入能力,也从30TPS/秒,提升到3000TPS/秒。
  • 从单机房服务,扩展到异地三机房同时提供服务。让大部分业务访问都能够在同机房内部完成。跨机房数据同步,正常情况下,在1s内可以完成。
  • 新接口开发投入的effort缩短,从原有的1-2天,进一步缩短到2小时即可上线。

在这过程中,我们在对原有系统做技术升级的同时,也引入了微服务框架来做实现。作为技改项目,我们的原则是:小步快跑,积小胜为大胜。在保证线上系统稳定运行的同时,逐步改进原有系统。 这是一个核心系统,一旦出问题,公司整个业务都会受到影响。技术改造是一个高风险的工作。 除非是上级领导明确要求并同意把这个工作作为考核指标来激励团队,否则很难以推进。 另外也要得到团队成员的支持。 我们启动这个工作前有半年的准备期,其中很大一部分工作是在争取大家的支持。最后也是认可这个架构的人才参与系统改进工作,确保整个工作是按照预定设计逐步推进。

这个项目我们进行的还比较顺利,原来的系统的基础还算比较好。 老项目有三个大工程,实现数据读、写、同步。对外提供的是RPC接口,使用Apache Thrift作为RPC框架和服务器。 数据同时写入到MongoDB和HBase中。MongoDB主要用来支持数据读取,而HBase用来支持数据写入。 

主要问题在于:

  • 虽然原项目设计打算用Mongodb和HBase来做读写分离,实际实现的时候并未达到这个目标。数据是同时写入MongoDB和Hbase的。这经常导致数据不一致,在高峰期写入时,由于MongoDB的特性,经常发生写入失败的情况。
  • 项目规模大,维护困难。几个核心类,每个类规模都超过2000行。新员工入职后,没有半年的熟悉时间,都不敢动核心代码。
  • 开发进展慢。由于这个项目提供的是后台数据功能,一般产品规划时很容易漏掉这里的工作。当想起来需要支持的时候,给的开发时间都不多。

需要我们在架构和流程上做调整。具体来说,在微服务化的层面,我们做了如下工作: 

1. 建立服务网关

这是一个很重要的工作,有了网关的支持,我们就可以根据需要把流量在新老系统之间切换。我们采用的是zookeeper和网关服务来实现。所有服务注册到zookeeper上,网关服务根据zookeeper的注册项来将用户请求按比例打到具体的工作机上。这比直接访问工作机会增加1ms左右的开销。在网关上使用Netflix Hystrix来实现熔断和限流。

2. 细分业务,读写分离

一提到读写分离,很多人直观概念是使用主从的方式来实现。 实现上还需要根据业务情况来详细分析。 这个项目中,我们将数据写入场景做了详细的分析,按场景来拆分原有数据读写接口。 在写入上,我们按照场景拆分为如下接口:

  • 高速写入。主要用于离线分析结果入库。 采取的方案是分析数据通过MapReduce、Spark等框架写入到Kafka中,我们接受Kafka的数据,灌入到HBase中。 每天变更数据在千万量级,1小时左右时间完成写入。这些数据变更无需实时通知业务方。
  • 中速写入。主要用于支持线上数据的入库。数据通过RPC服务接口直接入库到Hbase中,支持每秒在3000TPS左右的写入。
  • 低速可靠写入。主要用于支持人工生产数据入库。数据也是通过RPC接口来写到HBase中。数据写入后,通过消息机制来通知各业务方相关的改动。

在读取功能上,我们也拆分为两类工作:

  • 可靠读取,主要用于支持数据生产工作。同一条数据会有不同业务方来通过工作流来写入,后写入者需要通过上一个写入者的数据来确定写的内容。这种情况,要求能够随时读取到可靠的数据。 对于这些读取,我们是直接将请求打到持久化库中(Hbase)。
  • 高速读取,主要用于支持线上数据查看。这类操作一般对数据的实时性要求不高。我们采用Couchbase来做缓存,支持线上读取。 废弃早期的MongoDB。我们一个Couchbase可以轻松支持线上上万的QPS。

这就涉及到数据同步问题了:

  • 读写库之间的数据同步,我们通过MQ(Apache ActiveMQ,桥接)来实现。 数据写入到HBase时,发出Message。读库接收到Message之后,更新自己的数据。
  • 跨机房数据同步,我们也是走的MQ。相对来说,MQ对网络不像数据库内部同步机制这么敏感。 在网络出问题的时候,MQ能够尽快恢复。同时监控起来也方便。

这里有一个小细节,实际上跨机房的Couchbase数据同步,我们也是走的MQ。在每个机房接受MQ之后更新Couchbase的数据。 我们的Couchbase定位于缓存,仅保存热数据。从实践中发现,不同地域的人,关注的数据还是不一样的。这导致Couchbase的内容差异不少。

3. 接口拆分,微服务化

有了网关的支持,明确拆分目标和架构后,我们就可以将原项目中庞大的实现类做拆分,按照服务来切分,建立Project。每个Project仅实现不会超过5个接口,这些接口都是高内聚的、同功能的,仅仅是参数略有不同。 拆分之后,每个项目中的实现类都很少,不会超过10个,而且每个类的规模也很小,代码行数不会超过300行。 新员工入职后,都能够立即上手。

4. 完善基础设施

在微服务环境上,我们采用Git做版本控制,GitLab做代码审核, Jenkins来支持自动发布和上线。正在小规模试用Spring Cloud,效果还不错,后续会继续推广。

这是第一个项目的情况。第二个项目是我当前正在做的。这是一个支付系统,面临的情况比第一个项目复杂多了,也是更典型的一个项目。原系统是SSH框架,很难想象支付系统会采用这个技术选型。不过大部分现存的web系统也都是采用这个框架,这个改造可以为大家提供更相似的实战经验。老系统规模庞大,每个项目都有超过1000个类,最大的一个项目有3000多个类。由于项目正在进行中,可以分享的内容还不多。项目完成后,争取有机会和大家一些再做交流。 目前可以分享的要点主要有:

  • 这个项目我们采用Spring Cloud来作为微服务的框架。
  • 我们将系统拆分2个大层,不包括前端系统。一层是对外提供的Web服务,采用http/json。 一层是业务逻辑层,供Web服务层调用,采用RPC来实现。
  • Web层采用Spring Boot来实现;
  • RPC层采用Apache Thrift 来实现。
  • 服务网关使用Nginx + Lua实现Load Balance、限流、服务自动发现。
  • 基础设施上,仍然是Git + GitLab + Jenkins。

关于这个项目的进展,以及项目开发中的一些想法和设计,大家可以关注我的公众号“凤凰牌老熊”,或者访问个人博客,谢谢。

Q & A

Q:服务网关使用Nginx + Lua 方案有考虑过吗?

A:有,我第二个项目就用这个方案来做,正在做。

Q:我想问个问题,微服务后分布式事务如何处理的?

A:非常好的问题。第一个项目没有这方面的问题。第二个项目,支付项目,事务处理问题就很突出。 网上有不少分享,关于如何使用MQ来做分布式事务的。不过我们用的方式比较简单粗暴。 那就是去掉分布式事务,追求最终一致。 从实际情况来看,这已经能够满足绝大部分的场景需求了。

Q:关于ZooKeeper / Curator+ 自己实现的发现服务来做服务的自动注册和发现,能否详细一点说明?

A:Apache Curator是对ZooKeeper API的一个封装,支持事件处理和重试,和Spring Framework也集成得很好。在服务注册实现上,我们是在服务提供方通过Curator API来写入到ZooKeeper上,服务消费者从ZooKeeper上来发现所需要的服务。

Q:1-5个内聚的接口一个project。 能在详细下么?

A:内聚的接口,指这些接口功能相同,主要是输入参数不一样。比如检索的接口,有按关键字检索,有按作者 + 时间的检索。这样的接口,可以放在同一个项目里面。但是根据ID来读取的接口,和这个检索接口,就是不同的项目。 这样控制项目规模不会太庞大,也便于维护。

Q:我有个问题,你们这个项目一定有很多微服务的jar包,这是jar包在服务器上是怎么分布的?

A:对Web接口类型的微服务,其实和普通的项目一样,每个项目就管自己的jar包以及它所依赖的jar包。 也有人会把所有的jar包汇总起来打成一个大jar包,这种方式,容易出现资源文件被覆盖的情况,也不容易更新,不推荐。

Q:RPC为什么不用国产Dubbo啊?

A:这是个好问题,我们经常被问这个问题。 Dubbo是个不错的框架,相对微服务来说,还是太重了。 而且,性能上,比Thrift 还是要差不少。 所以我们就直接上Thrift了。

Q:支付的这个需要对接多个银行么?

A:需要,我们现在对接了快10个银行,还在对接更多的银行。除了银行,第三方支付、外卡等,也都在接。

Q:服务网关重点需要关注那些点?

A:我们实际有两个网关,一个是对外的Web接口服务网关,关注的是Load Balance以及可靠性。 特别是服务重启的时候,网关要提前解除注册,重启之后,网关要延后注册上。 这有不少成熟的组件可以用,不一定像我们这样自己开发。 RPC网关,也是要注意稳定性和性能,以及网关决不能和业务耦合。

Q:微服务是按表来拆分的,那么是一个服务自己连一个数据库还是有统一得数据层呢?

A:RPC层的微服务,基本是按表来拆分了,自己连一个数据库。这里实际也分两层,数据访问层和业务逻辑层。如果业务逻辑很薄,就合并成一层了。

Q:用 Thrift 做 RPC,服务发现也是自己做的吗?

A:是的,这个用Apache Curator比较容易实现,我们就自己搞一个。

Q:Hbase和mongo读写分离这块能具体说一下嘛? 和mongo副本集比较有啥优势么?

A:这个问题就是涉及到如何使用数据库的问题。每个数据库都有自己的优势,比如HBase写入性能极好,上万的TPC都没问题,但是读取的性能就差了,就小几千。 Couchbase读取的性能极佳,但是写入就很一般。 Redis读写都很不错,就是不能支持太大粒度的数据,以及容量有限制。 MongoDB似乎比较尴尬,功能很全面,但是读写都一般。

Q:Couchbase通过MQ实现跨机房同步是怎么实现的?

A:在主流程中,数据修改的时候会发出一个Message,监听程序接收到这个消息后,去更新couchbase中的数据。 采用MQ的原因,在于它对网络波动不像数据库直接同步那么敏感。

以上内容根据2016年11月29日晚微信群分享内容整理。分享人李雄峰,程序员 & 架构师,来自中科大的本科,研究生在软件所学习。先后在中科辅龙、三星(中国)研究院和国内一些大型的互联网公司呆过。在中科辅龙公司负责电子政务内容管理系统建设,负责研发龙驭系列产品的研发,这款产品最终实施到2000多个电子政务网站上,期间也参与了一些支付反洗钱以及支付系统的建设。之后在三星中国研究院,负责自然语言处理(NLP)以及智能家居相关项目。智能家居项目在2014CES消费电子展上作为三星重点项目推介。2014年开始加入爱奇艺公司,负责数据仓库和支付系统的建设。 DockOne每周都会组织定向的技术分享,欢迎感兴趣的同学加微信:liyingjiesz,进群参与,您有想听的话题或者想分享的话题都可以给我们留言。

原文发布时间为:2016-11-30

本文作者:李雄峰

原文标题:DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享

时间: 2024-10-26 05:54:39

DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享的相关文章

B站高性能微服务架构

编辑IT大咖说阅读字数: 2672用时:8分钟本文内容来源于任伟在[沪江技术沙龙]-漫谈微服务架构实践上的主题演讲,IT大咖说为沪江技术沙龙独家视频知识分享平台. 内容摘要Bilibili作为一个大型弹幕视频网站,在竞争日益激烈的互联网行业中,开始重视技术生态的演进,探索寻求适合企业本身的一个微服务架构.本次分享主要讲述了B站高性能微服务架构的演进. 大家好,我是来自bilibili的任伟.今天的分享分为三个部分内容:  曾经的价格体系.  面临的一些痛点问题.  高性能微服务架构在B站的落地.

认证鉴权与API权限控制在微服务架构中的设计与实现(一)

作者: [Aoho's Blog] 引言: 本文系<认证鉴权与API权限控制在微服务架构中的设计与实现>系列的第一篇,本系列预计四篇文章讲解微服务下的认证鉴权与API权限控制的实现. 1. 背景 最近在做权限相关服务的开发,在系统微服务化后,原有的单体应用是基于session的安全权限方式,不能满足现有的微服务架构的认证与鉴权需求.微服务架构下,一个应用会被拆分成若干个微应用,每个微应用都需要对访问进行鉴权,每个微应用都需要明确当前访问用户以及其权限.尤其当访问来源不只是浏览器,还包括其他服务

深度剖析微服务架构的九大特征

微服务架构这个术语在过去几年渐成热门,它把一种特定的软件应用的设计方法描述为能够独立部署的服务的套件.尽管缺乏对这一架构类型的准确定义,但是在业务能力.自动化部署.智能端点.语言和数据的去中心化控制等方面,已经形成了某些普遍特征. 微服务,另一个在软件架构领域津津乐道的新词.尽管我们本能上倾向于对它不屑一顾,然而这一专业术语描述了一种目前越来越吸引人的软件系统的风格.我们已经看到近年来有许多项目使用了此类型,结果很鼓舞人心;因而对于我的诸多同事来说,这也就成为他们构建企业级应用时候的首选.然而,

老司机的微服务架构实现,照亮你的人生 | 朱攀

编者按:前2月,向朱攀兄弟约稿,畅聊甚欢,引为知己.今刊发以飨读者! 微服务为当今群雄混战局面,从dubbo问世数载,然业界尚未有完整打包结局方案,前有小剑之<老司机带你玩PPmoney微服务>,德比软件作为前驱,集数年研究与实战,搭建平台,填埋深坑,则业界之幸! 适逢1024程序员节,一并祝各位程序猿/媛节日快乐,早日步入老司机行列 前言 微服务概念被提出来后,短时间内就成了当前互联⽹圈的⼀个技术热点,有很多互联⽹公司计划或正在进⾏微服务化改造,那么,实施微服务我们应该怎么开始呢?需要哪些基

元数据驱动的微服务架构(上)

本次分享有两个部分: 微服务架构需要元数据 介绍微服务与元数据的关系. 一.微服务架构需要元数据 企业IT架构已经发展了多个阶段,一方面是服务化架构的发展,在SOA阶段主要解决应用间集成问题,但随着企业业务的发展,单个应用逐渐成为"巨石型"应用,难以扩展也难以维护. 微服务架构应运而生,微服务架构专注于单个应用的内部,将"巨石"应用拆分成为多个微服务,以微服务为单独单元开发运营.另一方面是模型化架构式的发展,模型驱动工程也在不断发展,从MDA(模型驱动架构)全面的完

通过Ruby on Rails和docker构建微服务架构之入门教程

说到时下的架构,免不了会涉及到微服务.而谈到微服务架构,又跟容器和Docker技术脱不了关系.虽然容器和Docker并不完全是一回事,但两者是密不可分的,而且二者之间也有共同之处:在大型复杂应用的构建和运营方面,二者都可以大大提高企业的效率.   微服务可不像一般的应用,可以通过apt-get工具进行安装,大家可能会问了:我们该如何才能像安装应用一样实现这种服务呢?在很大的程度上,这个问题的答案是否定的,我们无法轻松实现这种服务.更准确的说,至少目前我们还无法实现.在一个系统中,最难修改的就是架

12年互联网产品开发人眼中的微服务架构云端应用

微服务架构很热,讨论的文章非常多.但如果提到微服务架构的云端应用,可以深入分析的还比较少.本篇来自中生代技术群(FreshmanTechnology)第二期,好雨云创始人兼CEO刘凡的分享.其曾任澳客网 CTO和CEO职位.拥有超过12年互联网产品开发和管理经验,专注于互联网技术架构设计,对产品设计.敏捷开发.安全.OKRs.大数据等领域有深入研究.现推崇反应式编程(http://www.reactivemanifesto.org/),并在多个产品中成功应用. 下为正文: 微服务架构(Micro

如何提高微服务架构的可用性

业界通常用多少个9来衡量系统的可用性,如99.99%表示一年中有1小时左右的不可用时间.任何一个服务的可用性都不会是100%,意味着在服务运行时间里还是有可能发生故障.当把功能集中且运行在同一个应用中的单体架构拆分成多个相互独立的微服务架构后,虽然可以降低一损俱损的全局性故障风险,但由于微服务之间存在大量的依赖关系, 随着微服务个数的增多,依赖关系也将会变得越来越复杂,而且每个微服务都有可能发生故障,如果不能做好相互依赖的隔离,避免故障的连锁反应,结果可能比单体更糟糕.假设有100个微服务,并且

微服务架构的核心要点和实现原理

微服务架构中职能团队的划分 传统单体架构将系统分成具有不同职责的层次,对应的项目管理也倾向于将大的团队分成不同的职能团队,主要包括:用户交互UI团队.后台业务逻辑处理团队与数据存取ORM团队.DBA团队等.每个团队只对自己分层的职责负责,并对使用方提供组件服务质量保证.如果其中一个模块化组件需要升级.更新,那么这个变更会涉及不同的分层团队,即使升级和变更的改变很小,也需要进行跨团队沟通:需求阶段需要跨团队沟通产品功能,设计阶段需要跨团队沟通设计方案,开发阶段需要跨团队沟通具体的接口定义,测试阶段