五、详情页架构设计原则

最后更新于:2022-04-01 03:02:55

## 详情页架构设计原则 [TOC=3,3] ### 数据闭环 ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2015-09-06_55ebb3a87dd84.png)  数据闭环即数据的自我管理,或者说是数据都在自己系统里维护,不依赖于任何其他系统,去依赖化;这样得到的好处就是别人抖动跟我没关系。 数据异构,是数据闭环的第一步,将各个依赖系统的数据拿过来,按照自己的要求存储起来; 数据原子化,数据异构的数据是原子化数据,这样未来我们可以对这些数据再加工再处理而响应变化的需求; 数据聚合,将多个原子数据聚合为一个大JSON数据,这样前端展示只需要一次get,当然要考虑系统架构,比如我们使用的Redis改造,Redis又是单线程系统,我们需要部署更多的Redis来支持更高的并发,另外存储的值要尽可能的小; 数据存储,我们使用JIMDB,Redis加持久化存储引擎,可以存储超过内存N倍的数据量,我们目前一些系统是Redis+LMDB引擎的存储,目前是配合SSD进行存储;另外我们使用Hash Tag机制把相关的数据哈希到同一个分片,这样mget时不需要跨分片合并。 我们目前的异构数据时键值结构的,用于按照商品维度查询,还有一套异构时关系结构的用于关系查询使用。 详情页架构设计原则 / 数据维度化 对于数据应该按照维度和作用进行维度化,这样可以分离存储,进行更有效的存储和使用。我们数据的维度比较简单: 1、商品基本信息,标题、扩展属性、特殊属性、图片、颜色尺码、规格参数等; 2、商品介绍信息,商品维度商家模板、商品介绍等; 3、非商品维度其他信息,分类信息、商家信息、店铺信息、店铺头、品牌信息等; 4、商品维度其他信息(异步加载),价格、促销、配送至、广告词、推荐配件、最佳组合等。  ### 拆分系统 ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2015-09-06_55ebb3a8b6b4a.png "点击查看原始大小图片")  将系统拆分为多个子系统虽然增加了复杂性,但是可以得到更多的好处,比如数据异构系统存储的数据是原子化数据,这样可以按照一些维度对外提供服务;而数据同步系统存储的是聚合数据,可以为前端展示提供高性能的读取。而前端展示系统分离为商品详情页和商品介绍,可以减少相互影响;目前商品介绍系统还提供其他的一些服务,比如全站异步页脚服务。 ### Worker无状态化+任务化  ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2015-09-06_55ebb3a8e010e.png) 1、数据异构和数据同步Worker无状态化设计,这样可以水平扩展; 2、应用虽然是无状态化的,但是配置文件还是有状态的,每个机房一套配置,这样每个机房只读取当前机房数据; 3、任务多队列化,等待队列、排重队列、本地执行队列、失败队列; 4、队列优先级化,分为:普通队列、刷数据队列、高优先级队列;例如一些秒杀商品会走高优先级队列保证快速执行; 5、副本队列,当上线后业务出现问题时,修正逻辑可以回放,从而修复数据;可以按照比如固定大小队列或者小时队列设计; 6、在设计消息时,按照维度更新,比如商品信息变更和商品上下架分离,减少每次变更接口的调用量,通过聚合Worker去做聚合。 ### 异步化+并发化  我们系统大量使用异步化,通过异步化机制提升并发能力。首先我们使用了消息异步化 进行系统解耦合,通过消息通知我变更,然后我再调用相应接口获取相关数据;之前老系统使用同步推送机制,这种方式系统是紧耦合的,出问题需要联系各个负责人重新推送还要考虑失败重试机制。数据更新异步化 ,更新缓存时,同步调用服务,然后异步更新缓存。可并行任务并发化, 商品数据系统来源有多处,但是可以并发调用聚合,这样本来串行需要1s的经过这种方式我们提升到300ms之内。异步请求合并,异步请求做合并,然后一次请求调用就能拿到所有数据。前端服务异步化/聚合,实时价格、实时库存异步化, 使用如线程或协程机制将多个可并发的服务聚合。异步化还一个好处就是可以对异步请求做合并,原来N次调用可以合并为一次,还可以做请求的排重。 ### 多级缓存化 浏览器缓存,当页面之间来回跳转时走local cache,或者打开页面时拿着Last-Modified去CDN验证是否过期,减少来回传输的数据量; CDN缓存,用户去离自己最近的CDN节点拿数据,而不是都回源到北京机房获取数据,提升访问性能; 服务端应用本地缓存,我们使用Nginx+Lua架构,使用HttpLuaModule模块的shared dict做本地缓存( reload不丢失)或内存级Proxy Cache,从而减少带宽; 另外我们还使用使用一致性哈希(如商品编号/分类)做负载均衡内部对URL重写提升命中率; 我们对mget做了优化,如去商品其他维度数据,分类、面包屑、商家等差不多8个维度数据,如果每次mget获取性能差而且数据量很大,30KB以上;而这些数据缓存半小时也是没有问题的,因此我们设计为先读local cache,然后把不命中的再回源到remote cache获取,这个优化减少了一半以上的remote cache流量; 服务端分布式缓存,我们使用内存+SSD+JIMDB持久化存储。 ### 动态化 数据获取动态化,商品详情页:按维度获取数据,商品基本数据、其他数据(分类、商家信息等);而且可以根据数据属性,按需做逻辑,比如虚拟商品需要自己定制的详情页,那么我们就可以跳转走,比如全球购的需要走jd.hk域名,那么也是没有问题的; 模板渲染实时化,支持随时变更模板需求; 重启应用秒级化,使用Nginx+Lua架构,重启速度快,重启不丢共享字典缓存数据; 需求上线速度化,因为我们使用了Nginx+Lua架构,可以快速上线和重启应用,不会产生抖动;另外Lua本身是一种脚本语言,我们也在尝试把代码如何版本化存储,直接内部驱动Lua代码更新上线而不需要重启Nginx。 ### 弹性化 我们所有应用业务都接入了Docker容器,存储还是物理机;我们会制作一些基础镜像,把需要的软件打成镜像,这样不用每次去运维那安装部署软件了;未来可以支持自动扩容,比如按照CPU或带宽自动扩容机器,目前京东一些业务支持一分钟自动扩容。 ### 降级开关 推送服务器推送降级开关,开关集中化维护,然后通过推送机制推送到各个服务器; 可降级的多级读服务,前端数据集群--->数据异构集群--->动态服务(调用依赖系统);这样可以保证服务质量,假设前端数据集群坏了一个 磁盘,还可以回源到数据异构集群获取数据; 开关前置化,如Nginx--àTomcat,在Nginx上做开关,请求就到不了后端,减少后端压力; 可降级的业务线程池隔离,从Servlet3开始支持异步模型,Tomcat7/Jetty8开始支持,相同的概念是Jetty6的Continuations。我们可以把处理过程分解为一个个的事件。通过这种将请求划分为事件方式我们可以进行更多的控制。如,我们可以为不同的业务再建立不同的线程池进行控制:即我们只依赖tomcat线程池进行请求的解析,对于请求的处理我们交给我们自己的线程池去完成;这样tomcat线程池就不是我们的瓶颈,造成现在无法优化的状况。通过使用这种异步化事件模型,我们可以提高整体的吞吐量,不让慢速的A业务处理影响到其他业务处理。慢的还是慢,但是不影响其他的业务。我们通过这种机制还可以把tomcat线程池的监控拿出来,出问题时可以直接清空业务线程池,另外还可以自定义任务队列来支持一些特殊的业务。 ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2015-09-06_55ebb3a9107e7.png) ### 多机房多活 应用无状态,通过在配置文件中配置各自机房的数据集群来完成数据读取。 ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2015-09-06_55ebb3a93aa83.png "点击查看原始大小图片") 数据集群采用一主三从结构,防止当一个机房挂了,另一个机房压力大产生抖动。 ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2015-09-06_55ebb3a969185.png "点击查看原始大小图片") ### 多种压测方案 线下压测,Apache ab,Apache Jmeter,这种方式是固定url压测,一般通过访问日志收集一些url进行压测,可以简单压测单机峰值吞吐量,但是不能作为最终的压测结果,因为这种压测会存在热点问题; 线上压测,可以使用Tcpcopy直接把线上流量导入到压测服务器,这种方式可以压测出机器的性能,而且可以把流量放大,也可以使用Nginx+Lua协程机制把流量分发到多台压测服务器,或者直接在页面埋点,让用户压测,此种压测方式可以不给用户返回内容。
';