5、网站优化

最后更新于:2022-04-02 06:11:10

  最近阅读了很多优秀的网站性能优化的文章,所以自己也想总结一些最近优化的手段和方法。   个人感觉性能优化的核心是:减少延迟,加速展现。   本文主要从产品设计、前端、后端和网络四个方面来诉说优化过程。 ## 一、产品设计   在网上看到一句话:好的性能是设计出来的,而不是优化出来的。   感觉好有道理,如果将性能瓶颈扼杀在摇篮里,那么后期的维护成本将变得非常低,并且在避免改造后,都不需要浪费资源了。 **1)聊天改版**   最近公司有个聊天活动做改版,改版上线后惊喜的发现,[监控数据](https://www.cnblogs.com/strick/p/14577054.html)居然减少了将近20W。 :-: ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/4c/ac/4cac2fc083f92b2616580161862aaa7a_1480x738.png =600x)   更深一步的探究,才知道在页面初始化时,会发一个请求,去获取一些文案,但其实这些文案都是写死的,完全可以写到页面本地。   如果在产品设计时,就不是通过接口读取的方式,那么就可以大大减少浏览器和服务器之间的通信。 **2)数据迁移**   公司有一个审核系统,最近审核人员反应系统使用起来越来越卡。排查后发现,定位到性能瓶颈,是因为数据表巨大导致的,目前已有6千万条。   其实在一开始设计时,就该能预估到,未来的数据量,感觉还是偷懒了,想快速完成。感叹前人挖坑,后人埋坑。   起初是想分表,但思虑后还是决定不那么做,最后采用的是[MySQL归档](https://www.cnblogs.com/strick/p/15412413.html)。   前前后后花了两周的时间,才将方案落地实现,涉及到运维、QA和我们前端组,人力成本无疑是巨大的。   其实在每次完成优化后,可以再想想能不能将问题泛化,扩大维度,想想其他地方是否有类似问题,总结经验供他人学习,以及对未发生的问题进行预判。 **3)大批量的504**   这是在上线监控平台后不久发现的,504 的请求量太多,这类通信错误居然占了25%~30% 左右。   经过排查定位到一个常规的翻卡活动中,产品设计出现了严重的问题。   在进行一个翻卡操作时会请求两个接口,并且每个接口各自发送 3 次通信,这样会很容易发生 504 错误,每天大约有1500个这样的请求。   首先是给其中一张表加了个索引,然后是将两个接口合并成一个,并且每次返回 20 条以上的数据,这样就不用频繁的发起请求了。   经过改造后,每日的 504 请求从 1500 个左右降低到 200 个左右,减少了整整 7.5 倍,效果立竿见影,大部分的 504 集中在 22 点到 0 点之间,这段时间的活跃度比较高。   还有一个令人意外的发现,那就是监控日志的量每天也减少了 50W 条。  ## 二、前端   前端的优化手段非常多,常规的其实就是延迟请求和减少页面渲染次数。 **1)预请求**   数据预请求是将数据预请求的时机由业务发起请求的时机,提前到用户点击时,并行发送数据请求,缩短数据等待时间。   这个需要客户端配合,在Webview启动的时候,并行的去请求首屏需要的数据。   经过观察发现每次请求后端数据的API大概要花100~200ms,如果把这段时间省下来,那么也能减少白屏时间。   在与客户端沟通时,他们还是表现的比较抗拒的,在他们看来这点时间微不足道,还会增加他们的工作量。   有个人还一直强调浏览器内置的缓存规则是一剂灵药,绝对可以提升页面的性能,经过讨价还价后敲定最终的[预请求方案](https://www.cnblogs.com/strick/p/14918217.html)。 **2)预加载和懒加载**   预加载和懒加载特指的是图片的加载,其实就是延迟请求时机。   两者的核心算法就是计算图片的相对位置,具体[参考于此](https://www.cnblogs.com/strick/p/5372694.html)。   这两招非常有效,可以说是立竿见影,尤其是页面中图片量较多以及尺寸较大时,能瞬间提升页面加载。   之前做过一次偏动画的宣传页,在进入页面时,立刻请求所有图片,直接白屏好几十秒。 **3)串行变并行**   有一张活动页面,交互并不多,但是要展示的数据需要经过后台比较复杂的计算后才能得到。   一开始是将所有的数据都包含在一个接口中,这就导致页面发起请求后,要白屏好几秒后,才能慢慢加载。   用户的等待时间很长,经过排查后发现,其实可以将一些配置参数提取到单独的一个接口中,核心的数据再抽取到另一个接口中。   这样就是将一个串行的接口分离成两个并行的接口,先快速的让用户看到整个页面的大结构,例如头图、规则等信息。   然后在将数据渲染到合适的位置,形成了一个时间差,对用户更加友好。 ## 三、后端   后端主要涉及是Node.js和数据库的优化,我们组涉及到的此类性能瓶颈并不多,但也会有一些。 **1)内存泄露**   自研了监控平台,在刚上线时,就遇到了性能问题,首先是采集的参数在大批量的发送给存储的服务器时,服务器宕机了。   因为每秒就有几百甚至几千的请求发送过来,服务器需要整理数据后加入到数据库中,当数据量暴增时,服务器就会来不及处理。   这个性能瓶颈发生后,马上加入任务队列,服务器就能平稳的运行了。   之后又出现了另一个问题,CPU会在不特定时间段(例如21~22、23~02等)飙到70%,内存也是一路飙升不会下降,明显是出现了内存泄漏,具体的排查过程可以[参考于此](https://www.cnblogs.com/strick/p/14754867.html)。   开通了阿里云的 Node.js 性能平台,在前前后后调试了三周,有点像探案的过程,才最终定位到一段最为可疑的代码。   原来是为外部的一个对象反复注册了一个事件,应该是形成了一个闭包,让闭包内的变量都无法释放。 **2)数据库**   仍然是在研发监控平时时遇到的性能瓶颈,这次主要体现在数据库。   监控的日志我都存储在MySQL中,每日 70W 条记录,数据量很快达到了千万级别,在做查询时,变慢了很多。   那么就得让索引上了,亚洲舞王尼库拉斯赵四曾说过:一个索引解决不了的,那就来两个索引。   我也是这么做的,加了好多个索引,但唯独模糊查询,这个不是加索引能解决的,尝试了很久,最终还是决定迁移到ElasticSearch中。   效果也是立竿见影的,几千万条数据,几秒钟就出了结果,令我惊叹不已。   这里顺便说下,我会在什么场景中选择 MongoDB 作为数据库的。   MySQL是一种关系型数据库,会事先声明表结构,那么对于数据结构不定的记录,存储起来会比较费劲。   例如记录中有许多JSON格式的数据,就比较适合存在 MongoDB,当然了,这类数据也可以转换成字符串存在 MySQL 的一个字段中。   只是在读取和写入时,要经过序列化和反序列化的操作,并且如果要查询JSON数据的某一个字段时,MySQL中就只能模糊查询了。   但是平时的话,我还是会尽量将数据存在 MySQL 中,有个很直接的原因是因为线上的 MySQL 有一个功能完善的可视化界面,而 MongoDB 没有,只有一个我自制的简陋工具。 **3)管理后台挂起**   之前也会偶尔有管理后台服务挂起的情况发生,但最近会在每天的10点左右发生。   在下图中,一分钟内server服务瞬间飙到了 100%,不得不让我引起注意。   :-: ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/41/c0/41c014ce690c56e33cfebe62d0b43c6c_1312x540.png =600x)   查找那段时间的日志,发现有很多送礼的记录,反向查询后,定位到一个导出链接。   初步以为是这个功能导致的服务挂起,询问相关操作人员,得到当时的操作过程。   在预发环境模拟,得到的结果是可以正常导出,所以应该可以排除它的嫌疑。   回想到前天也发生了挂起(不过前天的CPU都比较正常),再次翻查日志,新发现直指审核模块。   与审核人员沟通后,她们向我一顿吐槽,大倒苦水,说这系统11点后,经常卡顿转圈。   这个系统后续有很大的优化空间,那么目前首要任务是解决服务挂起的问题。   可以想到的是将审核模块单独配置一台服务器,做成独立服务,这样也便于观察。   服务切换其实就是将特定规则的API指向另一个服务,代码和逻辑都不需要改动,非常方面。   隔天发现仍然会挂起,但是挂起的服务可以定位到审核模块,运维也找到了一条发生504的接口。   前一天发生的挂起,也是这个接口引起的,顺着这条接口查看代码,并没有发现什么异常。   打开日志,发现这个接口的响应的确非常慢,要几分钟了,再去查其中涉及到的SQL查询语句,发现也很耗时。   将语句拿到数据库中执行 EXPLAIN 命令,影响的行数要 311W 多条,命中的索引是 idx\_create\_time。   而去掉其中的一个日期限制后马上降到 69 条,命中的是一个联合索引,回到代码中,查看逻辑后,发现这个时间限制是多余的,马上就将其去除。   还有一条SQL语句运行也很慢,影响的行数要 16W 多条,命中的索引是 idx\_status,而这个 status 其实只有几个可选的关键字,会影响查询效率。   于是再创建一个联合索引,影响的行数降到 1785 条,优化后,再反馈给审核人员。 ***** > 原文出处: [博客园-Web优化躬行记](https://www.cnblogs.com/strick/category/1795726.html) [知乎专栏-Web优化躬行记](https://zhuanlan.zhihu.com/c_1260996761008627712) 已建立一个微信前端交流群,如要进群,请先加微信号freedom20180706或扫描下面的二维码,请求中需注明“看云加群”,在通过请求后就会把你拉进来。还搜集整理了一套[面试资料](https://github.com/pwstrick/daily),欢迎阅读。 ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2e1f8ecf9512ecdd2fcaae8250e7d48a_430x430.jpg =200x200)
';