Jan Fan     About     Archive     Feed     English Blog

如何读懂Web服务的系统架构图

Web服务的一个重要特点就是流量大、数据多,仅靠一台服务器肯定难以支撑大规模的服务。 所以我们经常会看到诸如以下的一些术语,教人好生不懂:

如果你也不懂,那么本文对你来说就是一个很好的开始(笑)。

本文的主要目标——读懂下面这张图例:

CPU负载与I/O负载

我们从CPU和IO说起。 一个典型的Web服务就是网站服务——用户通过浏览器向服务器发起请求,服务器从数据库提取数据后,加工处理返回HTML页面给用户(就像你正在看我的这篇博文:-))。

          request        sql
 +-------+ ---> +------+ ---> +--------+
 |Browser|      |Server|      |Database|
 +-------+ <--- +------+ <--- +--------+
          objects        data

上图中的4个箭头“<—”都需要消耗Server的CPU计算资源,而DB从文件系统中提取数据则消耗IO资源。 当用户数量、请求数量上升时,Server的CPU资源告急(IO资源负载也有增加);当储存的数据量上升时,Server的IO资源也要告急。

比如说单台Server每分钟可以处理3000次请求(PV, Page View),那么每月就可以处理100万PV,超过这个数量服务器就撑不住了; 每次请求都需要从文件系统提取数据的话,由于读取磁盘所需的时间是内存的\(10^5\)~\(10^6\)倍,每分钟的请求数多了数据提取速度必然跟不上,数据库就挂了。

可扩展性

如何处理规模逐渐增大服务需求呢?这要求你的系统要有可扩展性

纵向扩展是金融高富帅或者企业软件比较常采用的方法,因为服务器的价格和性能不成正比,性能达到一定程度后,每一分性能的提高需要投入更多的钱——服务器性能的边际价格是不断上升的。 对于互联网的草根创业团队来说,这显然是不可接受的。

横向扩展又叫分布式,一台Server撑不住我就多来几台。 但现实远比理想复杂。

CPU能力的扩展

CPU负载的分散比较容易,因为CPU的计算不存在依赖性,即当前请求的结果不依赖于上一次请求的结果。 HTTP协议的stateless就是一个很好的例子。 这样CPU撑不住的时候,我直接clone几台完全一起的就好了,而被克隆的这种服务一般就称作应用服务器,它和Web服务器的界限并不很清晰。 Web服务器负责接收用户发过来的请求和返回资源对象给用户,而应用服务器则负责通过计算产生这个资源对象(比如调用CGI脚本)。

这样CPU的负载问题就解决了,我们的架构变成了这个样子。

             +-------+
             |Browser|
             +-------+
       ----------------------
            +----------+
            |Web Server|
            +----------+
       ----------------------
  +------+    +------+    +------+
  | App  |    | App  |    | App  |
  |Server|    |Server|    |Server|
  +------+    +------+    +------+
       ----------------------
              +------+
              |  DB  |
              |Server|
              +------+

I/O能力的扩展

内存读取的速度远高于磁盘,根据操作系统缓存(Cache)的原理,我们提高数据读取速度的基本思路是——提高内存大小可以显著的降低IO负载,即为你的Server换上更大更多的内存条。 相应的基本方针——当操作系统的缓存无法处理时,再进一步考虑分布式。 IO负载分散的本质也就是廉价小容量内存的分散。

IO负载的分散可比CPU的难多了,由于存在数据同步的问题,我们这里不讨论数据库服务器之间全盘的数据复制和冗余化。 既然数据量太大,大到一台服务器的内存装不下,那我们就把数据分割开来——数据分割数据压缩也可以达到一定的效果)。

Web服务的请求是存在访问模式,比如爬虫和普通用户的访问(爬虫会请求很早以前的页面,而普通用户大多访问当前的热门页面),我们把应对用户的热门的资源对象放在一台服务器,应对爬虫的资源对象放在另一台。

即使不存在访问模式,我们也可以通过分区(Partitioning),即表分割来做到。 比如现在MySQL数据库里有一个用户ID表,用户量增长后表的record数是13亿,我们根据ID的大小来排序,分割成几个ID表,每个表几千万个ID,这样单个表大小就是GB级别——内存够装了。

不管是哪一种情况,我们都需要一台索引服务器,来做应用服务器和数据服务器的mapping。

那么现在我们的架构就是:

             +-------+
             |Browser|
             +-------+
       ----------------------
            +----------+
            |Web Server|
            +----------+
       ----------------------
  +------+    +------+    +------+
  | App  |    | App  |    | App  |
  |Server|    |Server|    |Server|
  +------+    +------+    +------+
       ----------------------
              +------+
              |Index |
              |Server|
              +------+
       ----------------------
    +------+  +------+  +------+
    |  DB  |  |  DB  |  |  DB  |
    |Server|  |Server|  |Server|
    +------+  +------+  +------+

最后

本文的说明就到这里为止了,相信你现在再回头看开头的那张系统架构图将会非常容易了吧:-)

另外本文的大部分知识都启发自这本日本人 伊藤直也/田中慎司 写的书籍《大规模Web服务开发技术》,非常优秀的运维入门书籍,作者以朴实的语言和丰富的经历给读者展示了一副详实的big picture,在你深入某些高深的基础架构技术知识点之前(比如分布式文件系统、Key-Value缓存系统、云服务、虚拟化、作业队列、计算集群Hadoop),不妨一读。 同时也要感谢李剑先生的翻译。

Comments

多说 Disqus