十月过半,秋意已浓,这意味着一年一度的狂欢购物节又要来了!
双十一,自2009年诞生以来,已成为中国电子商务行业的年度盛事,并且逐渐打通线上线下渠道,成为影响整个零售行业的年度盛事。
从2009年的5000万元、到2012年的191亿元、2015年912亿元再到2018年的2135亿元,双十一创造的交易额也在不断地刷新着整个行业的天际线。
疯狂的数字背后,支撑“双十一”逐年走高的,是天猫、品牌、消费者的注意力和不断变化的流量。
但同时,抗住瞬间访问量和交易量则是保障整个盛宴顺畅进行的至关重要一环。
服务器崩溃这种事情屡见不鲜,其中“宕机”老手微博就时常引火上身。王宝强离婚、李晨范冰冰恋情、赵丽颖官宣……这些火爆新闻带来的瞬间亿级的访问量,让微博频频“崩溃”。
这让不少用户忍不住吐槽:微博,你是个成熟的软件了,不要别人一官宣就崩溃好吗?
但反观淘宝或天猫,即使是在双十一期间,近年来系统的稳定性也是越来越强,“宕机”出现的概率也越来越低。
每年当11月11日零时到来,天猫或淘宝的访问量和交易量会比日常高三倍,而这个数字随着逐年双十一的到来疯狂倍增,目前访问量已经达到了上亿级别。
零点的到来意味着所有抢购的用户都有可能立即发起交易或是支付。这就好比购物广场零点开门营业的瞬间,所有人涌向收银台。
如果“收银台”不够多,那么顾客就需要排起长队等待支付。
比如2010年零点瞬时并发交易量峰值只有500,这意味着每秒钟有500人能够顺利进入结账环节,从第501位用户开始就需要排队等候;这个交易峰值在2011年增长三倍,到了2018年的双十一,能够同时进入结账环节的用户数量,达到了每秒49.1万人次。
而在处理访问量的能力方面,阿里则实现了跨越式突破。
据公开数据显示:2016年双十一总数据处理峰值为9300万/秒;2017年实时数据处理峰值 4.72亿条/秒,阿里巴巴集团数据公共层总数据处理峰值1.8亿条/秒;2018年处理能力进一步升级,计算峰值每秒17.18亿条,相当于一秒钟读完120万本《新华词典》。
正是这些高性能数据处理能力让你剁起手来“丝般顺滑”!
那么,阿里是怎么做到的呢?
目前互联网公司的数据中心一般采用分布式处理,即大量的数据访问分多次、多地点进行。淘宝数据中心架构的核心业务也已经从Oracle逐步迁到分布式的MySQL集群中,硬件方面采用大量的PC SERVER,采用本地存储。这样就能降低规模,同时实现大量的分布式机器,实现整体计算性能超强。
同时在多个地方建立多个数据中心,意思就是不要把鸡蛋放在一个篮子里面。建立多个数据中心之后就可以实现多站点并行作业,保证高并发的数据访问。
简而言之,就是由传统的集中模式走向分散模式。
举个很简单的例子,如果要解决顾客排队买单的问题,一种最容易想到的解决办法是,增加“收银台”。
但这就意味着商家要花大价钱来扩建这个“中央收银台”,但由于场地有限,能增加的“收银台”也有限。并且如果这个高峰期一过,很多“收银台”将被闲置,因此很不划算。
更可怕的是,这种“中央收银台”是一种高度集中的系统。所有核心账目都存在一处,一旦系统发生故障,只能眼睁睁看着消费者一个个抱怨离开。
于是,在双十一峰值的刺激下,阿里后来放弃了这种“中央收银台”,换成了分散在商场各个角落的无数小型“收银台”。虽然这种小型的“收银台”不如之前的中央收银台高端厉害,但能进行分流并且个个都能记点帐。
更重要的是,有一种统筹全局的力量为分散在各处的“收银台”设计了相互关联的逻辑关系,它们互为补充,互相备份,从全局上保证了运算可靠,因而任何单个“收银台”的故障,都不会影响整盘生意。
这就是云计算能力。
报告主要分析了国内外电子商务行业发展现状与趋势;电子商务配套行业发展现状与趋势;中国电子商务行业主要运用模式;中国电子商务市场主要服务内容发展现状与趋势;中国...
品牌、内容合作请点这里:寻求合作 ››
想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:
下载APP
关注微信号
扫一扫下载APP
与资深行业研究员/经济学家互动交流让您成为更懂趋势的人
违法和不良信息举报电话:400-068-7188 举报邮箱:service@qianzhan.com 在线反馈/投诉 中国互联网联合辟谣平台
Copyright © 1998-2025 深圳前瞻资讯股份有限公司 All rights reserved. 粤ICP备11021828号-2 增值电信业务经营许可证:粤B2-20130734