云计算再思考:重塑自己就是重塑未来
2021-01-14 22:59 文章来自: OFweek 收藏(0) 阅读(35867) 评论(0)
对于很多行业而言,2020年是一个重要的分水岭。

  这一年,全球持续的疫情,带来的是人们工作方式与生活方式巨变,数字化、线上化呈现出前所未有的爆发态势,各行各业的数字化转型得到空前提速。

  同样,2020年对于云计算而言也是标志性的一年。数字化带来的云计算强劲需求,让各行各业拥抱云计算的速度明显加快。Gartner更预测,全球持续的疫情将继续影响到2021年的云计算市场,全球最终用户的公共云支出明年将增长18%,有望达到3049亿美元。

  在这样的大背景下,2020 亚马逊 re:Invent大会显得格外具有意义。改成线上形式的 re:Invent大会,时间跨度近一个月,恐怕是史上时间跨度最长的线上科技大会,除了带来了各种重要的云计算服务产品、技术最新动态之外,今年还有一个很重要的议题就是“重塑”--引发企业对于数字化时代生存与发展的深度思考。

  通过2020 亚马逊re:Invent大会,我们又能得到哪些重要的启示?

  云计算叠加效应日益突出

  亚马逊re:Invent大会的新产品和新服务一直都是整个云计算产业发展的风向标。与往年类似,在这届re:Invent大会上,AWS 发布了多项全新的服务和功能,主要集中在计算、存储、数据库数据分析、容器、机器学习运维、工业机器学习等多个方面,几乎涉及到云计算从IaaS到PaaS的各个领域。并且,AWS各项云计算服务之间的叠加效应日益突出。

  事实上,云服务之间的叠加背后是大量用户对于云计算的新需求。众所周知,用户当前很多业务场景之中,已经不再只应用一项或者几项技术,而是云计算、大数据人工智能等多项技术的综合应用,以银行的日常数字营销为例,就涉及到各种数据的打通、营销模型的训练与学习、营销人群的数据分析等等。

  与此同时,云平台实际上已经成为云计算、大数据和人工智能技术综合运用的最佳载体,必须提供各种技术之间的叠加与综合运用,这往往需要在各个产品层面进行打通与集成。例如,人工智能是用户智能化升级的重要技术手段。但人工智能并不是一个孤立存在技术,涉及到从底层芯片、机器学习框架、AI服务等一系列环节。


  我们来看看AWS是如何通过产品之间的叠加,让AI充分发挥其价值的。针对机器学习数据准备耗时、复杂,训练数据特征多源异构,需要耗费大量精力在数据提取和规范上,AWS打造了Amazon SageMaker Data Wrangler,一键对接Amazon Athena、Amazon Readshift、Amazon S3、AWS CloudFormation ,Snowflake、MongoDB、Databricks等产品,可以从各种数据存储中快速数据,并一键导入,成为模型的特征数据,加大提升了AI基础环节的效率。

  又如,AWS将机器学习能力跟数据库进行嫁接,让数据库开发者、数据分析师沿用数据库查询的方式,让他们的机器学习想法落地到业务应用中。此次re:Invent大会上,AWS一口气介绍了Amazon Aurora ML、Amazon Athena ML、Amazon Redshif ML、Amazon Neptune ML以及Amazon QuickSight 等多项功能,给数据库、数据仓库、图数据库、BI等服务都集成了机器学习功能,让数据库开发者和数据分析师可以将机器学习用起来。

  从未来趋势来看,随着企业上云的加速,会有越来越多应用往云上迁移,随之而来的就是对于更多云服务的采用,并且会要求云服务之间可以更好地进行集成和无缝使用,AWS对于云服务之间的叠加与集成无疑给出了云计算未来一个重要的技术方向。

  将云计算每一件事情做到极致

  从2006年8月份正式开通云服务,到2020年第三季度收入达到116亿美元,同比增长29%,年化收入达到460亿美元,AWS营收增长在一个IT产业史上堪称神话,这背后重要的原因就是AWS将跟云计算相关的每一件事情都做到极致。

  例如,数据中心等基础设施是云服务商的核心命脉,由于大部分云服务商随着业务的增长,其数据中心的规模和设备数量也会随之膨胀,带来的就是数据中心故障和宕机风险的增长。AWS作为全球云计算巨头,其数据中心规模无出其右,但它一年的平均宕机时间比规模次大的云端供应商少七倍之多。

  面对规模如此之大、复杂性如此高的数据中心基础设施,AWS的数据中心如何能够做到如此出色?核心原因在于,AWS将数据中心上到整体的地理区域,下到数据中心部件级的设计与运维,都建立起全面的保护机制。


  例如,在人们固有的印象之中,数据中心的各种设备属于传统的风火水电,比如发电机组的配电系统和UPS,都是传统厂商生产的通用型产品,并无太多创新的空间。但是AWS在其长期的业务发展中,深刻意识到这些传统通用型产品并不是自身业务所需要的。“以配电系统的控制系统为例,作为一个嵌入式系统非常复杂,很多功能并不是AWS业务所需要的。” AWS大中华区产品部计算与存储总监周舸如是说。

  为此,AWS的思路就是围绕数据中心部件,进行产品复杂性的降低,从发电机组的配电系统,到UPS的控制软件都重新设计,大幅降低规模庞大的数据中心的各种复杂性。

  此外,AWS对于整个地理区域的可用区建立起全面的保护机制,远距离的可用区设置,可以降低自然灾难(火灾,水灾…)带来的业务中断风险;其次,用户选择最近站点接入以低延迟访问AWS云资源;第三, AWS分别管理每个区域中的运维,将故障分割。

  周舸介绍道:“从最小的零件,到整个可用区的架构,AWS是一层层思考如果发生了故障或者宕机会给用户带来哪种影响,并且尽量不影响到用户的业务。”

  又如,随着多核操作系统、多核应用程序以及微服务的普及,对于数据中心计算资源要求越来越细,也给数据中心的能耗、效率、性能、运维带来了极大压力。众所周知,传统处理器因为需要兼容传统工作负载,所以芯片越做越大、越来越复杂,增加了很多功能,比如SMT多线程控制组件,SMT虽然可以多个线程共享和共用计算资源,但也会带来工作负载不平衡、性能容易受影响以及安全隐患等问题。

  为此,AWS打造了基于 ARM 的芯片组Graviton,针对不同应用和需求持续发力Graviton定制芯片,很好地解决了传统芯片带来的一系列问题,让数据中心发挥极致能力。