与此同时,亚马逊云科技对生成式AI的态度也是积极进取。在re★★■◆◆★:Invent 2024大会上★★★★★◆,AWS发布了全新的Amazon Nova基础模型集群,包括NovaMicro、Lite、Pro等多种大型语言模型。这些模型不仅具备低成本的特性,还能实现高效的运算速度,与之前Amazon Bedrock模型相比★■■◆,应用成本下降高达75%凯发集团app网址◆★■■★。对于希望快速实现AI解决方案的企业而言,这无疑带来了可观的便利。
Trainium2芯片为20★◆.8Petaflops的浮点算力性能★■■,能够支持数十亿参数的大语言模型的训练与部署需求,还推出了Amazon EC2 Trn2 Ultra Servers■◆★◆,内含64颗Trainium 2芯片,浮点算力达83★★◆★◆.2Petaflops。这些硬件的推出,不仅能大幅提升计算效率◆★■■★,更能为万亿参数规模的AI模型实时推理做好准备。年度大会上,亚马逊云科技还揭示了前景光明的Project Rainier,未来将包含数十万颗Trainium2芯片◆■,预测性能将超过现有主流模型训练所需的算力。
从硬件到模型★◆,再到数据服务凯发集团app网址,亚马逊云科技在re:Invent 2024上展示的全栈创新成果,充分显现出面向AI大模型浪潮的准备和能力◆■★。亚马逊大中华区产品部总经理陈晓建提到:“我们不仅在云的核心服务层面持续创新◆★,更在从芯片到模型★★◆★■■,再到应用的每一个技术堆栈取得突破。”这与其在云计算领域的领导地位密不可分。
在AI大潮席卷行业的背景下,亚马逊云科技并未止步于硬件和模型工具的创新■■★,Amazon S3存储服务和数据库业务也得到了诸多改进★◆◆■◆◆。新的Metadata功能能够实时更新数据元信息,提升查询性能。同时■★★★◆■,新的Amazon Aurora DSQL无服务器分布式SQL数据库,搭载自动故障恢复功能,为跨区域操作提供99★■◆■.999%的可用性◆■★。此外,Amazon DynamoDB全新增强了多区域强一致性支持★◆■◆■,进一步确保了跨国业务的实时同步。
在云计算领域,亚马逊云科技(Amazon Web Services, AWS)的名字早已深入人心。尤其在去年的11月底,全球权威机构Gartner在《战略云平台服务魔力象限》中对其连续第14年评定为全球首屈一指的“领导者”地位,彰显了亚马逊在该行业的绝对优势。然而◆■■★◆◆,当前云计算行业最炙手可热的话题已不再是传统云存储或网络服务■★◆■,而是生成式人工智能(Generative AI)所带来的新机遇和挑战。因此,即便是行业的领军者,亚马逊云科技也在加速其“转型★◆■”的脚步。
对于广大开发者和企业■★■★■■,AWS所带来的这些技术进步不仅是对自身能力的提升,更是为各行业的AI落地应用提供了强力支持◆■◆◆◆■。在这个快速发展的AI时代,亚马逊云科技稳扎稳打、不断革新的脚步,显示出其有望引领未来科技发展的潜力与信心。
2023年底★■■,亚马逊云科技在re:Invent大会上高调宣布与NVIDIA建立战略合作伙伴关系,并进一步展示了针对生成式AI全栈联动的创新解决方案■◆。自研芯片在支撑AWS迅猛发展的过程中,始终成为其★◆“中流砥柱”■★◆■。根据统计数据,2024年亚马逊云科技新增的CPU算力中,超过50%来自自研的Graviton系列处理器★■◆■★。然而,真正成为这次大会◆◆★“明星”的却是全新推出的AI训练芯片Trainium系列。其新一代的EC2Trn2实例,性价比相比GPU的EC2P5e和P5en实例提升了30-40%■■■■■。
AWS还新推出了Amazon SageMaker HyperPod服务,配备先进特性,能够显著节省AI训练的时间,降低高达40%的训练成本,帮助新模型从实验室走向实际应用场景。这种全面创新反映出亚马逊云科技在构建和应用AI模型的前瞻性思考◆◆■◆。