微软发布自研AI芯片Azure Maia 100及Cobalt 100
11月16日消息,在北京时间 16 日于西雅图举行的 Ignite 开发者大会上,微软正式推出了两款自研 AI 芯片,用于强化 Auzre AI 和 Microsoft Copilot 服务,分别为 Azure Maia 100 及 Azure Cobalt 100。
据IT之家报道,该系列芯片旨在加速 AI 计算任务,并为其每月 30 美元(约 218 元人民币)的“Copilot”服务和企业软件用户提供算力基础,同时也为希望制作自定义 AI 服务的开发人员提供服务。
Azure Maia 100是一款专为 Azure 云服务和 AI 工作负载设计的 ASIC 芯片,适用于 x86 主机。
该芯片将安装在定制的液冷机架中,同时最多可容纳 4 枚芯片。该芯片将支持标准 INT8 和 INT4 数据格式并利用嵌入式以太网接口。
这款芯片基于台积电 5nm 节点制造,可支持各种 AI 场景,包括自然语言处理、计算机视觉、推荐系统和生成型 AI。
它可以与 Azure 软件栈无缝集成,包括 Azure Machine Learning、Azure Cognitive Services 和 Azure Synapse Analytics 等,从而提供高性能、高效率和高灵活性。
Maia 芯片旨在运行大型语言模型,这是一种支持微软 Azure OpenAI 服务的 AI 软件,也是微软与 ChatGPT 开发者 OpenAI 合作的产品。
微软表示,他们不打算出售这些芯片,而是将它们用于为其自己的订阅软件产品赋能,并作为其 Azure 云计算服务的一部分。
微软和其他科技巨头如 Alphabet 正在努力应对提供 AI 服务的高成本,这可能比传统服务如搜索引擎的成本高出 10 倍。
微软高管表示,他们计划通过一套通用的基础 AI 模型来处理公司几乎所有的 AI 产品工作,以解决这些问题。据称,Maia 芯片正是为此优化的。
微软还表示,明年它将为 Azure 客户提供在 Nvidia 和 AMD 的最新旗舰芯片上运行的云服务。微软表示,它正在 AMD 的芯片上测试 OpenAI 最先进的模型 GPT-4。
Azure Cobalt 100是一款 Arm 芯片,专门用于在微软 Cloud 上运行通用计算工作负载。这款芯片可以提供高密度、高可靠性和高安全性的计算服务,适用于 Web 应用、数据库、容器和微服务等。
它还可以与 Azure 的生态系统兼容,包括 Azure Kubernetes Service、Azure Functions 和 Azure App Service 等。这款芯片的优点在于可以提供低成本、低功耗和低碳排放的计算平台,支持可持续发展的目标。
微软表示,它总共拥有 128 个 Neoverse N2 内核,支持 12 通道 DDR5 内存,与即将推出的 ARM 服务器芯片相比,每个内核的性能提高了 40%。
微软还透露,他们已经在尝试用 Cobalt 为 Teams 赋能。
微软表示,公司还希望直接向客户出售 Cobalt 的使用权,以与亚马逊网络服务(AWS)提供的“Graviton”系列芯片竞争。