简体中文
繁體中文
English
Pусский
日本語
ภาษาไทย
Tiếng Việt
Bahasa Indonesia
Español
हिन्दी
Filippiiniläinen
Français
Deutsch
Português
Türkçe
한국어
العربية
摘要:【盘中宝】微软拟推出AI芯片助力大模型,是人工智能发展的底层基石,这家公司产品性能或与NVDIA H100性能持平
财联社资讯获悉,据媒体报道,微软准备推出人工智能芯片,为大型语言模型提供动力。两位直接了解相关项目的人士透露,微软在2019年就开始开发这种内部代号为“雅典娜”(Athena)的芯片。据悉,微软已将芯片提供给一小部分微软与OpenAI员工,他们正测试这项技术。微软希望这种芯片比目前从其他供应商处采购的芯片性能更好。报道指出,亚马逊、谷歌和Facebook等科技巨头也在开发自家内部芯片。
一、AI芯片是AI发展的底层基石
目前用于人工智能深度/机器学习的芯片主要有GPU、FPGA、ASIC 三类芯片。三类芯片用于深度学习时各有优缺点:(1)通用性:GPU>FPGA>ASIC,通用性越低,代表其适合支持的算法类型越少。(2)性能功耗比:GPU
英伟达早在1999年就发明出GPU,但直到2009年才由斯坦福大学发表论文介绍了如何利用现代GPU远超过多核CPU的计算能力(超过70倍),把AI训练时间从几周缩短到了几小时。算力、模型、数据一直是AI发展的三大要素,而AI芯片所代表的算力则是人工智能的底层基石。
根据OpenAI数据,GPT-3 XL参数规模为13.2亿,训练所需算力为27.5PFlop/s-day。由于ChatGPT是在13亿参数的InstructGPT基础上微调而来,参数量与GPT-3 XL接近,因此预计ChatGPT训练所需算力约为27.5PFlop/s-day。以NVIDIA V100芯片为例,一颗NVLink版本V100芯片的深度学习算力为125TFlops,则ChatGPT模型的训练至少需要1颗V100芯片计算220天才能完成。根据OpenAI数据,随着GPT-3系列模型参数规模由1.25亿增加至1746亿,训练所需算力从2.6PFlop/s-day上升至3640PFlop/s-day,规模参数(1396.8倍)与算力需求(1400倍)呈同比例增长。
二、国产AI芯片供应商有望进入快速增长通道
中泰证券分析指出,芯片作为人工智能行业的基础层,为其提供算力支持,未来越来越多AI应用的落地离不开庞大算力的支撑,因此也将推动算力产业链快速增长。据IDC指出,2021年中国AI投资规模超100亿美元,2026年将有望达到267亿美元,全球占比约8.9%,排名第二,其中AI底层硬件市场占比将超过AI总投资规模的半数。AI发展的海量数据对数据处理提出极高要求,AI芯片需求快速增长,看好国产AI芯片供应商在产业创新趋势向上以及本土替代背景下进入快速增长通道。
三、相关上市公司:海光信息、寒武纪、欧比特
海光信息DCU是GPGPU的一种,申万宏源预计2023年底量产的DCU3性能与NVDIA H100性能持平,已量产的DCU2约等于70% NVDIA A100,双方在模拟效率和精度都处于同一代际。
寒武纪思元系列产品适配TensorFlow、Pytorch、Caffe深度学习框架,思元290与商汤在CV层面深度合作,NLP领域在讯飞、百度语音都有出货,申万宏源指出,寒武纪思元590将是最早实现商业应用的接近英伟达A100性能的国产AI训练芯片。
欧比特正在加紧研制的新一代人工智能芯片可适用于航空航天计算机平台的高速数据处理,星上智能化信息提取,自动进行地物识别等业务领域。
近期热门系列:
4月17日《AI或驱动光模块技术升级需求,这一高速光互连极具竞争力的解决方案具备高成长性,这家公司拥有芯片、器件以及模块设计、生产的核心能力》
4月12日《该行业接棒成为GPT板块主阵地,AI提升工业化程度,有助于扩张产能,这家公司已与微软开展相关合作》
4月3日《光模块中最核心的器件,AIGC算力催生需求,这类产品有望快速放量,这家公司正在开发的芯片可以用于该领域,相关产品研发进度顺利》
4月3日《行业巨头发布行业大模型产品,有望成为垂直GPT率先落地的场景,这家公司已成为文心一言首批合作伙伴》
免责声明:
本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性作出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任