电子
发烧友网报道(文/李弯弯)日前,知乎在北京召开“2023知乎发现大会”,首次公开旗下与面壁
智能
共建的大模型
产品
“知海图
AI
”。官方表示,在热榜上抽取、
聚合
知乎用户回答的41条内容,“知海图AI”的表现基本接近ChatGPT-4。
在OpenAI推出ChatGPT之后,近几个月,国内外
科技
企业陆续推出自己的大模型,包括百度的文心一言,商汤科技的商量SenseChat,阿里云的通义千问,昆仑万维的“天工”3.5,以及
亚马逊
的
Ti
tan,还有360、腾讯、搜狐,王慧文的光年之外等都传出相关消息。
目前都发布了哪些大型语言模型
OpenAI在2022年11月30日发布的ChatGPT,在短短几个月时间风靡全球。今年3月14日,OpenAI再次发布更强大的多模态大模型GPT-4。其最大股东微软
公司
不仅宣布推出由ChatGPT支持的搜
索引
擎Bing和Edge浏览器。还宣布将GPT-4全面接入所有办公软件。
在ChatGPT的带动下,全球科技公司掀起研究大型语言模型的热潮。国内
最新
跟上的要数百度了,3月16日,百度正式发布新一代大语言模型、生成式AI产品文心一言。在发布会上,李彦宏还展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成等使用场景中的综合能力。
除了百度,最近还有多个大型语言模型密集发布。4月10日,昆仑万维宣布,其和奇点智源合作自研、中国第一个真正实现智能涌现的国产大语言模型——“天工”3.5发布在即,并将于4月17日启动邀请测试。该公司表示,“天工”大模型已经非常接近OpenAI ChatGPT的智能水平。
4月11日,在2023阿里云峰会上,阿里云也正式发布了旗下的类ChatGPT大模型——通义千问。阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面改造,钉钉、天猫精灵已率先接入通义千问测试,并会在评估
认证
后正式发布新功能。
4月12日,商汤科技发布“日日新SenseNova”大模型体系,推出语言大模型“商量SenseChat”、内容生成、自动化数据标注、自定义模型训练等多种大模型及能力。据悉,作为千亿级
参数
的自然语言处理模型,“商量SenseChat”使用大量数据训练,并充分考虑了中文语境,能够更好地理解和处理中文文本。
4月13日,亚马逊推出一项名为“Bedrock”的云服务,允许
开发者
使用类似于ChatGPT聊天
机器人
的
人工智能
系统。通过Bedrock生成式人工智能服务,亚马逊旗下云服务AWS将向开发者提供自家的语言模型“Titan”,以及来自初创公司AI21和谷歌支持的Anthro
pi
c的语言模型。这其中,一个Titan模型可以为博客帖子、电子邮件或其他文档生成文本,而另一个可以帮助搜索和实现个性化。
此外,华为、腾讯也在大模型方面有所积累,华为最早于2021年便发布了华为云盘古基础大模型,包括NLP、CV和科学计算大模型。最近有消息称,华为云官网即将上线盘古系列AI大模型,分别为NLP大模型、CV等。不过华为云方面,并没有对此做出回应。
腾讯很早就已经进行AI大模型的研究——混元AI大模型覆盖NLP(自然语言处理)、CV(
计算机视觉
)、多模态等基础模型和众多行业/领域模型。腾讯不久前表示,近期混元AI大模型团队也推出了万亿中文NLP预训练模型HunYuan-NLP-1T,实现在中文语言理解能力上的新突破,而且得益其低成本、普惠等特点,目前HunYuan-NLP-1T大模型已成功落地于腾讯广告、搜索、对话等内部产品并通过腾讯云服务外部客户。
除了科技大厂,也有创业团队宣布加入大模型研究大军。4月10日,搜狗创始人王小川正式宣布入场大模型创业,和前搜狗COO茹立云联合创立人工智能公司——百川智能,要做的事情是打造中国版的Open AI基础大模型及颠覆性上层应用。王小川表示,有信心在年底发布国内最好的语言大模型。
另外,还有之前很受关注的创业项目,美团联合创始人王慧文设立的光年之外科技公司。以及前商汤科技副总裁、通用智能技术负责人闫俊杰创办的Minimax。
大模型的训练和运行,离不开算力支持
然而,大模型的训练和运行,需要强大的算力基础。阿里云、商汤科技、腾讯等,在研究推进大模型研究的同时,也在构建算力基础设施,供公司自身或其他公司使用。
大模型背后的算力基础,包括高性能计算
硬件
、分布式计算框架、高效的
算法
和优化技术以及大量的训练数据和存储资源。这些因素共同支撑着大模型的成功运行。
阿里云在这方面做了充足准备,张勇表示,十多年来,阿里云已经累积了从飞天云
操作系统
、
芯片
到智算平台的“AI+
云计算
”的全栈技术实力,并在IaaS(基础设施即服务)和PaaS(平台即服务)的基础上,建立了第三层MaaS(模型即服务)的体系。
具体而言,“飞天智算基础设施”智算IaaS服务涵盖了一系列卓越特性,包括能够支持高达十万卡
GPU
的单集群规模、可让多个万亿参数大模型同时在线训练的强大智算集群,以及为万卡规模AI集群提供无拥塞通讯的自主研发R
DMA
网络
架构等;
智算PaaS服务则以
机器学习
平台PAI为核心,可支持万卡的单任务分布式训练规模,AI训练效率提升可达10倍,推理效率提升可达6倍,覆盖全链路AI开发工具与大数据服务,深度支持了通义大模型的研发。
智算MaaS服务包括通义大模型系列和以之为基础的企业定制大模型。
凭借这些能力,阿里云不仅可以为自家大模型“通义千问”提供支持,还能够把丰富的算力资源和大模型能力分享给更多企业和社会各界,共同推动
AI技术
的发展。
商汤科技在这方面也有积累,当前业界训练大模型对大算力的需求非常旺盛,并且真正好用的基础设施十分稀缺。商汤历时五年,建设了业界领先的AI大装置,大装置上总共有27000块的GPU芯片卡,可以输出5.0 exaFLOPS的总算力,是亚洲目前最大的智能计算平台之一。
基于大装置的能力,商汤目前已构建了计算机视觉、自然语言处理、AI内容生成、多模态、决策智能等多个领域的大模型,持续演进能力并广泛支持各种应用。
面向大模型训练,4月14日,腾讯云正式发布了新一代HCC(High-Pe
rf
or
mance Computing Cluster)高性能计算集群。该集群采用腾讯云星星海自研服务器,国内首发搭载
英伟达
最新代次H800 GPU,能够提供高性能、高带宽、低延迟的算力支撑。根据官方数据,新的HCC计算集群能够将大模型的训练时间从上一代的11天压缩至4天,可以有效节省大量时间。
全民AIGC时代要来了
从目前的情况来看,国内外科技企业巨头都已经加入到大模型的研究大军中,在过去短短几个月时间,各种大模型产品密集发布。与此同时,作为大模型训练和部署重要的支撑,算力基础设施的构建也在加速推进。
另外,日前消息,微软宣布开源了Deep Speed Chat,可以帮助用户轻松训练类ChatGPT等大语言模型,使得人人都能拥有自己的ChatGPT。也就是说,用户通过Deep Speed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型,这标志着人手一个ChatGPT的时代要来了。
当然,当前ChatGPT等大模型还处于初期发展阶段,人们不免对安全隐患、数据隐私、道德问题存在担心。不过,最近多个国家已经开始着手制定AI相关的规则和政策。这意味着,大模型在经历了过去几个月的野蛮生长之后,将会逐步向规范化发展。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
联系,视为放弃本次试用评测资格!
2018 年,OpenAI
发布
了首个大语言
模型
——GPT,这标志着大语言
模型
革命的开始。这场革命在 2022 年 11 月迎
来了
一个重要的时刻——O
发表于
06-03 11:39
当地时间5月13日OpenAI推出
ChatGPT-4
o,代表了人工智能向前迈出的一大步。在GPT-
4
turbo的强大基础上,这种迭代拥有显著的改进。在
发布
会的演示中,OpenAI展示该
模型
发表于
05-27 15:43
【国产FPGA+OMAPL138开发板体验】(原创)6.FPGA连接
ChatGPT
4
方面。而且,由于
ChatGPT
4
是一个大型的语言
模型
。通常,FPGA会用于处理一些底层的数据流或执行
特定
的硬件加速任务,而
ChatGPT
发表于
02-14 21:58