国内外知名大模型产品列表(2024/04/24)

国内外知名大模型产品列表(2024/04/24)

这一年AI界的进展主要集中在AIGC领域,AIGC就是人工智能生成内容(Artificial Intelligence Generative Content),也就是用自然语言让AI帮你创作各种各样的内容,比如图片、视频、音乐、文字等等。截止目前,AI最擅长的创作领域是文字,其中最擅长的细分领域是(1)各种语言之间的翻译,(2)各种长篇大论的机器阅读并总结,(3)各种命题作文的撰写。次擅长的创作领域是图片,各种图片大模型大多可以实现文字生图和以图生图,主要的应用领域是logo设计,插画设计这种需要头脑风暴创意无限但精确度要求比较低的领域。根据自然语言生成视频和音频的大模型也陆续有问世,但主要还是来凑热闹为主,不太能满足各种商业用途。

----- 国外部分 -----

国外的大语言模型质量明显比国内的强一个档次,其中开山怪和领头羊目前都是OpenAI的chatGPT,GPT4.0尽管在某项参数上经常会被一些开源的大模型超越,但只有真正的使用者才能体会到其作为大语言模型一骑绝尘的优势所在。国外的大模型绝大多数都需要架梯翻墙才能访问,而且由于生成的内容相对自由,国内企业使用起来可能会要注意合规风险。

闭源组

综合类

chatGPT: https://chat.openai.com OpenAI研发的大模型,目前是GPT4.0版本,地表最强,推出至今近一年时间虽然有各路英雄号称在某个专项上达到或者超越它的水平,但它一直用实力碾压这些虚名。缺点是除了要会科学上网之外,注册需要国外手机号,升级为plus会员(使用GPT-4及配套服务)需要国外信用卡,严格的KYC使其使用门槛比其它同类产品要高一截。目前GPT3.5版本可以不注册直接体验。

Claude: claude.ai/ anthropic研发的大模型,目前版本是3.0,上下文长度稳定为200K token,仅次于Gemini 1.5。详见《Claude 3官方简介(附个人点评)》

Gemini(Bard): https://gemini.google.com google研发的大模型,前身为Bard,目前版本为1.5,拥有地表最长上下文10M(1M稳定) token。详见《Google Gemini 1.5 技术报告(全文)》

Mistral Large: mistral.ai/ Mistral AI 2024年2月发布的闭源大模型,拥有32K 上下文,参数数量不明。详见《Mistral团队的新模型——Mistral Large介绍》

Grok: grok.x.ai/ 模型本身知名度一般,主要是老板一龙马斯克比较知名,目前版本为1.5,只有推特付费会员才可以体验。详见《xAI发布Grok-1.5(附个人点评) 》

New Bing: bing.com/new 微软研发的大模型,最大的优势就是不需要翻墙。

图片类

Midjourney: midjourney.com/ Midjourney研究实验室开发的人工智能程序,可以实现文字生图和图生图。目前版本为v6。

Stable Diffusion: stability.ai/stable-dif 由CompVis、Stability AI 和 LAION 的研究人员创建文本到图像潜在扩散模型,需下载代码布署本机使用,对电脑硬件配置有一定的要求,目前更新到了3.0版本。

DALL·E 3: openai.com/dall-e-3 OpenAI研发的AI图像生成器,需要chatGPT Plus会员才能体验。

Imagine with Meta AI: imagine.meta.com/ Meta研发的AI图像生成器,目前免费。

Imagen 2: deepmind.google/technol Google Deepmind 2023年12月发布的AI图像生成模型,效果待验证。

音频类

Stable Audio: stableaudio.com/ Stablility AI发布的AI音频生成模型。

MuseNet: openai.com/research/mus OpenAI研发的AI音频生成模型。

Suno AI: https://suno.ai anthropic研发的音频大模型,可以根据prompt和歌词完成谱曲和编曲。

视频类

Stable Video Diffusion: stability.ai/stable-vid Stablility AI发布的AI视频生成模型,以两个图像到视频模型的形式发布,能够以每秒 3 到 30 帧的可定制帧速率生成 14 帧和 25 帧,生成视频时长2-5秒。需下载代码布署本机使用,对电脑硬件配置有一定的要求。

Gen-2: research.runwayml.com/g Runway在2023年6月发布的AI视频生成模型,分为免费版和标准版($15/月),可以用图片生视频和用文字生视频。

Pika: pika.art/ Glen Pika在2023年11月发布的AI视频生成模型,目前已开放公测,支持文生视频、图生视频和视频生视频,生成视频时长3秒。

Sora: openai.com/sora OpenAI在2024年2月发布的AI视频生成模型,时长可达1分钟。

开源组

Llama: llama.meta.com/llama3/ Meta研发的开源大模型,2024年4月目前发布了3.0版本,参数量为8B和70B,还有一个400B的在路上。详见《Llama 3发布:地表最强开源LLM来袭~》

Vicuna: github.com/lm-sys/FastC UC伯克利学者联手CMU、斯坦福等高校于2023年5月推出一个模型,参数量13B、7B,后来增加了33B的版本,目前版本为v1.5。

Mistral: mistral.ai/ 法国的大模型初创企业MistralAI于2023年9月份发布的模型,参数量7B。2023年12月发布了Mixtral-of-Expert-7B,是一个拥有8个专家层的MoE模型。详见《Mixtral of Expert》精华摘译

Starling: starling.cs.berkeley.edu 加州大学伯克利分校2023年11月发布的模型,参数量7B。

Gemma: ai.google.dev/gemma Google2024年2月发布的开源小语言模型,参数量为2B和7B。详见《Gemma: Open Models Based on Gemini Research and Technology》

Phi: Introducing Phi-3: Redefining what's possible with SLMs 微软发布的大语言模型,目前版本为3.0,有 mini(3.8B)、small(7B)和 medium(14B)三个版本。详见《Phi-3 技术报告(全文)》

DBRX: Introducing DBRX | Databricks Mosaic AI 2024年3月发布的开源大语言混合专家(MoE)模型,参数量为132B,每次输入激活的参数36B,拥有16个专家层每次激活4个。详见《Databricks发布开源MoE模型——DBRX(全文)》

----- 国内部分 -----

国内的大语言模型都是为了想在这个市场中分一杯羹赶鸭子上架陆续上线的,截止目前和国外大模型相比能力残缺还是比较严重的,不过在中国传统文化领域的语料训练上还是可以体现出一定优势的。好处是不需要翻墙访问,回复内容生成速度快,而且国内企业和他们集成不太需要考虑政策风险。

由于截止目前国内的大模型产品雷同且竞争力一般,楼主并没有太多精力和兴趣认真试用和比较以下列表,此处只做罗列。

闭源组

文心一言yiyan.baidu.com/ 百度研发的大语言模型,目前3.5版本免费使用,4.0版本收费使用。

智谱清言chatglm.cn/ 清华大学 KEG 实验室和智谱 AI 公司于 2023 年共同训练的语言模型,目前版本为4.0,支持文字聊天,图片。

字节豆包doubao.com/ 字节跳动研发的大语言模型。

通义千问qianwen.aliyun.com/ 阿里研发的大语言模型,目前2.x版本。

百川智能baichuan-ai.com/ 搜狗系研发的大语言模型,目前3.0版本。

腾讯混元hunyuan.tencent.com/ 腾讯研发的大语言模型。

讯飞星火xinghuo.xfyun.cn/ 科大讯飞研发的大语言模型。

复旦MOSSmoss.fastnlp.top/ 复旦大学研发的大语言模型,目前处于内测阶段。

华为盘古pangu.huaweicloud.com/ 华为研发的大模型系列,目前仅限华为云企业用户体验。

天工work.tiangong.cn/ 昆仑万维研发的大语言模型。

商汤日日新platform.sensenova.cn/ 商汤科技研发的大语言模型平台。

Kimi: kimi.moonshot.cn/ 月之暗面研发的大语言模型,长文档阅读之王。

开源组

零一万物lingyiwanwu.com/ 李开复牵头搞的开源大模型,LMSYS排名不错,参数数量为6B和34B,有基座版、微调版和量化版。

Qwen: github.com/QwenLM/Qwen 通义千问开源版本,参数数量为1.8B/7B/14B/72B,2024年3月底发布了MoE版本,目前最新版本为1.5。

DeepSeek: deepseek.com/ 幻方团队开发的开源大模型,DeepSeek-LLM的参数数量为7B和67B,另外还有DeepSeek-Coder, DeepSeek-Math, DeepSeekMoE等开源模型。DeepSeekMoE的技术论文详见《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models 》

编辑于 2024-04-26 23:04・IP 属地浙江