🤖 Ai回答: 目前,AI大模型(Large Language Models,LLMs)的发展非常迅速,新的模型层出不穷。以下是一些目前广为人知的AI大模型:
1、BERT(Bidirectional Encoder Representations from Transformers):由谷歌开发的预训练语言模型,2018年发布,参数量达到3.4亿。
2、RoBERTa(Robustly Optimized BERT Pretraining Approach):由Facebook AI开发的预训练语言模型,2019年发布,参数量达到355M。
3、TransformersXL:由谷歌和DeepMind联合开发的预训练语言模型,2019年发布,参数量达到1.5亿。
4、T5(TexttoText Transfer Transformer):由谷歌开发的预训练语言模型,2020年发布,参数量达到11亿。
5、XLNet:由谷歌、卡内基梅隆大学和Facebook联合开发的预训练语言模型,2019年发布,参数量达到340M。
6、ALBERT(A Lite BERT for SelfSupervised Learning of Language Representations):由谷歌开发的预训练语言模型,2019年发布,参数量达到50亿。
7、DeBERTa(DecodingEnhanced BERT with Disentangled Attention):由微软开发的预训练语言模型,2020年发布,参数量达到110亿。
8、Ernie 2.0:由百度开发的预训练语言模型,2020年发布,参数量达到25亿。
9、OPT(Open Pretrained Transformer):由Meta AI开发的预训练语言模型,2022年发布,参数量达到1750亿(1.75T)。
10、PaLM(Pathways Language Model):由谷歌开发的预训练语言模型,2022年发布,参数量达到5400亿(54B)。
11、LLaMA(Large Language Model Meta AI):由Meta AI开发的预训练语言模型,2023年发布,提供7B、13B、33B、65B四个版本。
12、ChatGPT:由OpenAI开发的对话式AI模型,2022年发布,参数量达到1750亿(1.75T)。