10个问题搞懂大模型,看完更懂生产力 1定义:具
⭐发布日期:2024年09月29日 | 来源:大皖新闻
【2024年澳门管家婆免费资料查询】 |
【二四六天天免费有玄机】 |
【澳门天天彩2024年最新版】 | 【2024年澳门开奖资料】 | 【新澳天天开奖资料大全1050期】 | 【2024年新奥门天天开奖结果】 | 【新奥天天开奖免费经果,2024】 | 【澳门天天彩精准免费资料】 | 【新奥彩内部资料查询】 | 【六开奖澳门开奖结果查询】 |
【0149335cσm查询,澳彩资料2024年】 | 【新澳门天天好彩免费大全】 | 【澳门彩库】 | 【澳门二四六天好彩资料精选】 | 【澳门开奖资料期期准】 | 【2024新奥天天彩免费资料】 | 【澳门2024正版王中王】 | 【2024年开奖结果】 |
10个问题搞懂大模型,看完更懂生产力
1.定义:具有大规模参数和复杂计算结构的机器学习模型(Large Model,也称基础模型,即Foundation Model)
2.组成:由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。
3.目的:为了提高模型的表达能力和预测性能,处理更加复杂的任务和数据。
4.应用领域:自然语言处理、计算机视觉、语音识别和推荐系统等。
5.大模型特点:①条件广:参数规模巨大,需更强算力;②过程特:大数据预训练,微调,自监督学习;③表现好:涌现出智能,更好泛化能力,多任务学习,不同领域知识融合,自动化,效率和性能
6.大模型分类:①语言大模型(NLP:Natural Language Processing)用于处理文本数据和理解自然语言。大语言模型(Large Language Model),自然语言处理模型,例如 OpenAI 的 GPT-3 模型。GPT(Generative Pre-trained Transformer)。②视觉大模型(CV:Computer Vision)用于图像处理和分析。③多模态大模型:是指能够处理文本、图像、音频等多模态数据。
7.大模型层级:①通用大模型L0:是指可以在多个领域和任务上通用的大模型,相当于AI完成了“通识教育”。②行业大模型L1:特定行业或领域的大模型,相当于AI成为“行业专家”。③垂直大模型L2:是指那些针对特定任务或场景的大模型。
8.泛化:对新数据的理解和预测能力。
微调:使用少量带标签的数据对预训练模型进行再次训练。
9.微调种类:①Fine-tuning:最常用,在预训练模型的最后一层添加一个新的分类层,根据新的数据集进行微调。②Feature augmentation:通过向数据中添加一些人工特征来增强性能。③Transfer learning:使用训练过的模型作为新任务的起点。
10.发展历史:
①萌芽期(1950-2005):以CNN为代表的传统神经网络模型阶段
1956年,计算机专家约翰·麦卡锡提出“人工智能”概念开始,AI基于小规模专家知识逐步发展为基于机器学习。
1980年,卷积神经网络的雏形CNN诞生。
1998年,现代卷积神经网络的基本结构LeNet-5诞生,机器学习方法由早期基于浅层机器学习的模型,变为了基于深度学习的模型。
②探索沉淀期(2006-2019):以Transformer代表的全新神经网络模型阶段
2013年, Word2Vec提出将单词转换为向量的“词向量模型”
2014年,GAN(对抗式生成网络)标志着深度学习进入了生成模型阶段。
2017年,Google提出Transformer架构(自注意力机制),奠定了大模型预训练算法架构基础。
2018年,OpenAI和Google分别发布了GPT-1与BERT大模型,意味着预训练大模型成为自然语言处理领域的主流。
③迅猛发展期(2020-至今):以GPT为代表的预训练大模型阶段
2020年,GPT-3模型参数达到1750亿,零样本学习任。RHLF、代码预训练、指令微调等策略出现。
2022年11月,GPT3.5迅速引爆互联网。
2023年3月,超大规模多模态预训练大模型GPT-4,具备了多模态理解与多类型内容生成能力。
【2024澳门天天开好彩大全免费】 【新澳天天开奖资料大全最新】 |
【2024年天天开好彩资料】 【新澳天天开奖资料大全最新54期】 |
【2024澳门天天开好彩大全53期】 【澳门天天开彩期期精准】 |
【2024全年资料免费大全】 【新澳天天开奖资料大全】 |
【澳门内部最精准免费资料】 【2024澳门天天开好彩大全】 |
【2024年新奥门天天开彩免费资料】 【新澳2024今晚开奖资料】 【奥门开奖结果2024澳门】 |
发表评论
诺亚·琴蒂内奥
7秒前:5迅速引爆互联网。
IP:82.68.2.*
El-Balawi
9秒前:③多模态大模型:是指能够处理文本、图像、音频等多模态数据。
IP:59.59.7.*
董飞扬
4秒前:2017年,Google提出Transformer架构(自注意力机制),奠定了大模型预训练算法架构基础。
IP:56.32.9.*