经过人工智能训练的人工智能会产生大量乱码垃圾
⭐发布日期:2024年09月29日 | 来源:中国火箭军
【新奥 资料免费提供】 |
【澳门彩资料大全最新最快23年】 |
【2024澳门六今晚开奖记录】 | 【二四六天天彩资料大全网最新】 | 【新澳门资料大全正版资料2024年免费下载】 | 【新奥门2024年资料大全】 | 【香港246天天好彩】 | 【2024年澳门码资料免费大全集】 | 【新奥彩资料免费最新版】 | 【2024全年经典资料大全】 |
【2024新澳门开奖免费资料】 | 【澳门天天彩免费资料】 | 【新澳今天最新资料晚上】 | 【2024新澳天天资料免费大全】 | 【天天好彩】 | 【澳门管家婆一肖一码一中一】 | 【2024年新澳门传真】 | 【新澳2024年精准一肖一】 |
众所周知, OpenAI和Google提供的大型语言模型需要大量的训练数据才能发挥作用。这些模型的最新版本已经搜索了现有互联网的大部分内容,这导致一些人担心可能没有足够的新数据来训练未来的迭代。一些业内知名人士,如 Meta 首席执行官马克·扎克伯格 (Mark Zuckerberg) 提出了解决这一数据困境的方案:只需在旧的 AI 输出上训练新的 AI 系统即可。
但新的研究表明,蚕食过去的模型输出将很快导致人工智能产生一连串胡言乱语,并最终导致所谓的“模型崩溃”。在一个例子中,研究人员向人工智能输入了一段关于教堂建筑的良性段落,结果它在几次迭代之后迅速退化。最后,最“先进”的模型只是不断重复短语“黑尾长耳兔”。
本周《自然》杂志发表的一项研究对人工智能训练人工智能的场景进行了测试。研究人员制作了自己的语言模型,最初将原始的、人类生成的文本作为输入。然后,他们又制作了九代模型,每代模型都使用前一代模型生成的文本输出进行训练。最后一代的最终结果是毫无意义的、听起来超现实主义的胡言乱语,与原文毫无关系。随着时间的推移和一代又一代的迭代,研究人员表示,他们的模型“被自己对现实的投射所毒害”。
人工智能模型在自我训练越多就越容易忘记含义
研究人员将这种人工智能似乎自我崩溃的奇怪案例称为“模型崩溃”,这是一种退化过程,可以以早期和晚期的形式出现。在早期,当距离原始训练数据几代的人工智能模型似乎忘记了原始文本中的异常值或罕见内容时,崩溃就开始发生。这会导致最有可能的输出变得越来越普遍。这在现实世界中会成为一个问题,因为它可能导致少数派观点或表达的减少。表现出早期崩溃迹象的法学硕士可能会呈现一种缺乏多样性、千篇一律的现实版本。
在崩溃的后期,事情变得更加奇怪。在最后几代中,用模型训练的模型与原始训练数据相差甚远,以至于它们开始忘记初始训练的关键方面并完全失去情节。正是在这个阶段,模型开始产生完全毫无意义的胡言乱语。当这种情况发生时,研究人员表示,模型对自己先前输出的“不加区分”的自我蚕食“会导致最终模型出现不可逆转的缺陷”。
研究人员声称,对于使用自身数据训练的大型模型来说,这种连锁效应和最终的模型崩溃是不可避免的。值得注意的是,这项研究专门关注语言模型,并没有考虑如果多模态模型(如图像和视频生成器)使用自身数据进行训练会发生什么。这项研究还关注使用自身数据进行训练的模型会发生什么。目前还不清楚如果一个模型(比如 Meta 的模型)使用 OpenAI 生成的输出进行训练会发生什么。
保存原始人类文本可以避免崩溃
现实世界模型崩溃的前景并非不可想象。目前,无数网站都在运行,其中的文章和博客文章完全由法学硕士生成。在尽快构建新模型的竞赛中,许多由人工智能生成的垃圾最终可能会渗入训练集,这并非不可想象。
解决无意中将 AI 生成的内容纳入训练集的一个可能解决方案是鼓励跨平台制定水印标准,明确标记内容的真实性以及内容是否由机器生成。Google、Adobe 和大型科技公司正试图通过一种特殊的“内容凭证”徽章来实现这一点,他们正试图将其作为内容来源和真实性联盟 (C2PA) 的一部分进行标准化。
但这只适用于图像。使用现有的检测软件,人工智能生成的文本也更难加水印,甚至更难准确识别。更现实的方法可能要求人工智能开发人员严格审查材料,以查找人工智能操纵的迹象,并可能向信誉良好的人力来源付费,以获得使用其高质量数据进行训练的机会。如果没有这些人类训练数据的保障,互联网就有被人工智能浪潮淹没的风险。没有人希望这样。
【2024澳门天天开好彩大全免费】 【新澳天天开奖资料大全最新】 |
【2024年天天开好彩资料】 【新澳天天开奖资料大全最新54期】 |
【2024澳门天天开好彩大全53期】 【澳门天天开彩期期精准】 |
【2024全年资料免费大全】 【新澳天天开奖资料大全】 |
【澳门内部最精准免费资料】 【2024澳门天天开好彩大全】 |
【2024年新奥门天天开彩免费资料】 【新澳2024今晚开奖资料】 【2024年澳门资料大全免费】 |
发表评论
Youji
6秒前:目前还不清楚如果一个模型(比如 Meta 的模型)使用 OpenAI 生成的输出进行训练会发生什么。
IP:16.42.7.*
Clemmie
9秒前:但这只适用于图像。
IP:15.77.4.*
段卫平
1秒前:最后一代的最终结果是毫无意义的、听起来超现实主义的胡言乱语,与原文毫无关系。
IP:26.10.1.*