编辑:[db:作者] 时间:2024-08-25 07:19:10
AI时期
2022年11月30号,OpenAI推出ChatGPT后随即爆火,五天注册用户数过百万,2个月用户破1亿,成为史上增长最快的消费者运用。随后各大厂也纷纭卷入AIGC领域,迎来国产GPT大模型发布潮以及AI创业公司成立潮。
大模型代表一个新的技能AI时期的来临,大模型展现出的强大的语义理解,内容天生以及泛化能力正在逐渐改变我们的事情与生活办法(AI+)、事情办法和思维办法。正如《陆奇的大模型不雅观》所讲,当前我们正迎来新范式的新拐点,从信息系统到模型系统过渡,"模型"知识无处不在。人工智能的浪潮正在引领新的技能革命,或容许称为第五次工业革命。
2024年2月16日,OpenAI正式发布文生视频模型Sora引发环球关注。Sora可以根据用户的文本提示快速制作长达一分钟的逼真视频,这些视频可以呈现具有多个角色、特定类型的动作、主题和背景等准确细节的繁芜场景。而像Pika等其他主流的视频天生模型大多只能坚持5s旁边的动作和画面同等性,而Sora可在长达17s的视频中保持动作和画面的同等性。
上风:60s超永劫光、运动镜头下内容同等性、现实场景真实感。
2024年3月13日,明星机器人创业公司 Figure,发布了全新 OpenAI 大模型加持的机器人 demo。视频中Figure demo机器人展示与人类的对话,没有任何远程操作。机器人的速率有了显著的提升,开始靠近人类的速率。引起对机器人的发展速率感到震荡,我们彷佛正处在这场彭湃的进化浪潮中。乃至有人感叹,已经准备好欢迎更多的机器人了。
大模型根本知识
AI、AIGC、AGI、ChatGPT的基本观点在人工智能的领域里面,以上四个词是四个不同的观点。
▐AI(人工智能):artifical intelligence
人工智能(AI)是最广泛的观点,泛指通过机器仿照和实行人类的智能功能的技能。指的是由人制造出来的系统或软件,这些系统或软件能够实行常日须要人类智能才能完成的任务,如视觉感知、语音识别、决策制订和翻译等。泛AI观点包括的内容很大,包括狭义和广义定义的AI。
狭义的AI即弱人工智能,指可以实行特界说务的智能系统,只能在特定的场景和范围内表示智能行为。比如语音识别、图片识别、智能驾驶;
广义的AI即强人工智能,值得是具备和人类一样的智能水平和认知能力的系统。能够在繁芜的环境下自主学习、推理、理解、适应,有更高等的智能表现。
▐AGI(通用人工智能):artifical general intelligence
通用人工智能(AGI)是广义AI的一个子集,指能在各个领域和方面都能达到人类智能水平的系统,具备人类的多样性和灵巧性。AGI是AI研究的终极目标之一,AGI能够跨领域实行多种任务,具备自我学习温柔应的能力,可以进行各种的学习和推理任务,并且具备自我意识和通用智能。
▐AIGC(人工智能天生内容):AI generated content
AIGC,全名“AI generated content”,又称天生式AI,意为人工智能天生内容,是利用AI技能自动创作出新的内容,这包括但不限于笔墨、图像、音乐、视频等。AIGC技能的核心上风是能够大大减轻人类创作者的包袱,提高内容生产的效率和规模,同时也能够创造出全新的、创意性的作品。
可以大略理解为,AIGC的水位,介于弱AI与AGI之间,是AGI在特定领域(内容天生)的一个削弱型运用。AIGC目前已经有很多广泛的运用,而相反,AGI则处于研究阶段,且在实际落地过程中,肯定会面临严格的机器人伦理问题。
▐LLM(大措辞模型):large language model
大措辞模型一样平常指在大规模的文本语料上演习,包含百亿乃至更多参数的措辞模型。大措辞模型采取的架构目前基本是基于transformer的架构。那么LLM近期爆火,在之前却没有很好的表现的一个很主要缘故原由是,只有措辞模型的规模达到一定量级的时候,某些能力才会涌现。(称之为呈现能力)。代表性的包括:高下文学习、指令遵照、逐步推理等等。
如Transformer架构的GPT-3、BERT、T5等模型。这些模型通过在海量数据上进行演习,能够学习到丰富的措辞和知识表示,并展现出强大的自然措辞处理能力。▐ChatGPT:Chat Generative Pre-trained TransformerChatGPT是"Chat Generative Pre-trained Transformer”的缩写,ChatGPT是一种基于人工智能技能的谈天机器人,能够进行自然措辞理解和天生,供应流畅且类人的对话体验。是史上增长最快的消费者运用,可以运用于各种场景,能用于问答、文本择要天生、机器翻译、分类、代码天生和对话。
大模型架构
2017年前,transformer架构前的部分经典架构如下:
N元文法(n-gram)多层感知器(MLP)卷积神经网络(CNN),常见于打算机视觉;循环神经网络(RNN,Recurrent Neural Network),一个很强大的神经网络模型,能预测序列数据,比如文本、语音和韶光序列。▐Transformer架构当下最火确当属2017年的transformer架构,Transformer是目前最常见的措辞模型的基本构造。transformer架构涉及大量的观点和运用,比如编码-解码(encoder-decoder),把稳力机制(attention),kqv(key、Querry、value)等。
Transformer模型的核心架构可分为编码器和解码器。即编码器将输入序列编码成一个向量,而解码器则从该向量中天生输出序列。
大略的事情流程如下:
1、获取输入句子的每一个单词的表示向量 X,X由单词的 Embedding(Embedding便是从原始数据提取出来Feature) 和单词位置的 Embedding 相加得到。
2、将得到的单词表示向量矩阵 (如上图所示,每一行是一个单词的表示 x) 传入 Encoder 中,经由6个 Encoder block 后可以得到句子所有单词的编码信息矩阵C
3、将 Encoder 输出的编码信息矩阵 C通报到 Decoder 中,Decoder 依次会根据当前翻译过的单词 1~ i 翻译下一个单词 i+1 。
利用ChatGPT的时候会创造输出结果是一个字一个字蹦出来的,这是Transformer的构造导致的。
大略理解:可以将Transformer模型学习和预测的过程算作是措辞翻译。如果模型是将A措辞翻译成B措辞,那么Transformer模型构造中的编码器是将输入的A措辞翻译成模型措辞,而解码器则是将模型措辞翻译成B措辞。
▐把稳力机制
Transformer模型之以是具备强大的功能,可以归功于模型中运用的把稳力机制。作甚把稳力机制?对付一张图,我们并不会同等地查看图中的每个位置,而会自动提取“主要的位置”。
Attention = 把稳力,从两个不同的主体开始。(两个主体相互把稳,我把稳到他,他把稳到我)
NLP领域最开始用于翻译任务,天然是source、target,D翻译第一个词的时候,有个attention的机制关注到前面的所有词,但是权重不一样。大略理解:打算词之间的附近关系。
注:颜色粗细代表权重大小
以上图片可以解读为:一段自然措辞内容,其自身就「暗含」很多内部关联信息。例如上面这句话,如果用“自把稳力”机制,该当给与“知识”最多的把稳力,因此可以认为:
一段自然措辞中,实在暗含了:为了得到关于某方面信息 Q,可以通过关注某些信息 K,进而得到某些信息(V)作为结果。(Q 便是 query 检索/查询,K、V 分别是 key、value。以是类似于我们在图书检索系统里搜索「NLP书本」(这是 Q),得到了一本叫《自然措辞处理实战》的电子书,书名便是 key,这本电子书便是 value。只是对付自然措辞的理解,我们认为任何一段内容里,都自身暗含了很多潜在 Q-K-V 的关联。)【qkv机制后续在图片领域也有大量的运用,可以熟习一下这个机制】
关于transformer架构,还有很多的逻辑和知识,不做列举。且后续大量的逻辑会基于向量和矩阵展开,不易理解。大略的罗列下为什么这个架构后面带来了大量的变革。即架构的上风:
快:比起2017年前的rnn,transformer并行性更好;影象力好:词间距缩短为1,长文本的时候,可以有更多的容量;处理不同长度的序列:不须要输入的数据序列是固定长度的。▐高下文学习(In-Context Learning)一个预演习模型,在处理下贱任务时,不微调模型参数,只须要在输入时加一些示例,就能有 SOTA(state-of-the-art,即最精良的模型) 的表现,这便是模型的高下文学习(In-Context Learning,ICL)能力。
ICL 能力的直接应用:Prompt Engineering2022 期间很多学界人士的研究重点都转向了 Prompt。首先一样平常性地「Pretrain, Prompt」到了 Prompt 环节,可能是给模型输入 x 期望得到输出 y。但是如果我们对利用者给出的 x 进行二次加工(比如把这个加工表示为一个函数 f(x)),是否能在输出上得到更好的结果 y 呢?乃至可以优化输出的构造,得到更好的结果。举个例子。比如模型的利用者想问「自驾去杭州周边两天一夜玩,有什么推举的地方吗?」,模型返回了「南浔古镇」。而如果通过 Prompt Engineering 优化一下可以这样:
这样 f(x) 便是 Prompt Engineering,而 g(x) 实在是 Answer Engineering。
ICL的数学事理和底层逻辑实在目前没有明确定论,也比较繁芜。大略对ICL总结用于辅导后续运用,包括:在 prompt 里带上 demo 是很主要的,而且 demo 在形式上 input 和 label 都须要。对付 demo 中的 input,不要乱来,要给出比较合理的 input。对付 demo 中的 label,只要它属于精确的值域空间 label space 就可以了,是否与 input 有 correct mapping 不主要。
▐Prompt FrameworkPrompt的专业与否 直接关系到以下两方面的结果效果:
1、大模型回答的准确性和针对性:好的Prompt才可以帮助模型更好地理解你的意图和须要。
2、大模型回答语句的自然度:好的Prompt可以帮助模型更好地处理歧义,以及高下文依赖性等问题,提高模型回答的自然度。
Elavis Saravia 总结的框架:
Instruction(必须):指令,即你希望模型实行的详细任务。Context(选填):背景信息,或者说是高下文信息,这可以勾引模型做出更好的反应。Input Data(选填):输入数据,奉告模型须要处理的数据。Output Indicator(选填):输出指示器,奉告模型我们要输出的类型或格式。只要你按照这个框架写 prompt ,模型返回的结果都不会差。
当然,你在写 prompt 的时候,并不一定要包含所有4个元素,而是可以根据自己的需求排列组合。比如拿前面的几个场景作为例子:
推理:Instruction + Context + Input Data信息提取:Instruction + Context + Input Data + Output Indicator▐提示工程(Prompt Engineering)在Prompt Framework背景下,为了让LLM有更高质量的回答、对业务有代价的回答。在工程实践中,工程侧会将用户的随意问题进行包装组织以及抽取,组成问题的高下文,并添加一些周边的限定语句,而得到有效提示词的代码逻辑或者运用做事(有效提示词组织做事:能完成这些繁芜运用业务的 一样平常是须要一个专门的做事)。
query有效->产出好的结果是不随意马虎 -> 避免二义性、无结果
以是产生了提示词工程:提示词引擎-runtime(串联产投链路数据) & 模板运维
分离:模板:模板与工程分离 (类似前后端分离)信息够不足:串联产投链路数据,补齐到模板中▐COT(chain of thought) 思维链深度学习的演化阶段:在认知科学里,有一个「认知双通道理论」,讲的是人脑有两套系统,即「系统 1」和「系统 2」:
系统 1(System-1)常被称为直觉系统,它的运行是无意识且快速的,不怎么费脑力,没有觉得,完备处于自主掌握状态。系统 2(System-2)常被称为逻辑剖析系统,它将把稳力转移到须要费脑力的大脑活动上来,例如繁芜的运算。系统 2 的运行常日与行为、选择和专注等主不雅观体验干系联。System-1 是目前深度学习正在做的事情 —— Current DL,比如图像识别、人脸识别、机器翻译、情绪分类、语音识别、自动驾驶等。System-2 是未来深度学习将要做的事情 —— Future DL,比如推理、方案等任务,这些任务基本都是有逻辑的(logical)、可推理的(reasoning)。
大措辞模型研究者们也在探究那些 System-2 要办理的任务,于是有了下面的几个技能方向。
Google 提出思维链提示(CoT Prompting):2022年初google在论文里面提出「思维链(Chain of Though,CoT)」,研究创造通过在 prompts 中增加思维链(即一系列中间推理步骤),就能显著提升 LLM 的推力表现。并将这种提示办法称为「Chain of Thought prompting」。标准的提示中给了一对问答样例,再加上一个问题,让 LLM 返回问题的答案。CoT Prompting 则在那对问答样例中加上了一段 CoT,而不是直接给出「The answer is 11.」下图展示了这样两种 prompting 及对应输出的案例。Let's Think Step by Step2022 年 5 月三位东京大学学者与两位 Google 的研究职员中提到了后来在 Gen-AI 领域那句著名的提示 —— Let's think step by step —— 对付涉及到逻辑推理方面的问题,通过增加这句提示后,模型展现出了推理性能的大幅跃升。对付 OpenAI 的 InstructGPT(详细地,是 text-davinci-002)模型,在输入提示时加上「Let's think step by step」后,其表现:
在 MultiArith 数据集上,准确率从 17.7% 提升到 78.7%在 GSM8K 数据集上,准确率从 10.4% 提升到 40.7%对付 Google 的 PaLM 模型(详细地,参数规模为 5400 亿),同样的输入提示改造,其表现:
在 MultiArith 数据集上,准确率从 25.5% 提升到 66.1%在 GSM8K 数据集上,准确率从 12.5% 提升到 43.0%事实上,还有很多类似的Prompt插入,但是效果不如这句好。
大模型发展与运用
▐大模型概述
而他们的底座便是大模型(Large Models),大模型在人工智能领域常日指的是具有大量参数的(常日包含十亿乃至千亿参数)、繁芜打算构造和强泛化能力的机器学习模型。其紧张特点包括:
大量参数:大模型拥有弘大的参数量,常日包含十亿乃至千亿参数,远超过传统的小型模型。使其具备极高的表达能力,能够仿照和学习非常繁芜的函数关系。强大的学习能力:由于参数量巨大,这些模型具有强大的学习和泛化能力,能够在各种任务上达到或超越人类的表现。大数据集&打算资源密集:为了演习这些模型避免过拟合,并充分利用其学习能力,须要大量的演习数据。且须要大量的打算资源进行演习,包括高性能硬件GPU集群和大量的电力。预演习和微调:大多数大模型采取两阶段的学习过程,首先在大量的无标注数据上进行预演习,然后在特界说务的数据集上进行微调,以得到更好的性能。自我监督学习:许多大模型通过自我监督学习来提高其泛化能力,这种学习方法不须要人工标签,而是让模型自己从输入数据中学习到有用的特色。高下文敏感性:大模型在处理自然措辞理解和天生任务时,能考虑到更多的高下文信息,从而天生更加准确和流畅的文本。因此在实践大模型过程中要尽可能输入足够的高下文信息来提高结果的准确度。业务AIGC运用领域和实践
▐关键项目概述
产技推进原则:在有强行业属性的需求的方向上坚持投入定制(例如生图、生产决策因子),在偏通用的运用上尽可能快速复用平台产品,底层繁芜能力通过集团借力。
▐AIGC工程实践
策略:业务侧核心聚焦业务场景运用,平台能力&模型不会那么重
技能目标
目标:构建一套支持多业务场景的AIGC横向工程引擎架构, 赞助业务快速落地AIGC场景。
考虑扩展性、模块化和做事的可重用性,嵌入产供投链路。
架构设计
采取分层设计,以实现各层次的解耦和做事复用。
嵌入产供投链路:通过API、行列步队、odps回流等实现系统间的数据交流和事情流程的协同。
核心公共能力:多模型接口封装、Prompt管理、标注反馈能力、任务管理能力、多业务身份隔离等。
1. 用户界面层(User Interface Layer): 供应用户友好交互的操作、管理界面,可以根据不同的业务场景定制。
天生任务提交和结果查看:可以提交天生任务,查看天生结果策略生产集成:将AIGC能力嵌入到电商产供投链路中,实现自动化生产和决策。管理界面:prompt模板管理、业务规则管理横向标注界面:用户输入界面和反馈机制2. 运用层(Application Layer): 处理业务逻辑的中央层
API网关(IDD + HSF):作为统一的入口,管理和路由前真个要求到精确的后端做事。业务流程做事:根据不同业务需求进行业务逻辑编排,并调用底层的AIGC引擎做事。身份验证做事: 权限和用户管理,确保用户身份安全和访问掌握。任务管理器: 管理文本天生、图像天生等任务生命周期。任务调度器:调度文本天生、图像天生等批量任务实行生产管理:任务审批流、实时用度预估等3. AI 核心能力层(AI Services Layer): 封装不同AIGC能力成独立做事,最小能力具备可插拔
文本处理做事: 支撑文本天生、理解和翻译等图像处理做事: 包含图片编辑(抠图、高清)、天生(合图)和识别等功能视频处理做事:未来可能支持视频裁剪、天生对话管理做事: 流式输出、对话回答能力、影象能力等钉群对话、钉卡片、内容推举行事:扩散、创造4. 模型层(AI Model Layer):
模型管理: 模型接入,比如GPT4/3.5、通义千问、vertex-PaLM2、claude2。微调模型:垂类模型调优、迭代和更新5. 数据处理层(Data Processing Layer):处理数据的获取、洗濯、转换和存储
数据处理做事: 数据洗濯、转换等预处理操作。处理各种原始数据,包括文本、图像等。知识库:QA问答、人工回答数据库: 存储天生的文本、用户数据、系统数据等。文件存储: 存储天生的图像、日志等。6. 根本举动步伐层(Infrastructure Layer):
打算资源: 做事器、GPU等打算资源。网络: 负载均衡器、API网关等网络设备。存储: 物理存储、云存储做事。7. 监控与运维层(Monitoring & Ops Layer):
日志管理: 记录和剖析系统运行情形。性能监控: 监控系统性能和资源利用率。自动化支配: 持续集成和持续支配(CI/CD)。▐运用处景举例素材优化业务背景
因多语种翻译、商品信息不敷等问题导致商品属性缺失落、图片素材质量低;导致用户理解难、转化低、万求高。面对极大品量,运营手动仅可补全少量头部商品,无法全量优化。在AI技能成熟的背景下,考虑采取AIGC的办法对商品的属性、卖点、素材图片、场景图等信息进行补全及优化。
核心方案
技能选型核心三步:1、模型底层选择;2、措辞&框架选择;3、整体架构设计。整体参看上篇AIGC工程实践方案。基于大模型生文能力&支配Stable Diffusion生图能力,通过离在线数据接入、配置化设计、异步任务调度等技能链接业务供给数据资产,构建嵌入产供投链路的批量化AIGC工程。
阶段进展
文生文工程:具备prompt模板提示&自动添补、任务试跑预览、用度预估、批量化AIGC生产等能力,简化业务AIGC利用门槛。商品属性补全百万+品。获流效果在主搜免费获流上显著提升(有动销商品/动览非动销品均正向),并且通过商详ab办法验证对成交转化率也有正向提升。
场景图:培植标品场景图更换、白底图&透明图生产、透明图超分处理、模特衣饰上身、图片连通域检测、图片转存、图片裁剪等二创。图素材生产万+,首猜获流效率&主搜曝光点击率均为正向。
商家Copilot其余我们初探构建具备业务知识的AI办公助手。做事于商家,提升运营效率和业务体验。不仅解放了业务小二的事情量,也提升了业务操作的效率和准确性。
实践过程寻衅
在AIGC的实践,技能寻衅与机遇并存。下面给大家分享下AIGC的实践寻衅以及部分办理思路。
▐技能寻衅
问题
描述
办理方案及思路
知识量有限
比如GPT 4,21年前演习样本&通用语料演习,实时数据、垂直领域的数据&专属知识无法理解无法"在外部天下行动",不论是搜索网页、调用 API 还是查找数据库方案1. LLM+检索增强 :LLM的根本上通过检索等额外供应领域数据信息;
对付用户输入Query,结合业务数据中检索到的结果一起输入给LLM,则可以得到更精准的回答。方案2. 构建行业数据集对LLM进行微调,使模型本身具备输出行业信息的能力。(本钱高且效果不佳)
【办理方案】:LLM+检索增强:OpenAI提出了chatgpt-retrieval-plugin、WebGPT,开源社区提出了DocsGPT、ChatPDF、基于langchain的检索增强chatbot等等一系列办理方案
效果问题
部分场景效果不及预期繁芜逻辑推理能力不佳对未见过的知识语料回答效果差1、大模型+高下文学习技能(In-Context Learning), 设计合理的prompt模版
2、大模型+思维链提示(Chain-of-Thought Prompting),引入推理路径作为提示,引发大模型按照这种推理的模式天生出合理的结果
3、大模型+高质量标注样本+指令微调(PEFT技能),提高模型对特界说务的泛化能力
延迟问题
一次完全问答大概 10s+ (用户200ms会有体感)延迟紧张受两个成分影响:模型和天生的令牌数量。1、流式传输。要求中的设置stream: true使模型在令牌可用时立即开始返回令牌,而不是等待天生完全的令牌序列。它不会改变获取所有令牌的韶光,但它会减少我们想要显示部分进度或将停滞天生的运用程序的第一个令牌的韶光。这可以是更好的用户体验和 UX 改进,因此值得考试测验流式传输。
2、根本举动步伐。openai 美国。存在跨国网络延时
3、减小token 。例如利用更短的提示。
交互式分词器工具来帮助估算本钱4、缓存:通过存储常常访问的数据,可以缩短相应韶光,而无需重复调用 API。但在添加新信息时使缓存无效。
资源和性能
演习&微调都须要不少机器资源,目前GPU资源匮乏支配资源,尤其是C端投放有高并发低延时哀求,须要投入巨大本钱在线serving1、不演习基座模型,微调选择的基座模型选几B~几十B旁边的LLM (如ChatGLM-6B)
2、曲线救国,线上不直策应用大模型serving,一种是利用大模型的embedding, 另一种是利用大模型来进行更多样本标注,来赞助小模型学习
▐量产与低质抵牾
业务在AIGC运用更多是批量化生产,去快速赞助业务补全海量商量素材质量低的问题。不同于交互式天生办法,批量化天生中面临很多问题,个中最为突出的是原商品图的质量,以及原商品图和背景模板的匹配问题:
1、商品素材图:主体清晰度低、布局混乱;这对付终极用户的购买体验有极大的负面影响。
技能办理方案:采取超分辨率技能,特殊是real-esrgan方法(ESRGAN做天生网络,Unet做判别网络)终极将合成图扩展到10001000分辨率,以知足高质量的输出须要。
2、商品素材的布局混乱,包括物品位置不当、画面过于凌乱,使得天生的图片达不到预期哀求。
技能办理方案:通过主体识别以及联通域检测技能,对商品主体构造分布进行筛选,预剔除不符合规范的商品图片,从而优化图片的布局和整体都雅度。
3、由于缺少标准化样本进行模型演习,商品图与背景模板的匹配问题成为了批量化天生的一大寻衅。
技能办理方案:精选背景模板:通过细分类目,结合人工评测批量化产出生成图后,剔除采纳率较低的背景图模板,以提高背景的适配性和都雅度。
以及特殊是C端投放场景,须要建立审核->验收->效果等业务SOP流程,提高生产投放的效率和质量。
▐伦理和监管问题
随着大模型在AIGC中的广泛运用,它们引发了关于数据隐私、版权、内容监管和偏见等问题的谈论。因此,大模型的利用不仅涉及技能层面,还涉及伦理和法律层面。如政治敏感、违法犯罪、身体侵害、生理康健、隐私财产、偏见歧视、礼貌文明、伦理道德等问题,尤其是LLM直接面向C短消费者做事时,由于消费者的输入不可控,模型有概率得到一些不合规的返回。
问题
描述
办理方案及思路
安全与合规
如政治敏感、违法犯罪、伦理道德等问题,尤其是LLM直接面向C端场景
1、培植安全校验模块能力
2、B端:天生素材数据洗濯&人工审核
3、C端:天生式大模型必须通过SFT、RLHF等微调技能对大模型做适配微调,对齐人类的代价不雅观;
政策问题
对付类GPT能力作为C端运用的开放程度需受限于政策
1、上线前,找安全同学评估
【附】网信办411公布《天生式人工智能做事管理办法》搜聚见地稿,规范天生式人工智能产品(AIGC,如 ChatGPT)的开拓和利用办法、行业的定义、对生产者的哀求和任务等方面。见地稿中尤其提出:“利用天生式人工智能产品向公众年夜众供应做事前,应该按照《具有舆论属性或社会动员能力的互联网信息做事安全评估规定》向国家网信部门报告安全评估,并按照《互联网信息做事算法推举管理规定》履行算法备案和变更、注销备案手续。
C端运用上线须要过“双新评估”:
未来展望
面对下一年度,AIGC实践的未来展望应基于业务场景连续创新,扩大战果。
深入探索行业运用:结合不同行业的特点和需求,开拓出更加定制化、风雅化的AIGC运用,提高生产效率和质量。加强与业务场景的深度领悟,推动AIGC技能在业务侧的实际落地。提高模型性能:与算法联动,结合实际运用处景的需求,通过人工、算法、数据反馈等机制不断优化业务场景微调模型,提高模型的性能和准确性,让AIGC运用更加高效化。探索多模态AIGC运用,如将文本&图像二创、视频等多模态的天生能力结合。▐个人期待AI大势浩浩荡荡,顺之者昌逆之者亡。YY几个未来的期待场景:
1、增强的交互式AI:类似google发布的Gemini,改变当前信息交互办法,期待每个人都有专属钢铁侠中的人工智能“贾维斯”。
2、个性化和定制化内容:大数据+AIGC根据用户偏好、历史行为和实时反馈天生的个性化和定制化内容。
3、虚拟现实内容:AIGC多模态内容天生发展,图像、视频、音频等,未来说不定AI构建虚拟现实内容。
结语
积极拥抱变革,谢绝无谓焦虑。AI技能发展更多地是对人类能力的补充而非替代,更多作为“助理”的效果。
在人工智能飞速发展的本日,我们正站在这个时期的十字路口,AI的进步为我们揭开了技能创新的新篇章,供应了前所未有的便利和机遇;另一方面,技能的飞跃发展也带来人们对未来事情和生活办法的不愿定性,引发了人们心中的焦虑和恐怖。
前总理:“中国有6亿人月收入不到1千”。最广大的用户可能并没有感想熏染到GPT的日月牙异的变革。持续学习与适应是关键,不断学习新知识,提升对AI技能的理解和节制。唯有收受接管和理解AI技能的进步,我们才能把握发展的机遇。通过深入理解AI技能的实际运用,我们可以创造,技能的发展更多地是对人类能力的补充而非替代。
参考资料
Massive Exploration of Neural Machine Translation Architectures:
https://arxiv.org/pdf/1703.03906.pdf
Safety-Prompts:
https://github.com/thu-coai/Safety-Prompts
作者:入风
来源-微信"大众年夜众号:大淘宝技能
出处:https://mp.weixin.qq.com/s/hM_C3hqZjjp6eNIeusP6bw
本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/rsq/173789.html
上一篇:广州所有批发市场地址
下一篇:返回列表
Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码
声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com