AIGC|设计师与AI协同的三种模式

0 评论 3061 浏览 8 收藏 13 分钟

在这个不断革新的生产关系中,设计师的价值逐渐被重新定义,也对我们如何看待设计工作、如何与AI共生提出了新的思考。

现有设计流程中,设计师需要负责创意构思,具备提出问题最优解的设计思维和创意能力,还要设计执行,通过熟练的软件技能将这些方案付诸于实际。

专业复杂的设计工具通常具有较高的学习门槛,要求设计师投入大量时间进行学习和实践,当无法熟练使用这些工具时,往往会限制优秀创意的呈现效果。

因此,软件技能水平成为衡量设计师能力的重要指标之一。

然而,随着生成式AI的引入,这一局面正在发生改变。

在设计执行阶段,传统图形处理软件(如PS、AI、Blender等)所代表的“技能特权”被无限削弱,问题定义和创意思考重新成为设计工作的核心。

此外,以大语言模型为驱动,可自主化完成复杂任务的Agent智能体,必将深度参与到创意构思环节,为解决问题提出自己的想法。

根据AI参与深度的不同,设计师与AI的协同逐渐呈现出三种不同的模式。(思路源自Agent相关文章中关于“人类与AI协同的三种模式”的论述)

一、Embedding模式

通过将AI功能(如智能扩图、一键抠图、文字生图等)嵌入到现有软件界面中,能直接提升设计工具的智能化水平,设计师可以在熟悉的环境和流程中调用这些AI功能,无需额外学习新的工具,轻松获得即时的智能支持。

这种内嵌策略应该是让AI最快落地应用的方式之一,例如Photoshop Beta、MasterGo Al都通过这种方式快速实现了产品的智能化升级。

但Embedding模式的局限性也是显而易见的,受限于工具现有架构,强大的AI功能多为散点式地存在,无法形成协同效应。

这意味着设计师在整体设计工作中,仍然处于绝对主导的位置,只能在特定任务或局部利用AI进行增强和提效,无法享受全面的智能化服务。

因此,Embedding模式更像是现阶段应对生成式AI大潮的过渡方案。

二、Copilot模式

与上一模式不同,Copilot模式下的AI不再局限于设计执行(生图)的环节,借助文本生成、图片生成和语义理解等多方面实力,延伸至整个设计流程,在各个阶段为设计师提供辅助支持。

也就是说,当接收到设计需求的那一刻起,Copilot便能够基于强大的知识库和用户数据,对设计需求进行分析,并给出具体的设计建议(如框架布局、内容元素、颜色搭配等),还可以生成参考方案。

形态上我们可以参考目前较火的AI搜索类产品,Copilot可能会以插件或者悬浮窗口的方式存在,方便设计师随时调用。

调起界面后,用户可以输入自己的设计需求,也可以上传相关需求文档,给AI越多背景资料,结果可能越精准可用,接着是选择自己的生成诉求。

开始生成后,基于用户勾选的内容依次生成,除了对于设计需求的分析和文档的解析,还可以利用AI的搜索能力,整理主题相关的延伸阅读材料供设计师参考。

在设计分析模块,围绕不同的设计类型生成建议内容,比如我要设计的是一张海报,生成内容就可能会包括标题、版式布局、尺寸、字体、背景等海报设计元素。

最后是基于以上分析生成的设计方案,诉求简单的话可以直接下载使用,若需调整,也可一键导入图形处理软件进行修改。

这是我所能想到的一类设计Copilot的产品形态,当然,还有许多更轻量的方案,期待大家的分享。

Copilot模式可以实现全设计周期的智能支持和创意激发。

然而,这一切仍然依赖于设计师的各种指令,最终方案也需要设计师在Embedding模式下的图形处理软件中来完成。

Copilot模式对于协同关系最大的改变是,AI不再只是智能化增强的图形处理工具,而是成为与设计师紧密协作的得力助手,助力设计全流程的提质提效。

三、Agents模式

Agent以大语言模型为核心驱动,具有自主感知理解、规划决策、记忆反思和使用工具的能力,能够自动化完成复杂任务,许多人认为,Agent可以将大模型的能力发挥到极致,成为类人甚至超人的智能实体。

在设计领域,Agent可以被视为一个个擅长不同设计能力和拥有不同经验知识的虚拟设计师,支持自由选择、组合或删除,同时我们根据需求所需能力,为Agent外挂各种工具,并能将业务专属的知识数据上传供其学习。

有没有发现,整个过程很像是为设计需求量身打造一个专属的“AI设计团队”?

设计师的角色因此被彻底改变,更多时候只是站在Leader的视角向AI发出设计需求,然后等待方案的呈现,目标设定,任务拆解和分配、生成设计指令、信息收集、方案生成由Agent全权代理并自动完成,AI成为真正意义上的创作主体,设计工作也将进入“3D打印”的时代。

对设计师而言,最重要的不再是创意能力、设计能力,而是审美能力、判断能力和决策能力。

Agent以何种形态面向设计师尚未可知。历史经验告诉我们,技术进步推动生产效率提升,进而引发生产组织和社会关系的变革。

作为本轮变革的核心驱动力,AI技术具备极强的前瞻性。

因此我认为,我们无法通过传统的设计行为模式来预测全新的Agent形态,而需要从源头入手,深入研究Agent的技术特点,进行合理地反向推导,从而逐步勾勒出Agent的“外轮廓”。

大概有这样一个思路可姑且一听,信息架构和框架布局受到用户任务流程的影响,而任务流程源自产品/平台所支持的功能范围,功能范围一方面基于用户需求,另一方面则取决于技术的能力范围。

现阶段,Agent技术框架通常被认为由四个关键模块组成:

  1. 记忆:负责存储信息,包括过去的交互、学习到的知识,甚至是临时的任务信息。
  2. 规划:包括事前规划和事后反思两个阶段。在事前规划阶段,这里涉及对未来行动的预测和决策制定;在事后反思阶段,智能体具有检查和改进制定计划中不足之处的能力。
  3. 工具:利用外部资源或工具来执行任务。学习调用外部API来获取模型权重中缺失的额外信息,以此来补足自身弱项。
  4. 行动:实际执行决定或响应的部分。面对不同的任务,智能体系统有一个完整的行动策略集,在决策时可以选择需要执行的行动。

擅长不同设计领域的大语言模型相当于各种设计角色,如何来管理这些角色很重要,所需功能可能会有角色市场(官方或个人)、角色雇佣(临时或买断)、设计能力升级迭代、角色的组合搭配等。

记忆模块大概需要两个空间,一个空间存储的是每次行动后自动沉淀的知识和经验,另一个空间则支持我们将业务材料、个性化数据,甚至是既往设计作品等内容进行上传,经过学习快速成为Agent能力的一部分。

在规划阶段,相关分工的安排以及行动步骤的拆解应避免黑箱操作,将任务链可视化有助于提升设计师的掌控感,这对处理好协同关系很重要。

工具方面,可能会通过工具库或工具商城的形式聚合呈现,支持各类设计工具和工具包的选配选购,还要具备增、删、改、查等基础的工具管理服务。

最后是行动,我认为有两个需要考虑的点,一是方案展示要结合文、图、视频内容的特点,不能简单的用一种框架去展示不同的设计作品,二是图形处理功能以什么形式与agent对接。

当我们把Agent一些核心的功能捋出来,接下来就是思考用户的任务路径都有哪些,剩下的就不再展开了,可能性有很多。

以上内容只是从我自己的角度尝试对Agent模式下的工具形态提供一点粗浅想法,并不一定对,重要的是引发大家的思考。

2023年11月,比尔盖茨发文表示,Agent将引发自从我们从输入命令到点击图标以来计算机领域的最大革命。或许,随着Agent的到来,我们更应该想一想设计师角色存在的意义是什么。

四、最后

AI正在深刻变革着设计行业,现阶段的Embedding模式虽然让设计工具初步实现了智能化升级,但生成式AI的能量没有充分发挥,设计师仍是设计创作的绝对主体;Copilot模式通过全流程支持,可能会实现设计效率的全面提升;而Agents模式下,AI将成为设计的主体,传统设计师与创意构思、设计执行完全脱离,由此全面进入智能化设计时代。

本文由 @设计来电 原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!