Gartner 专家解答生成式人工智能的热门问题,来源: Gartner
什么是生成式人工智能(Generative AI,GenAI)? 生成式人工智能可以从现有人工智能中学习,生成新的、真实的人工智能(大规模的),这些人工智能反映了训练数据的特征,但不会重复训练数据。它可以生成各种新颖的内容,如图像、视频、音乐、语音、文本、软件代码和产品设计。
生成式人工智能不仅仅是一种技术或商业案例,它还是人与机器协同工作的社会的重要组成部分。
生成式人工智能使用了许多不断发展的技术。最重要的是人工智能基础模型,这些模型是在广泛的无标记数据集上训练出来的,可用于不同的任务,并进行额外的微调。创建这些训练有素的模型需要复杂的数学运算和巨大的计算能力,但它们本质上都是预测算法。
如今,生成式人工智能最常见的做法是根据自然语言请求创建内容--它不需要了解或输入代码--但企业用例很多,包括药物和芯片设计以及材料科学开发方面的创新。
对生成式人工智能的突然炒作,背后有什么原因?
Gartner 自 2020 年起就在其人工智能 Hype Cycle™ 中对创成式人工智能进行了跟踪(此外,创成式人工智能也是我们 2022 年最重要的战略技术趋势之一),该技术已从创新触发阶段进入了预期膨胀的高峰期。但是,生成式人工智能直到 2022 年末才随着聊天机器人 ChatGPT 的推出而登上主流头条。
由 OpenAI 推出的 ChatGPT 一夜之间大受欢迎,激发了公众的关注。(OpenAI 的 DALL-E 2 工具也是通过文本生成图像的相关人工智能创新)。
Gartner 认为,生成式人工智能将成为一种通用技术,其影响类似于蒸汽机、电力和互联网。随着现实的实施,炒作会逐渐消退,但随着人们和企业发现该技术在日常工作和生活中的更多创新应用,生成式人工智能的影响会越来越大。
生成式人工智能有哪些优势和应用?
基础模型,包括生成式预训练变换器(驱动 ChatGPT),是人工智能架构创新之一,可用于自动化、增强人类或机器,以及自主执行业务和 IT 流程。
生成式人工智能的优势包括加快产品开发、增强客户体验和提高员工生产力,但具体情况取决于使用案例。最终用户应该对他们希望实现的价值保持现实的态度,尤其是在使用具有重大局限性的服务时。生成式人工智能创建的工件可能不准确或有偏差,因此必须进行人工验证,这可能会限制人工智能为员工节省的时间。Gartner 建议将用例与关键绩效指标联系起来,以确保任何项目要么能提高运营效率,要么能创造新的净收入或更好的体验。
在 Gartner 最近对 2500 多位高管进行的网络调查中,38% 的高管表示,客户体验和客户保留是他们对人工智能进行投资的主要目的。其次是收入增长(26%)、成本优化(17%)和业务连续性(7%)。
生成式人工智能有哪些风险?
与生成式人工智能相关的风险很大,而且发展迅速。各种威胁行为者已经利用该技术制造 "深度假货 "或产品副本,并生成人工制品来支持日益复杂的骗局。
ChatGPT 和其他类似工具是在大量公开数据的基础上训练出来的。它们的设计并不符合《通用数据保护条例》(GDPR)和其他版权法,因此必须密切关注企业对这些平台的使用情况。
需要监控的监督风险包括:
-
缺乏透明度。生成式人工智能和 ChatGPT 模型具有不可预测性,即使是其背后的公司也不一定完全了解它们的工作原理。
-
准确性。生成式人工智能系统有时会产生不准确和捏造的答案。在依赖或公开发布信息之前,请评估所有输出结果的准确性、适当性和实际有用性。
-
偏见。您需要制定政策或控制措施来检测有偏见的输出结果,并以符合公司政策和任何相关法律要求的方式加以处理。
-
知识产权 (IP) 和版权。对于企业机密信息,目前还没有可验证的数据治理和保护保证。用户应假定他们输入 ChatGPT 及其竞争对手的任何数据或查询都将成为公开信息,我们建议企业采取控制措施,避免无意中暴露知识产权。
-
网络安全和欺诈。企业必须为恶意行为者使用生成式人工智能系统进行网络和欺诈攻击做好准备,例如那些使用深度伪造技术对人员进行社会工程学攻击的系统,并确保采取缓解控制措施。与您的网络保险提供商协商,核实您的现有保单在多大程度上涵盖了与人工智能相关的违规行为。
-
可持续性。生成式人工智能需要消耗大量电力。选择能降低功耗和利用高质量可再生能源的供应商,以减轻对可持续发展目标的影响。
Gartner 还建议考虑以下问题:
-
谁来定义负责任地使用生成式人工智能,尤其是在文化规范不断演变、社会工程方法因地域而异的情况下?谁来确保合规性?不负责任使用的后果是什么?
-
一旦出现问题,个人如何采取行动?
-
用户如何给予和取消同意(选择加入或选择退出)?从隐私权辩论中可以学到什么?
-
使用生成式人工智能会帮助还是伤害人们对你的组织以及整个机构的信任?
-
我们怎样才能确保内容创作者和所有者保持对其知识产权的控制并得到公平的补偿?新的经济模式应该是什么样的?
-
谁来确保整个生命周期的正常运作?例如,董事会是否需要人工智能道德领导?
最后,必须持续关注有关人工智能生成的监管发展和诉讼。中国和新加坡已经出台了关于使用人工智能的新法规,而意大利暂时还没有。美国、加拿大、印度、英国和欧盟目前正在制定各自的监管环境。
目前,生成式人工智能有哪些实际用途?
生成式人工智能领域在科学发现和技术商业化方面都将取得快速发展,但在创意内容、内容改进、合成数据、生成工程和生成设计方面的用例也在迅速涌现。
目前正在使用的高级实际应用包括以下方面。
-
书面内容扩充和创建: 按照所需的风格和长度生成文本 "草稿 "输出
-
-
问题解答和发现: 使用户能够根据数据和提示信息找到输入答案
-
-
语气:文本处理,以缓和语言或使文本专业化
-
-
总结: 提供对话、文章、电子邮件和我们的简短版本
-
-
简化:分解标题、创建大纲并提取关键内容
-
-
针对特定用例对内容进行分类:按情感、主题等排序
-
-
提高聊天机器人性能:改进 "情感 "提取、整个对话的情感分类以及从一般描述中生成旅程流程
-
-
软件编码:代码生成、翻译、解释和验证
具有长期影响的新兴用例包括:
-
创建显示疾病未来发展的医学图像
-
-
合成数据有助于增加稀缺数据、减少偏差、保护数据隐私和模拟未来情景
-
-
应用程序主动向用户建议额外行动并提供信息
-
-
遗留代码现代化
生成式人工智能将如何贡献商业价值?
生成式人工智能为增加收入、降低成本、提高生产力和更好地管理风险提供了新的颠覆性机遇。在不久的将来,它将成为一种竞争优势和差异化因素。
Gartner 将机遇分为三类。
创收机会
产品开发: 生成式人工智能将使企业能够更快地创造新产品。这些产品可能包括新药、毒性更低的家用清洁剂、新型香精香料、新型合金以及更快更好的诊断。
新的收入渠道: Gartner 的研究表明,人工智能成熟度较高的企业将获得更大的收益。
成本和生产力机遇
增强工人能力: 生成式人工智能可以增强工人起草和编辑文本、图像和其他媒体的能力。它还可以对内容进行总结、简化和分类;生成、翻译和验证软件代码;以及提高聊天机器人的性能。在这一阶段,该技术能够非常熟练地快速、大规模地创建各种人工制品。
长期人才优化: 员工将通过与人工智能合作构思、执行和完善创意、项目、流程、服务和关系的能力脱颖而出。这种共生关系将加快员工达到熟练程度的时间,并极大地扩展员工的工作范围和能力。
改进流程: 生成式人工智能可以从大量内容存储中获取真正的、与上下文相关的价值,而在此之前,这些内容可能在很大程度上未被利用。这将改变工作流程。
风险机遇
降低风险: 生成式人工智能能够分析数据,并提供更广泛、更深入的数据可见性,例如客户交易和可能存在问题的软件代码,从而提高模式识别能力,更快地识别企业的潜在风险。
可持续性: 生成式人工智能可帮助企业遵守可持续发展法规,降低搁浅资产的风险,并将可持续发展嵌入决策、产品设计和流程中。
生成式人工智能对哪些行业影响最大?
通过利用人工智能模型增强核心流程,生成式人工智能将影响制药、制造、媒体、建筑、室内设计、工程、汽车、航空航天、国防、医疗、电子和能源行业。它将通过增强横跨许多组织的支持流程,影响市场营销、设计、企业传播以及培训和软件工程。举个例子:
我们相信,到 2025 年,将有超过 30% 的新药和新材料是通过人工智能生成技术系统发现的,而目前这一比例还为零。鉴于有机会降低药物发现的成本和时间,生成式人工智能在制药行业大有可为。
我们预测,到 2025 年,大型企业 30% 的对外营销信息将由合成生成,而 2022 年这一比例还不到 2%。像 GPT-3 这样的文本生成器已经可以用来创建营销文案和个性化广告。
在制造业、汽车业、航空航天业和国防工业中,生成式设计可以创建优化设计,以满足特定的目标和限制,如性能、材料和制造方法。这可以为工程师提供一系列潜在的解决方案,从而加快设计进程。
使用生成式人工智能的最佳实践是什么?
提供人工智能信任和透明度的技术将成为生成式人工智能解决方案的重要补充。 此外,行政领导应遵循本指南,以合乎道德地使用 LLM 和其他生成式人工智能模型:
从内部开始。在使用生成式人工智能创建面向客户或其他外部的内容之前,应与内部利益相关者和员工使用案例进行广泛测试。你不会希望幻觉损害你的业务。
重视透明度。无论是员工、客户还是市民,都要坦诚地告诉他们,他们正在与一台机器进行交互,并在整个对话过程中多次明确标注。
尽职尽责。设置流程和防护栏,以跟踪偏见和其他可信度问题。通过验证结果和不断测试模型是否偏离轨道来做到这一点。
解决隐私和安全问题。确保既不输入也不导出敏感数据。与模型提供商确认,这些数据不会用于贵组织以外的机器学习。
慢慢来。在较长的一段时间内保持测试版功能。这有助于降低对完美结果的期望。
是否应该制定生成式人工智能的使用政策?
您的员工很可能已经在使用生成式人工智能,或是在实验基础上,或是为了支持他们与工作相关的任务。为了避免 "影子 "使用和虚假的合规意识,Gartner 建议制定使用政策,而不是颁布彻底的禁令。
政策要简单明了--如果使用 ChatGPT 或其他现成的模式,可以简化为三个 "不要 "和两个 "要":
不要输入任何个人身份信息。
不要输入任何敏感信息。
不要输入任何公司 IP。
如果使用外部工具(如 ChatGPT),可以选择关闭历史记录。
密切监控输出结果,因为输出结果有时会出现微妙但有意义的幻觉、事实错误以及有偏见或不恰当的陈述。
如果公司使用的是自己的大型语言模型实例,那么限制输入的隐私问题就不复存在。但是,仍然需要密切关注输出结果。
生成式人工智能将如何影响未来的工作?
在商业领域,许多人都是某种内容的创造者。无论是创建文本、图像、硬件设计、音乐、视频还是其他内容,生成式人工智能都将极大地改变他们的工作。为此,工人需要成为内容编辑,这需要一套不同于内容创作的技能。
同时,随着应用程序变得会话化、主动化和互动化,员工与应用程序的交互方式也将发生变化,这就需要重新设计用户体验。在短期内,生成式人工智能模型将超越对自然语言查询的响应,开始向你推荐一些你没有要求的东西。例如,在回答你的数据驱动条形图请求时,模型可能会提出你可能会用到的其他图形。至少从理论上讲,这将提高员工的工作效率,但同时也挑战了人类需要主导制定战略的传统思维。
劳动力的净变化将因行业、地点、企业规模和产品等因素的不同而大相径庭。
应该从哪里开始使用生成式人工智能?
许多企业正在进行代码生成、文本生成或可视化设计方面的生成式人工智能试点。要建立试点,您可以选择以下三种途径之一:
现成的。通过输入提示,直接使用现有的基础模型。例如,您可以要求该模型为软件工程师创建一份职位描述,或为营销电子邮件建议备选主题行。
快速工程。将软件编程和连接到并利用基础模型。这种技术是三种技术中最常见的一种,它可以让你在使用公共服务的同时保护知识产权,并利用私人数据创建更精确、更具体、更有用的回复。建立一个人力资源福利聊天机器人,回答员工关于公司特定政策的问题,就是提示工程的一个例子。
定制。建立新的基础模型超出了大多数公司的能力范围,但调整模型是可能的。这涉及到添加一层或专有数据,从而显著改变基础模型的行为方式。虽然成本高昂,但定制模型可提供最高级别的灵活性。
谁是生成式人工智能市场的主要技术提供商?
生成式人工智能市场如火如荼。除了大型平台商之外,还有数百家专业提供商,它们得到了大量风险投资的资助,并拥有大量新的开源模型和功能。企业应用程序提供商,如 Salesforce 和 SAP,正在其平台中构建 LLM 功能。微软、谷歌、亚马逊网络服务(AWS)和 IBM 等公司已投入数亿美元和大量计算能力来构建 ChatGPT 等服务所依赖的基础模型。
Gartner 认为目前的主要竞争者如下:
谷歌拥有两个大型语言模型:多模态模型 Palm 和纯语言模型 Bard。他们正在将生成式人工智能技术嵌入其工作场所应用软件套件中,这将立即让数百万人掌握这项技术。
微软和 OpenAI 正在齐头并进。与谷歌一样,微软也在将人工智能生成技术嵌入其产品中,但它拥有先发优势和 ChatGPT 的影响力。
亚马逊与 Hugging Face 合作,共同构建解决方案,后者拥有大量开源的 LLM。亚马逊还拥有 Bedrock,通过 AWS 在云上提供生成式人工智能的访问权限,并宣布了 Titan 的计划,这是一套由两个人工智能模型组成的模型,可以创建文本并改进搜索和个性化。
IBM 有多个基础模型,并有很强的能力通过注入数据、重新训练和使用模型来微调其模型和第三方模型。
本文译自Gartner