生成数据智能

重要的新功能使使用 Amazon Bedrock 构建和扩展生成式 AI 应用程序变得更加容易,并取得令人印象深刻的结果 |亚马逊网络服务

日期:

一年多前,我们向全世界推出了 Amazon Bedrock,提供了一种构建生成式人工智能 (AI) 应用程序的全新方式。 Amazon Bedrock 拥有最广泛的第一方和第三方基础模型 (FM) 选择以及用户友好的功能,是构建和扩展安全生成式 AI 应用程序的最快、最简单的方法。现在,数以万计的客户正在使用 Amazon Bedrock 来构建和扩展令人印象深刻的应用程序。他们正在快速、轻松、安全地进行创新,以推进他们的人工智能战略。我们通过增强 Amazon Bedrock 的令人兴奋的新功能来支持他们的努力,包括更多的模型选择和功能,使您可以更轻松地选择正确的模型、针对特定用例定制模型以及保护和扩展生成式 AI 应用程序。

从金融、旅游、酒店、医疗保健到消费技术等不同行业的客户都在取得显着的进步。他们通过快速将生成式人工智能应用程序投入生产来实现真正的商业价值,以改善客户体验并提高运营效率。以纽约证券交易所 (NYSE) 为例,它是全球最大的资本市场,每天处理数十亿笔交易。纽约证券交易所在多个用例中利用 Amazon Bedrock 选择的 FM 和尖端人工智能生成功能,包括处理数千页法规,以易于理解的语言提供答案

全球航空公司联合航空对其乘客服务系统进行了现代化改造,将旧的乘客预订代码翻译成简单的英语,以便代理商能够提供快速高效的客户支持。全球领先的信息和分析提供商 LexisNexis Legal & Professional 在 Lexis+ AI 上开发了个性化法律生成人工智能助手。 LexisNexis 客户获得可信结果的速度比最接近的竞争产品快两倍,并且每周可节省多达 40 个小时用于法律研究和总结。在线帮助台软件 HappyFox 选择 Amazon Bedrock 是因为其安全性和性能,将其客户支持解决方案中由 AI 驱动的自动票务系统的效率提高了 30%,座席工作效率提高了 XNUMX%。

在整个亚马逊,我们正在继续利用生成式人工智能进行创新,为我们的客户提供更加身临其境、更具吸引力的体验。就在上周,亚马逊音乐宣布了 Maestro。 Maestro 是一款由 Amazon Bedrock 提供支持的 AI 播放列表生成器,它为 Amazon Music 订阅者提供了一种更简单、更有趣的方式来根据提示创建播放列表。 Maestro 现已在 Amazon Music 的所有级别上向少数美国客户推出测试版。

借助 Amazon Bedrock,我们专注于客户所需的关键领域,以适当的成本和速度构建可投入生产的企业级生成式 AI 应用程序。今天,我很高兴与大家分享我们在模型选择、构建生成式 AI 应用程序的工具以及隐私和安全等领域宣布的新功能。

1. Amazon Bedrock 扩大了 Llama 3 型号的型号选择,并帮助您找到最适合您需求的型号

在早期,客户仍在学习和试验不同的模型,以确定将哪些模型用于不同的目的。他们希望能够轻松尝试最新模型,并测试哪些功能和特性将为他们的用例带来最佳结果和成本特征。大多数 Amazon Bedrock 客户使用多个模型,并且 Amazon Bedrock 提供最广泛的第一方和第三方大语言模型 (LLM) 及其他 FM 选择。这包括来自的模型 AI21实验室, 人类的, 凝聚力, , 西北风人工智能稳定人工智能,以及我们自己的 亚马逊泰坦型号。事实上,汤森路透人工智能和汤森路透实验室负责人 Joel Hron 近日表示, 关于他们对 Amazon Bedrock 的采用,“能够使用各种模型的出现是我们的关键驱动因素,特别是考虑到这个领域发展的速度有多快。” Mistral AI 模型系列的尖端模型包括 米斯特拉尔7B, 混合 8x7B米斯特拉尔大号 让客户对其在文本生成、摘要、问答和代码生成方面的高性能感到兴奋。自从我们推出 Anthropic Claude 3 模型系列以来,成千上万的客户体验了 Claude 3 Haiku、Sonnet 和 Opus 如何以无与伦比的智能、速度和成本效益在认知任务中建立了新基准。在 Amazon Bedrock 中使用 Claude 3 Haiku 和 Opus 进行初步评估后,品牌智能平台 BlueOcean.ai 发现,当他们能够将四个独立的 API 调用整合为一个更高效的调用时,成本降低了 50% 以上。

索尼集团公司 DX 平台集团联合治理总经理 Masahiro Oba 分享道:

“虽然将生成式 AI 应用于业务面临许多挑战,但 Amazon Bedrock 的多样化功能帮助我们为索尼的业务量身定制生成式 AI 应用程序。我们不仅能够利用 Claude 3 强大的 LLM 功能,还能利用帮助我们保护企业级应用程序的功能。我非常自豪能够与 Bedrock 团队合作,在索尼集团内进一步实现生成式 AI 的民主化。”

我最近与一流资产管理公司 Bridgewater Associates 的人工投资助理实验室首席技术官 Aaron Linsky 进行了交谈,他们正在使用生成式人工智能来增强他们的“人工投资助理”,这对他们的客户来说是一个重大飞跃。它建立在他们为投资决策提供基于规则的专家建议的经验之上。借助 Amazon Bedrock,他们可以使用现有的最佳 FM(例如 Claude 3)来执行不同的任务 - 将基本的市场理解与 AI 的灵活推理功能相结合。 Amazon Bedrock 允许进行无缝模型实验,使 Bridgewater 能够构建强大的、自我改进的投资系统,将系统建议与尖端功能相结合,从而创建一个不断发展的、人工智能优先的流程。

为了给客户带来更多的型号选择,今天,我们正在制作 Amazon Bedrock 提供 Meta Llama 3 型号。 Llama 3 的 Llama 3 8B 和 Llama 3 70B 模型专为构建、实验和负责任地扩展生成式 AI 应用程序而设计。这些模型比以前的模型架构有了显着改进,包括扩大预训练以及指令微调方法。 Llama 3 8B 擅长文本摘要、分类、情感分析和翻译,非常适合有限资源和边缘设备。 Llama 3 70B 在内容创建、对话式人工智能、语言理解、研发、企业、准确摘要、细致分类/情感分析、语言建模、对话系统、代码生成和指令跟踪方面表现出色。阅读更多关于 Meta Llama 3 现已在 Amazon Bedrock 中提供。

我们还宣布即将支持 Cohere 的 Command R 和 Command R+ 企业 FM。这些模型具有高度可扩展性,并针对长上下文任务进行了优化,例如检索增强生成 (RAG),通过引用来减轻幻觉,使用多步骤工具自动执行复杂的业务任务,并支持 10 种语言进行全球运营。 Command R+ 是 Cohere 最强大的模型,针对长上下文任务进行了优化,而 Command R 则针对大规模生产工作负载进行了优化。随着 Cohere 模型即将在 Amazon Bedrock 中推出,企业可以构建企业级生成式 AI 应用程序,在概念验证之外的日常 AI 操作中平衡强大的准确性和效率。

Amazon Titan 图像生成器现已全面推出,Amazon Titan 文本嵌入 V2 即将推出

除了添加功能最强大的 3P 模型外,Amazon Titan Image Generator 现已全面上市。借助 Amazon Titan Image Generator,广告、电子商务、媒体和娱乐等行业的客户可以利用自然语言提示,以低成本、大量高效地生成逼真、工作室品质的图像。他们可以使用文本提示编辑生成的或现有的图像、配置图像尺寸或指定图像变体的数量来指导模型。默认情况下,Amazon Titan Image Generator 生成的每张图像都包含不可见水印,这符合 AWS 通过减少错误信息传播来促进负责任和道德的 AI 的承诺。水印检测功能可识别图像生成器创建的图像,并具有防篡改功能,有助于提高人工智能生成内容的透明度。水印检测有助于降低知识产权风险,并使内容创建者、新闻机构、风险分析师、欺诈检测团队等能够更好地识别和减少人工智能生成的误导性内容的传播。阅读更多关于 Titan 图像生成器的水印检测.

Amazon Titan Text Embeddings V2 即将推出,可以有效地为搜索等关键企业用例提供更相关的响应。当利用 RAG 通过附加信息丰富响应时,高效的嵌入模型对于性能至关重要。 Embeddings V2 针对 RAG 工作流程进行了优化,并提供与 Amazon Bedrock 知识库 有效地提供更多信息和相关的答复。 Embeddings V2 可以更深入地理解检索、分类、语义相似性搜索和增强搜索相关性等复杂任务的数据关系。 Embeddings V256 提供 512、1024 和 2 维的灵活嵌入尺寸,优先考虑降低成本,同时保留 RAG 用例 97% 的准确性,性能优于其他领先模型。此外,灵活的嵌入大小可以满足从低延迟移动部署到高精度异步工作流程的各种应用程序需求。

新模型评估简化了获取、比较和选择 LLM 和 FM 的过程

选择合适的模型是构建任何生成式人工智能应用程序的关键第一步。根据任务、领域、数据模式和其他因素,法学硕士的表现可能会有很大差异。例如,生物医学模型在特定的医疗环境中可能优于一般医疗保健模型,而编码模型可能面临自然语言处理任务的挑战。使用过于强大的模型可能会导致资源使用效率低下,而功能不足的模型可能无法满足最低性能标准 - 可能会提供不正确的结果。在项目开始时选择不合适的 FM 可能会损害利益相关者的信心和信任。

有如此多的型号可供选择,我们希望让客户能够更轻松地选择适合其使用场景的型号。

Amazon Bedrock 的模型评估工具现已全面推出,通过针对特定数据集和评估指标进行基准测试和比较,简化选择过程,确保开发人员选择最符合其项目目标的模型。这种引导式体验使开发人员能够根据针对每个用例定制的标准来评估模型。通过模型评估,开发人员选择候选模型进行评估 - 公共选项、导入的自定义模型或微调版本。他们定义相关的测试任务、数据集和评估指标,例如准确性、延迟、成本预测和定性因素。阅读更多关于 Amazon Bedrock 中的模型评估.

从 Amazon Bedrock 中选择性能最佳的 FM 的能力对 Elastic Security 非常有利。 Elastic 产品管理总监 James Spiteri 分享道:

“只需点击几下,我们就可以同时评估多个模型的单个提示。此模型评估功能使我们能够比较不同模型的输出、指标和相关成本,从而使我们能够就哪种模型最适合我们想要实现的目标做出明智的决定。这极大地简化了我们的流程,为我们在将应用程序部署到生产中节省了大量时间。”

2. Amazon Bedrock 提供根据您的业务需求定制生成式 AI 的功能

虽然模型非常重要,但构建对组织有用的应用程序需要的不仅仅是模型。这就是为什么 Amazon Bedrock 能够帮助您轻松定制针对特定用例的生成式 AI 解决方案。客户可以使用自己的数据通过微调或使用知识库来私下定制应用程序,以获得完全托管的 RAG 体验,从而提供更相关、更准确和定制的响应。 Amazon Bedrock 代理允许开发人员定义特定任务、工作流程或决策流程,增强控制和自动化,同时确保与预期用例保持一致。从今天开始, 您现在可以将 Agent 与 Anthropic Claude 3 Haiku 和 Sonnet 模型一起使用。我们还推出了更新的 AWS 控制台体验,支持简化的架构和控制权返回,使开发人员能够轻松上手。阅读更多关于 Amazon Bedrock 代理现在更快、更易于使用.

通过新的自定义模型导入,客户可以通过自己的模型利用 Amazon Bedrock 的全部功能

所有这些功能对于构建生成式人工智能应用程序至关重要,这就是为什么我们希望将它们提供给更多客户,包括那些已经投入大量资源使用自己的不同服务数据微调法学硕士或训练自定义模型的客户。划痕。许多客户可以在 Amazon SageMaker 上使用定制模型,该模型提供最广泛的 250 多种预训练 FM。这些 FM 包括尖端型号,如 Mistral、Llama2、CodeLlama、Jurassic-2、Jamba、pplx-7B、70B 以及令人印象深刻的 Falcon 180B。 Amazon SageMaker 有助于组织和微调数据,构建可扩展且高效的训练基础设施,然后以低延迟、经济高效的方式大规模部署模型。对于开发人员来说,它改变了游戏规则:为 AI 准备数据、管理实验、更快地训练模型(例如 Perplexity AI 在 Amazon SageMaker 中训练模型的速度提高了 40%)、降低推理延迟(例如 Workday 与 Amazon 一起将推理延迟降低了 80%) SageMaker),并提高开发人员的工作效率(例如,NatWest 使用 Amazon SageMaker 将其 AI 价值实现时间从 12-18 个月缩短至不到 XNUMX 个月)。然而,安全地操作这些定制模型并将其集成到特定业务用例的应用程序中仍然面临挑战。

这就是为什么今天我们要介绍 Amazon Bedrock 自定义模型导入,这使组织能够利用其现有的 AI 投资以及 Amazon Bedrock 的功能。通过自定义模型导入,客户现在可以导入和访问基于流行的开放模型架构(包括 Flan-T5、Llama 和 Mistral)构建的自己的自定义模型,作为 Amazon Bedrock 中完全托管的应用程序编程接口 (API)。客户可以采用在 Amazon SageMaker 或其他工具上定制的模型,并将其轻松添加到 Amazon Bedrock。经过自动验证后,他们可以无缝访问其自定义模型,就像 Amazon Bedrock 中的任何其他模型一样。他们获得所有相同的好处,包括无缝的可扩展性和保护应用程序的强大功能、遵守负责任的人工智能原则,以及使用 RAG 扩展模型知识库的能力,轻松创建代理来完成多步骤任务,并携带进行微调以保持教学和完善模型。所有这些都不需要管理底层基础设施。

借助这项新功能,我们使组织可以轻松选择 Amazon Bedrock 模型和自己的自定义模型的组合,同时保持相同的简化开发体验。今天,Amazon Bedrock 自定义模型导入已推出预览版,支持三种最流行的开放模型架构,并计划在未来支持更多架构。阅读更多关于 Amazon Bedrock 的自定义模型导入.

ASAPP 是一家生成式人工智能公司,拥有 10 年构建机器学习模型的历史。

“我们的对话生成人工智能语音和聊天代理利用这些模型重新定义客户服务体验。为了为我们的客户提供端到端自动化,我们需要法学硕士代理、知识库和模型选择灵活性。通过自定义模型导入,我们将能够在 Amazon Bedrock 中使用现有的自定义模型。 Bedrock 将使我们能够更快地吸引客户,加快创新步伐,并加快新产品功能的上市时间。”

– Priya Vijayarajendran,技术总裁。

3. Amazon Bedrock 为轻松实施保障措施提供了安全且负责任的基础

随着生成式人工智能能力的进步和扩展,建立信任和解决道德问题变得更加重要。 Amazon Bedrock 通过利用 AWS 安全且值得信赖的基础设施以及行业领先的安全措施、强大的数据加密和严格的访问控制来解决这些问题。

Amazon Bedrock 的 Guardrails 现已全面上市,可帮助客户防止有害内容并管理应用程序内的敏感信息。

我们还提供 Amazon Bedrock 的护栏现已全面上市。 Guardrails 提供业界领先的安全保护,使客户能够定义内容策略、设置应用程序行为边界并实施针对潜在风险的保护措施。 Amazon Bedrock 的 Guardrails 是主要云提供商提供的唯一解决方案,使客户能够在单一解决方案中为其生成式 AI 应用程序构建和定制安全和隐私保护。与 Amazon Bedrock 上 FM 本身提供的保护相比,它可以帮助客户阻止多达 85% 的有害内容。 Guardrails 为有害内容过滤和强大的个人身份信息 (PII) 检测功能提供全面支持。 Guardrails 与 Amazon Bedrock 中的所有法学硕士以及微调模型配合使用,推动模型响应不良和有害内容的一致性。您可以配置阈值来过滤六个类别的内容 - 仇恨、侮辱、性、暴力、不当行为(包括犯罪活动)和即时攻击(越狱和即时注入)。您还可以定义一组需要在生成式 AI 应用程序中阻止的主题或单词,包括有害单词、脏话、竞争对手名称和产品。例如,银行应用程序可以配置护栏来检测和阻止与投资建议相关的主题。汇总呼叫中心记录的联络中心应用程序可以使用 PII 编辑来删除呼叫摘要中的 PII,或者会话聊天机器人可以使用内容过滤器来阻止有害内容。阅读更多关于 亚马逊基岩护栏.

Aha!(一家帮助超过 1 万人将其产品战略变为现实的软件公司)等公司使用 Amazon Bedrock 为其许多生成式 AI 功能提供支持。

“通过 Amazon Bedrock 的数据保护和隐私政策,我们可以完全控制我们的信息,并可以通过 Amazon Bedrock 的 Guardrails 阻止有害内容。我们只是在此基础上帮助产品经理通过分析客户提交的反馈来发现见解。这仅仅是个开始。我们将继续以先进的 AWS 技术为基础,帮助世界各地的产品开发团队充满信心地确定下一步要构建的内容。”

凭借更多领先 FM 和功能的选择,帮助您评估模型和保护应用程序,并利用您之前在 AI 方面的投资以及 Amazon Bedrock 的功能,今天的发布使客户能够更轻松、更快速地构建和扩展生成式 AI应用程序。这篇博文仅重点介绍了新功能的一部分。您可以在本文的资源中详细了解我们推出的所有内容,包括提出问题和总结单个文档中的数据,而无需在知识库和 通过知识库普遍支持多个数据源.

利用 Amazon Bedrock 功能的早期采用者正在获得重要的领先优势 - 提高生产力、推动跨领域的突破性发现,并提供增强的客户体验以培养忠诚度和参与度。我很高兴看到我们的客户下一步将利用这些新功能做什么。

正如我的导师 Werner Vogels 总是说的“现在开始构建”,我将添加“……使用 Amazon Bedrock!”

资源

查看以下资源以了解有关此公告的更多信息:


关于作者

斯瓦米·西瓦苏布拉马尼安 是 AWS 数据和机器学习副总裁。 在此职位上,Swami 负责监督所有 AWS 数据库、分析以及 AI 和机器学习服务。 他的团队的使命是帮助组织使用完整的端到端数据解决方案将他们的数据用于存储、访问、分析、可视化和预测。

现货图片

最新情报

现货图片