Intelligence de données générative

De nouvelles fonctionnalités importantes facilitent l'utilisation d'Amazon Bedrock pour créer et faire évoluer des applications d'IA générative – et obtenir des résultats impressionnants | Services Web Amazon

Date :

Nous avons présenté Amazon Bedrock au monde il y a un peu plus d'un an, offrant une toute nouvelle façon de créer des applications d'intelligence artificielle (IA) générative. Avec la plus large sélection de modèles de fondation (FM) propriétaires et tiers ainsi que des fonctionnalités conviviales, Amazon Bedrock constitue le moyen le plus rapide et le plus simple de créer et de faire évoluer des applications d'IA générative sécurisées. Aujourd'hui, des dizaines de milliers de clients utilisent Amazon Bedrock pour créer et faire évoluer des applications impressionnantes. Ils innovent rapidement, facilement et en toute sécurité pour faire progresser leurs stratégies d'IA. Et nous soutenons leurs efforts en améliorant Amazon Bedrock avec de nouvelles fonctionnalités intéressantes, notamment un choix encore plus large de modèles et des fonctionnalités qui facilitent la sélection du bon modèle, la personnalisation du modèle pour un cas d'utilisation spécifique, ainsi que la sauvegarde et la mise à l'échelle des applications d'IA générative.

Les clients de divers secteurs, de la finance aux voyages, en passant par l'hôtellerie, les soins de santé et la technologie grand public, réalisent des progrès remarquables. Ils réalisent une réelle valeur commerciale en mettant rapidement en production les applications d’IA générative afin d’améliorer l’expérience client et d’augmenter l’efficacité opérationnelle. Prenons l'exemple de la Bourse de New York (NYSE), le plus grand marché de capitaux au monde qui traite des milliards de transactions chaque jour. NYSE exploite le choix de FM d'Amazon Bedrock et les capacités génératives d'IA de pointe dans plusieurs cas d'utilisation, notamment le traitement de milliers de pages de réglementations pour fournir des réponses dans un langage facile à comprendre.

La compagnie aérienne mondiale United Airlines a modernisé son système de service aux passagers pour traduire les anciens codes de réservation des passagers en anglais simple afin que les agents puissent fournir une assistance client rapide et efficace. LexisNexis Legal & Professional, l'un des principaux fournisseurs mondiaux d'informations et d'analyses, a développé un assistant d'IA générative juridique personnalisé sur Lexis+ AI. Les clients de LexisNexis reçoivent des résultats fiables deux fois plus rapidement que le produit concurrent le plus proche et peuvent économiser jusqu'à cinq heures par semaine pour la recherche et la synthèse juridiques. Et HappyFox, un logiciel d'assistance en ligne, a sélectionné Amazon Bedrock pour sa sécurité et ses performances, augmentant de 40 % l'efficacité de son système de tickets automatisés alimenté par l'IA dans sa solution de support client et la productivité des agents de 30 %.

Et partout sur Amazon, nous continuons d'innover avec l'IA générative pour offrir des expériences plus immersives et plus engageantes à nos clients. La semaine dernière, Amazon Music a annoncé Maestro. Maestro est un générateur de listes de lecture IA alimenté par Amazon Bedrock qui offre aux abonnés Amazon Music un moyen plus simple et plus amusant de créer des listes de lecture basées sur des invites. Maestro est actuellement déployé en version bêta auprès d'un petit nombre de clients américains sur tous les niveaux d'Amazon Music.

Avec Amazon Bedrock, nous nous concentrons sur les domaines clés dont les clients ont besoin pour créer des applications d'IA générative de niveau entreprise, prêtes pour la production, au coût et à la vitesse appropriés. Aujourd'hui, je suis ravi de partager les nouvelles fonctionnalités que nous annonçons dans les domaines du choix de modèles, des outils de création d'applications d'IA génératives, ainsi que de la confidentialité et de la sécurité.

1. Amazon Bedrock élargit le choix de modèles avec les modèles Llama 3 et vous aide à trouver le modèle le mieux adapté à vos besoins

À ces débuts, les clients sont encore en train d’apprendre et d’expérimenter différents modèles pour déterminer lesquels utiliser à diverses fins. Ils veulent pouvoir essayer facilement les derniers modèles et tester quelles capacités et fonctionnalités leur donneront les meilleurs résultats et caractéristiques de coût pour leurs cas d'utilisation. La majorité des clients d'Amazon Bedrock utilisent plusieurs modèles, et Amazon Bedrock propose la plus large sélection de modèles de langage étendus (LLM) propriétaires et tiers et d'autres FM. Cela inclut les modèles de Laboratoires AI21, Anthropique, Adhérer, Meta, IA Mistralet IA de stabilité, ainsi que le nôtre Modèles Amazon Titan. En fait, Joel Hron, responsable des laboratoires IA et Thomson Reuters chez Thomson Reuters a récemment déclaré à propos de leur adoption d'Amazon Bedrock, "Avoir la possibilité d'utiliser une gamme diversifiée de modèles au fur et à mesure de leur sortie a été un facteur clé pour nous, en particulier compte tenu de la rapidité avec laquelle cet espace évolue." Les modèles de pointe de la famille de modèles Mistral AI comprenant Mistral7B, Mixtral 8x7Bet Mistral Grand ont des clients enthousiasmés par leurs hautes performances en matière de génération de texte, de résumé, de questions-réponses et de génération de code. Depuis que nous avons présenté la famille de modèles Anthropic Claude 3, des milliers de clients ont pu découvrir comment Claude 3 Haiku, Sonnet et Opus ont établi de nouvelles références en matière de tâches cognitives avec une intelligence, une rapidité et une rentabilité inégalées. Après l'évaluation initiale utilisant Claude 3 Haiku et Opus dans Amazon Bedrock, BlueOcean.ai, une plateforme d'intelligence de marque, a constaté une réduction des coûts de plus de 50 % lorsqu'elle a pu consolider quatre appels d'API distincts en un seul appel plus efficace.

Masahiro Oba, directeur général de la gouvernance fédérée du groupe de la plate-forme DX chez Sony Group Corporation, a partagé :

« Bien que l'application de l'IA générative à l'entreprise présente de nombreux défis, les diverses capacités d'Amazon Bedrock nous aident à adapter les applications d'IA générative aux activités de Sony. Nous sommes en mesure de tirer parti non seulement des puissantes capacités LLM de Claude 3, mais également des capacités qui nous aident à protéger les applications au niveau de l'entreprise. Je suis vraiment fier de travailler avec l'équipe Bedrock pour démocratiser davantage l'IA générative au sein du groupe Sony.

J'ai récemment rencontré Aaron Linsky, CTO d'Artificial Investment Associate Labs chez Bridgewater Associates, une société de gestion d'actifs de premier plan, où ils utilisent l'IA générative pour améliorer leur « Artificial Investment Associate », un pas en avant majeur pour leurs clients. Il s'appuie sur leur expérience en matière de fourniture de conseils d'experts fondés sur des règles pour la prise de décision en matière d'investissement. Avec Amazon Bedrock, ils peuvent utiliser les meilleurs FM disponibles, tels que Claude 3, pour différentes tâches, combinant une compréhension fondamentale du marché avec les capacités de raisonnement flexibles de l'IA. Amazon Bedrock permet une expérimentation transparente des modèles, permettant à Bridgewater de créer un système d'investissement puissant et auto-améliorable qui allie des conseils systématiques à des capacités de pointe, créant ainsi un processus évolutif axé avant tout sur l'IA.

Pour offrir encore plus de choix de modèles aux clients, nous proposons aujourd'hui Modèles Meta Llama 3 disponibles sur Amazon Bedrock. Les modèles Llama 3 3B et Llama 8 3B de Llama 70 sont conçus pour créer, expérimenter et faire évoluer de manière responsable des applications d'IA générative. Ces modèles ont été considérablement améliorés par rapport à l'architecture de modèle précédente, y compris l'intensification de la pré-formation ainsi que les approches de réglage précis de l'instruction. Llama 3 8B excelle dans la synthèse, la classification, l'analyse des sentiments et la traduction de textes, idéal pour les ressources limitées et les appareils de pointe. Llama 3 70B brille dans la création de contenu, l'IA conversationnelle, la compréhension du langage, la R&D, les entreprises, la synthèse précise, la classification nuancée/analyse des sentiments, la modélisation du langage, les systèmes de dialogue, la génération de code et le suivi des instructions. En savoir plus sur Meta Llama 3 maintenant disponible sur Amazon Bedrock.

Nous annonçons également un support bientôt disponible pour les FM d'entreprise Command R et Command R+ de Cohere.. Ces modèles sont hautement évolutifs et optimisés pour les tâches à long contexte telles que la génération augmentée par récupération (RAG) avec des citations pour atténuer les hallucinations, l'utilisation d'outils en plusieurs étapes pour automatiser des tâches commerciales complexes et la prise en charge de 10 langues pour les opérations mondiales. Command R+ est le modèle le plus puissant de Cohere, optimisé pour les tâches à contexte long, tandis que Command R est optimisé pour les charges de travail de production à grande échelle. Avec les modèles Cohere bientôt disponibles dans Amazon Bedrock, les entreprises peuvent créer des applications d'IA générative de niveau entreprise qui équilibrent précision et efficacité pour les opérations d'IA quotidiennes au-delà de la preuve de concept.

Amazon Titan Image Generator est désormais disponible pour tous et Amazon Titan Text Embeddings V2 sera bientôt disponible

En plus d'ajouter les modèles 3P les plus performants, Amazon Titan Image Generator est généralement disponible aujourd'hui. Avec Amazon Titan Image Generator, les clients de secteurs tels que la publicité, le commerce électronique, les médias et le divertissement peuvent générer efficacement des images réalistes de qualité studio en gros volumes et à faible coût, en utilisant des invites en langage naturel. Ils peuvent modifier les images générées ou existantes à l'aide d'invites textuelles, configurer les dimensions de l'image ou spécifier le nombre de variations d'image pour guider le modèle. Par défaut, chaque image produite par Amazon Titan Image Generator contient un filigrane invisible, ce qui correspond à l'engagement d'AWS à promouvoir une IA responsable et éthique en réduisant la propagation de la désinformation. La fonction de détection de filigrane identifie les images créées par Image Generator et est conçue pour être inviolable, contribuant ainsi à accroître la transparence autour du contenu généré par l'IA. La détection de filigrane aide à atténuer les risques liés à la propriété intellectuelle et permet aux créateurs de contenu, aux agences de presse, aux analystes des risques, aux équipes de détection de fraude et autres, de mieux identifier et atténuer la diffusion de contenu trompeur généré par l'IA. En savoir plus sur Détection de filigrane pour Titan Image Generator.

Bientôt disponible, Amazon Titan Text Embeddings V2 fournit efficacement des réponses plus pertinentes pour les cas d'utilisation critiques en entreprise comme la recherche. Des modèles d'intégration efficaces sont essentiels à la performance lorsque l'on exploite RAG pour enrichir les réponses avec des informations supplémentaires. Embeddings V2 est optimisé pour les flux de travail RAG et offre une intégration transparente avec Bases de connaissances pour Amazon Bedrock pour fournir des réponses plus informatives et pertinentes de manière efficace. Embeddings V2 permet une compréhension plus approfondie des relations entre les données pour des tâches complexes telles que la récupération, la classification, la recherche de similarité sémantique et l'amélioration de la pertinence de la recherche. Offrant des tailles d'intégration flexibles de 256, 512 et 1024 2 dimensions, Embeddings V97 donne la priorité à la réduction des coûts tout en conservant XNUMX % de la précision pour les cas d'utilisation RAG, surpassant ainsi les autres modèles leaders. De plus, les tailles d'intégration flexibles répondent à divers besoins d'applications, depuis les déploiements mobiles à faible latence jusqu'aux flux de travail asynchrones de haute précision.

Le nouveau modèle d'évaluation simplifie le processus d'accès, de comparaison et de sélection des LLM et FM

Choisir le modèle approprié est une première étape essentielle vers la création de toute application d’IA générative. Les performances des LLM peuvent varier considérablement en fonction de la tâche, du domaine, des modalités de données et d'autres facteurs. Par exemple, un modèle biomédical est susceptible de surpasser les modèles de soins de santé généraux dans des contextes médicaux spécifiques, tandis qu'un modèle de codage peut être confronté à des défis liés aux tâches de traitement du langage naturel. L'utilisation d'un modèle trop puissant pourrait conduire à une utilisation inefficace des ressources, tandis qu'un modèle sous-alimenté pourrait ne pas répondre aux normes de performances minimales, ce qui pourrait donner des résultats incorrects. Et la sélection d'un gestionnaire de gestion inadapté dès le début d'un projet pourrait miner la confiance des parties prenantes.

Avec autant de modèles parmi lesquels choisir, nous souhaitons permettre aux clients de choisir plus facilement celui qui convient à leur cas d'utilisation.

L'outil d'évaluation de modèle d'Amazon Bedrock, désormais disponible pour tous, simplifie le processus de sélection en permettant une analyse comparative et une comparaison avec des ensembles de données et des mesures d'évaluation spécifiques, garantissant ainsi aux développeurs de sélectionner le modèle qui correspond le mieux aux objectifs de leur projet. Cette expérience guidée permet aux développeurs d'évaluer les modèles selon des critères adaptés à chaque cas d'utilisation. Grâce à l'évaluation des modèles, les développeurs sélectionnent les modèles candidats à évaluer : options publiques, modèles personnalisés importés ou versions affinées. Ils définissent les tâches de test, les ensembles de données et les mesures d'évaluation pertinents, tels que la précision, la latence, les projections de coûts et les facteurs qualitatifs. En savoir plus sur Évaluation du modèle dans Amazon Bedrock.

La possibilité de sélectionner parmi les FM les plus performants d'Amazon Bedrock a été extrêmement bénéfique pour Elastic Security. James Spiteri, directeur de la gestion des produits chez Elastic, a partagé :

« En quelques clics seulement, nous pouvons évaluer simultanément une seule invite sur plusieurs modèles. Cette fonctionnalité d'évaluation de modèle nous permet de comparer les résultats, les mesures et les coûts associés entre différents modèles, nous permettant ainsi de prendre une décision éclairée sur le modèle le plus adapté à ce que nous essayons d'accomplir. Cela a considérablement rationalisé notre processus, nous faisant gagner un temps considérable dans le déploiement de nos applications en production.

2. Amazon Bedrock offre des fonctionnalités permettant d'adapter l'IA générative aux besoins de votre entreprise

Bien que les modèles soient extrêmement importants, il en faut plus pour créer une application utile à une organisation. C'est pourquoi Amazon Bedrock dispose de fonctionnalités qui vous aident à adapter facilement les solutions d'IA générative à des cas d'utilisation spécifiques. Les clients peuvent utiliser leurs propres données pour personnaliser les applications en privé via un réglage fin ou en utilisant des bases de connaissances pour une expérience RAG entièrement gérée afin de fournir des réponses plus pertinentes, précises et personnalisées. Les agents pour Amazon Bedrock permettent aux développeurs de définir des tâches, des flux de travail ou des processus de prise de décision spécifiques, améliorant ainsi le contrôle et l'automatisation tout en garantissant un alignement cohérent avec un cas d'utilisation prévu. À partir d'aujourd'hui, vous pouvez désormais utiliser les agents avec les modèles Anthropic Claude 3 Haiku et Sonnet. Nous introduisons également une expérience de console AWS mise à jour, prenant en charge un schéma simplifié et un retour de contrôle pour permettre aux développeurs de démarrer facilement. En savoir plus sur Agents pour Amazon Bedrock, désormais plus rapides et plus faciles à utiliser.

Avec la nouvelle importation de modèles personnalisés, les clients peuvent exploiter toutes les capacités d'Amazon Bedrock avec leurs propres modèles.

Toutes ces fonctionnalités sont essentielles à la création d'applications d'IA générative, c'est pourquoi nous avons souhaité les rendre disponibles à encore plus de clients, y compris ceux qui ont déjà investi des ressources importantes dans le réglage fin des LLM avec leurs propres données sur différents services ou dans la formation de modèles personnalisés de gratter. De nombreux clients disposent de modèles personnalisés disponibles sur Amazon SageMaker, qui propose la plus large gamme de plus de 250 FM pré-entraînés. Ces FM comprennent des modèles de pointe tels que Mistral, Llama2, CodeLlama, Jurassic-2, Jamba, pplx-7B, 70B et l'impressionnant Falcon 180B. Amazon SageMaker aide à organiser et à affiner les données, à créer une infrastructure de formation évolutive et efficace, puis à déployer des modèles à grande échelle avec une faible latence et de manière rentable. Cela a changé la donne pour les développeurs en préparant leurs données pour l'IA, en gérant les expériences, en entraînant les modèles plus rapidement (par exemple, Perplexity AI entraîne les modèles 40 % plus rapidement dans Amazon SageMaker), en réduisant la latence d'inférence (par exemple, Workday a réduit la latence d'inférence de 80 % avec Amazon). SageMaker) et améliorer la productivité des développeurs (par exemple, NatWest a réduit son délai de rentabilisation pour l'IA de 12 à 18 mois à moins de sept mois grâce à Amazon SageMaker). Cependant, la mise en œuvre sécurisée de ces modèles personnalisés et leur intégration dans des applications pour des cas d’utilisation métier spécifiques restent difficiles.

C'est pourquoi nous présentons aujourd'hui Importation de modèles personnalisés Amazon Bedrock, qui permet aux organisations de tirer parti de leurs investissements existants en IA ainsi que des capacités d'Amazon Bedrock. Avec Custom Model Import, les clients peuvent désormais importer et accéder à leurs propres modèles personnalisés basés sur des architectures de modèles ouverts populaires, notamment Flan-T5, Llama et Mistral, en tant qu'interface de programmation d'applications (API) entièrement gérée dans Amazon Bedrock. Les clients peuvent prendre des modèles qu'ils ont personnalisés sur Amazon SageMaker ou d'autres outils et les ajouter facilement à Amazon Bedrock. Après une validation automatisée, ils peuvent accéder de manière transparente à leur modèle personnalisé, comme pour tout autre modèle dans Amazon Bedrock. Ils bénéficient des mêmes avantages, notamment une évolutivité transparente et de puissantes capacités pour protéger leurs applications, le respect des principes d'IA responsable, ainsi que la possibilité d'élargir la base de connaissances d'un modèle avec RAG, de créer facilement des agents pour effectuer des tâches en plusieurs étapes et de réaliser des tâches en plusieurs étapes. un réglage fin pour continuer à enseigner et à affiner les modèles. Le tout sans avoir besoin de gérer l’infrastructure sous-jacente.

Grâce à cette nouvelle fonctionnalité, nous permettons aux organisations de choisir facilement une combinaison de modèles Amazon Bedrock et de leurs propres modèles personnalisés tout en conservant la même expérience de développement rationalisée. Aujourd'hui, Amazon Bedrock Custom Model Import est disponible en version préliminaire et prend en charge trois des architectures de modèles ouverts les plus populaires et d'autres projets sont prévus à l'avenir. En savoir plus sur Importation de modèles personnalisés pour Amazon Bedrock.

ASAPP est une société d'IA générative avec une expérience de 10 ans dans la création de modèles ML.

« Notre agent vocal et de chat conversationnel et génératif d’IA exploite ces modèles pour redéfinir l’expérience du service client. Pour offrir à nos clients une automatisation de bout en bout, nous avons besoin d'agents LLM, d'une base de connaissances et d'une flexibilité de sélection de modèles. Avec Custom Model Import, nous pourrons utiliser nos modèles personnalisés existants dans Amazon Bedrock. Bedrock nous permettra d'intégrer nos clients plus rapidement, d'accélérer notre rythme d'innovation et d'accélérer la mise sur le marché de nouvelles capacités de produits.

– Priya Vijayarajendran, présidente, Technologie.

3. Amazon Bedrock fournit une base sécurisée et responsable pour mettre en œuvre facilement des protections

À mesure que les capacités de l’IA générative progressent et se développent, il devient encore plus important d’instaurer la confiance et de répondre aux préoccupations éthiques. Amazon Bedrock répond à ces préoccupations en tirant parti de l'infrastructure sécurisée et fiable d'AWS avec des mesures de sécurité de pointe, un cryptage robuste des données et des contrôles d'accès stricts.

Guardrails pour Amazon Bedrock, désormais disponible pour tous, aide les clients à prévenir les contenus nuisibles et à gérer les informations sensibles au sein d'une application.

Nous offrons également des Garde-corps pour Amazon Bedrock, désormais disponible pour tous. Guardrails offre une protection de sécurité de pointe, donnant aux clients la possibilité de définir des politiques de contenu, de fixer des limites de comportement des applications et de mettre en œuvre des protections contre les risques potentiels. Guardrails pour Amazon Bedrock est la seule solution proposée par un important fournisseur de cloud qui permet aux clients de créer et de personnaliser des protections de sécurité et de confidentialité pour leurs applications d'IA générative dans une solution unique. Il aide les clients à bloquer jusqu'à 85 % de contenu nuisible en plus que la protection fournie nativement par les FM sur Amazon Bedrock. Guardrails fournit une prise en charge complète du filtrage des contenus nuisibles et de solides capacités de détection des informations personnelles identifiables (PII). Guardrails fonctionne avec tous les LLM d'Amazon Bedrock ainsi qu'avec des modèles affinés, garantissant ainsi la cohérence dans la façon dont les modèles réagissent aux contenus indésirables et nuisibles. Vous pouvez configurer des seuils pour filtrer le contenu dans six catégories : haine, insultes, sexualité, violence, mauvaise conduite (y compris les activités criminelles) et attaque rapide (jailbreak et injection rapide). Vous pouvez également définir un ensemble de sujets ou de mots qui doivent être bloqués dans votre application d'IA générative, notamment les mots nuisibles, les grossièretés, les noms de concurrents et les produits. Par exemple, une application bancaire peut configurer un garde-fou pour détecter et bloquer les sujets liés au conseil en investissement. Une application de centre de contact résumant les transcriptions du centre d'appels peut utiliser la rédaction des informations personnelles pour supprimer les informations personnelles dans les résumés d'appels, ou un chatbot conversationnel peut utiliser des filtres de contenu pour bloquer le contenu nuisible. En savoir plus sur Garde-corps pour le substrat rocheux amazonien.

Des entreprises comme Aha!, une société de logiciels qui aide plus d'un million de personnes à donner vie à leur stratégie produit, utilisent Amazon Bedrock pour alimenter bon nombre de leurs capacités d'IA générative.

« Nous avons un contrôle total sur nos informations grâce aux politiques de protection des données et de confidentialité d'Amazon Bedrock, et pouvons bloquer les contenus nuisibles grâce aux garde-corps pour Amazon Bedrock. Nous l'avons simplement développé pour aider les chefs de produit à découvrir des informations en analysant les commentaires soumis par leurs clients. Ce n'est que le début. Nous continuerons à nous appuyer sur la technologie AWS avancée pour aider les équipes de développement de produits du monde entier à prioriser les prochaines étapes à construire en toute confiance.

Avec encore plus de choix de FM et de fonctionnalités de pointe qui vous aident à évaluer les modèles et à protéger les applications, ainsi qu'à tirer parti de vos investissements antérieurs dans l'IA ainsi que des capacités d'Amazon Bedrock, les lancements d'aujourd'hui permettent aux clients de créer et de faire évoluer encore plus facilement et plus rapidement l'IA générative. applications. Cet article de blog ne met en évidence qu'un sous-ensemble des nouvelles fonctionnalités. Vous pouvez en savoir plus sur tout ce que nous avons lancé dans les ressources de cet article, notamment poser des questions et résumer les données d'un seul document sans configurer de base de données vectorielles dans les bases de connaissances et le disponibilité générale de la prise en charge de plusieurs sources de données avec les bases de connaissances.

Les premiers utilisateurs qui exploitent les capacités d'Amazon Bedrock prennent une longueur d'avance cruciale : ils génèrent des gains de productivité, alimentent des découvertes révolutionnaires dans tous les domaines et offrent des expériences client améliorées qui favorisent la fidélité et l'engagement. J'ai hâte de voir ce que nos clients feront ensuite avec ces nouvelles fonctionnalités.

Comme mon mentor Werner Vogels le dit toujours « Maintenant, allez construire » et j'ajouterai « … avec Amazon Bedrock ! »

Ressources

Consultez les ressources suivantes pour en savoir plus sur cette annonce :


A propos de l'auteure

Swami Sivasubramanian est vice-président des données et de l'apprentissage automatique chez AWS. Dans ce rôle, Swami supervise tous les services AWS Database, Analytics, AI & Machine Learning. La mission de son équipe est d'aider les organisations à exploiter leurs données avec une solution de données complète et de bout en bout pour stocker, accéder, analyser, visualiser et prévoir.

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?