Generativ dataintelligens

Betydande nya funktioner gör det lättare att använda Amazon Bedrock för att bygga och skala generativa AI-applikationer – och uppnå imponerande resultat | Amazon webbtjänster

Datum:

Vi introducerade Amazon Bedrock för världen för lite över ett år sedan och levererade ett helt nytt sätt att bygga generativa applikationer för artificiell intelligens (AI). Med det bredaste urvalet av första och tredje parts grundmodeller (FM) samt användarvänliga funktioner är Amazon Bedrock det snabbaste och enklaste sättet att bygga och skala säkra generativa AI-applikationer. Nu använder tiotusentals kunder Amazon Bedrock för att bygga och skala imponerande applikationer. De förnyar sig snabbt, enkelt och säkert för att utveckla sina AI-strategier. Och vi stödjer deras ansträngningar genom att förbättra Amazon Bedrock med spännande nya funktioner inklusive ännu fler modellval och funktioner som gör det lättare att välja rätt modell, anpassa modellen för ett specifikt användningsfall och skydda och skala generativa AI-applikationer.

Kunder inom olika branscher från finans till resor och gästfrihet till hälsovård till konsumentteknologi gör anmärkningsvärda framsteg. De inser verkligt affärsvärde genom att snabbt flytta generativa AI-applikationer till produktion för att förbättra kundupplevelser och öka operativ effektivitet. Tänk på New York Stock Exchange (NYSE), världens största kapitalmarknad som bearbetar miljarder transaktioner varje dag. NYSE utnyttjar Amazon Bedrocks val av FM:er och banbrytande AI-generativa funktioner i flera användningsfall, inklusive bearbetning av tusentals sidor med regler för att ge svar på ett lättförståeligt språk

Det globala flygbolaget United Airlines moderniserade sitt Passenger Service System för att översätta äldre passagerarbokningskoder till vanlig engelska så att agenter kan ge snabb och effektiv kundsupport. LexisNexis Legal & Professional, en ledande global leverantör av information och analys, utvecklade en personlig juridisk generativ AI-assistent på Lexis+ AI. LexisNexis kunder får pålitliga resultat två gånger snabbare än närmaste konkurrerande produkt och kan spara upp till fem timmar per vecka för juridisk forskning och sammanfattning. Och HappyFox, en onlinehjälpprogramvara, valde Amazon Bedrock för dess säkerhet och prestanda, vilket ökade effektiviteten hos dess AI-drivna automatiserade biljettsystem i sin kundsupportlösning med 40 % och agentproduktiviteten med 30 %.

Och över hela Amazon fortsätter vi att förnya oss med generativ AI för att leverera mer uppslukande, engagerande upplevelser för våra kunder. Bara förra veckan tillkännagav Amazon Music Maestro. Maestro är en AI-spellistgenerator som drivs av Amazon Bedrock som ger Amazon Music-prenumeranter ett enklare och roligare sätt att skapa spellistor baserat på uppmaningar. Maestro rullas nu ut i beta till ett litet antal amerikanska kunder på alla nivåer av Amazon Music.

Med Amazon Bedrock är vi fokuserade på nyckelområdena som kunder behöver för att bygga produktionsklara, generativa AI-applikationer i företagsklass till rätt kostnad och hastighet. Idag är jag glad att dela med mig av nya funktioner som vi tillkännager inom områdena modellval, verktyg för att bygga generativa AI-applikationer och integritet och säkerhet.

1. Amazon Bedrock utökar modellvalet med Llama 3-modeller och hjälper dig hitta den bästa modellen för dina behov

I dessa tidiga dagar lär sig och experimenterar kunderna fortfarande med olika modeller för att avgöra vilka som ska användas för olika ändamål. De vill enkelt kunna prova de senaste modellerna och testa vilka möjligheter och funktioner som ger dem de bästa resultaten och kostnadsegenskaperna för deras användningsfall. Majoriteten av Amazon Bedrock-kunderna använder mer än en modell, och Amazon Bedrock tillhandahåller det bredaste urvalet av första- och tredjepartsmodeller för stora språk (LLM) och andra FM:er. Detta inkluderar modeller från AI21-labb, Antropisk, Hänga ihop, meta, Mistral AIoch Stabilitet AI, såväl som vår egen Amazon Titan-modeller. Faktum är att Joel Hron, chef för AI och Thomson Reuters Labs på Thomson Reuters sade nyligen detta om deras antagande av Amazon Bedrock, "Att ha möjligheten att använda ett brett utbud av modeller när de kommer ut var en viktig drivkraft för oss, särskilt med tanke på hur snabbt detta utrymme utvecklas." De banbrytande modellerna i Mistral AI-modellfamiljen inklusive Mistral 7B, Mixtral 8x7Boch Mistral Large har kunder entusiastiska över deras höga prestanda i textgenerering, sammanfattning, Q&A och kodgenerering. Sedan vi introducerade modellfamiljen Anthropic Claude 3 har tusentals kunder upplevt hur Claude 3 Haiku, Sonnet och Opus har etablerat nya riktmärken för kognitiva uppgifter med oöverträffad intelligens, hastighet och kostnadseffektivitet. Efter den första utvärderingen med Claude 3 Haiku och Opus i Amazon Bedrock, såg BlueOcean.ai, en varumärkesintelligensplattform, en kostnadsminskning på över 50 % när de kunde konsolidera fyra separata API-anrop till ett enda, mer effektivt anrop.

Masahiro Oba, General Manager, Group Federated Governance of DX Platform på Sony Group Corporation delade,

"Även om det finns många utmaningar med att tillämpa generativ AI i verksamheten, hjälper Amazon Bedrocks olika möjligheter oss att skräddarsy generativa AI-applikationer till Sonys verksamhet. Vi kan dra nytta av inte bara de kraftfulla LLM-funktionerna i Claude 3, utan också funktioner som hjälper oss att skydda applikationer på företagsnivå. Jag är verkligen stolt över att arbeta med Bedrock-teamet för att ytterligare demokratisera generativ AI inom Sony Group.”

Jag satt nyligen med Aaron Linsky, CTO för Artificial Investment Associate Labs på Bridgewater Associates, ett ledande kapitalförvaltningsföretag, där de använder generativ AI för att förbättra sin "Artificial Investment Associate", ett stort steg framåt för sina kunder. Den bygger på deras erfarenhet av att ge regelbaserad expertrådgivning för investeringsbeslut. Med Amazon Bedrock kan de använda de bästa tillgängliga FM:erna, som Claude 3, för olika uppgifter - att kombinera grundläggande marknadsförståelse med AI:s flexibla resonemang. Amazon Bedrock möjliggör sömlösa modellexperimentering, vilket gör det möjligt för Bridgewater att bygga ett kraftfullt, självförbättrande investeringssystem som kombinerar systematisk rådgivning med banbrytande möjligheter – vilket skapar en utvecklande, AI-först process.

För att ge kunderna ännu fler modellval, gör vi idag Meta Llama 3-modeller tillgängliga i Amazon Bedrock. Llama 3:s Llama 3 8B- och Llama 3 70B-modeller är designade för att bygga, experimentera och på ett ansvarsfullt sätt skala generativa AI-applikationer. Dessa modeller förbättrades avsevärt från den tidigare modellarkitekturen, inklusive uppskalning av förträning, samt instruktionsfinjusteringsmetoder. Llama 3 8B utmärker sig i textsammanfattning, klassificering, sentimentanalys och översättning, perfekt för begränsade resurser och avancerade enheter. Llama 3 70B lyser i innehållsskapande, konversations-AI, språkförståelse, FoU, företag, korrekt sammanfattning, nyanserad klassificering/sentimentanalys, språkmodellering, dialogsystem, kodgenerering och instruktionsföljande. Läs mer om Meta Llama 3 nu tillgänglig i Amazon Bedrock.

Vi tillkännager också stöd inom kort för Coheres Command R och Command R+ enterprise FM. Dessa modeller är mycket skalbara och optimerade för uppgifter med långa sammanhang som RAG (retrieval-augmented generation) med citeringar för att mildra hallucinationer, verktygsanvändning i flera steg för att automatisera komplexa affärsuppgifter och stöd för 10 språk för global verksamhet. Command R+ är Coheres mest kraftfulla modell optimerad för uppgifter med långa sammanhang, medan Command R är optimerad för storskaliga produktionsbelastningar. Med Cohere-modellerna som snart kommer i Amazon Bedrock, kan företag bygga generativa AI-applikationer i företagsklass som balanserar stark noggrannhet och effektivitet för daglig AI-verksamhet bortom proof-of-concept.

Amazon Titan Image Generator är nu allmänt tillgänglig och Amazon Titan Text Embeddings V2 kommer snart

Förutom att lägga till de mest kapabla 3P-modellerna är Amazon Titan Image Generator allmänt tillgänglig idag. Med Amazon Titan Image Generator kan kunder inom branscher som reklam, e-handel, media och underhållning effektivt generera realistiska bilder av studiokvalitet i stora volymer och till låg kostnad, med hjälp av naturliga språkuppmaningar. De kan redigera genererade eller befintliga bilder med hjälp av textmeddelanden, konfigurera bilddimensioner eller ange antalet bildvarianter för att vägleda modellen. Som standard innehåller varje bild som produceras av Amazon Titan Image Generator en osynlig vattenstämpel, som är i linje med AWS åtagande att främja ansvarsfull och etisk AI genom att minska spridningen av desinformation. Funktionen Watermark Detection identifierar bilder skapade av Image Generator och är designade för att vara manipuleringssäkra, vilket hjälper till att öka transparensen kring AI-genererat innehåll. Watermark Detection hjälper till att minska immateriella risker och gör det möjligt för innehållsskapare, nyhetsorganisationer, riskanalytiker, bedrägeriupptäckande team och andra att bättre identifiera och minska spridningen av vilseledande AI-genererat innehåll. Läs mer om Vattenstämpeldetektering för Titan Image Generator.

Kommer snart, Amazon Titan Text Embeddings V2 levererar effektivt mer relevanta svar för kritiska företagsanvändningsfall som sökning. Effektiva inbäddningsmodeller är avgörande för prestanda när man använder RAG för att berika svaren med ytterligare information. Embeddings V2 är optimerad för RAG-arbetsflöden och ger sömlös integration med Kunskapsbaser för Amazon Bedrock att leverera mer informativa och relevanta svar på ett effektivt sätt. Embeddings V2 möjliggör en djupare förståelse av datarelationer för komplexa uppgifter som hämtning, klassificering, semantisk likhetssökning och förbättrad sökrelevans. Med flexibla inbäddningsstorlekar på 256, 512 och 1024 dimensioner, prioriterar Embeddings V2 kostnadsreduktion samtidigt som den behåller 97 % av noggrannheten för RAG-användningsfall och överträffar andra ledande modeller. Dessutom tillgodoser de flexibla inbäddningsstorlekarna olika applikationsbehov, från mobila distributioner med låg latens till asynkrona arbetsflöden med hög noggrannhet.

Ny modellutvärdering förenklar processen att komma åt, jämföra och välja LLM och FM

Att välja rätt modell är ett kritiskt första steg mot att bygga en generativ AI-applikation. LLM:er kan variera drastiskt i prestanda baserat på uppgiften, domänen, datamodaliteter och andra faktorer. Till exempel kommer en biomedicinsk modell sannolikt att överträffa allmänna hälsovårdsmodeller i specifika medicinska sammanhang, medan en kodningsmodell kan möta utmaningar med naturliga språkbehandlingsuppgifter. Att använda en överdrivet kraftfull modell kan leda till ineffektiv resursanvändning, medan en underdriven modell kanske misslyckas med att uppfylla minimikraven för prestanda – vilket kan ge felaktiga resultat. Och att välja en olämplig FM i början av ett projekt kan undergräva intressenternas förtroende och förtroende.

Med så många modeller att välja mellan vill vi göra det enklare för kunderna att välja rätt för deras användningsfall.

Amazon Bedrocks modellutvärderingsverktyg, nu allmänt tillgängligt, förenklar urvalsprocessen genom att möjliggöra benchmarking och jämförelse mot specifika datauppsättningar och utvärderingsmått, vilket säkerställer att utvecklare väljer den modell som bäst överensstämmer med deras projektmål. Denna guidade upplevelse låter utvecklare utvärdera modeller över kriterier som är skräddarsydda för varje användningsfall. Genom modellutvärdering väljer utvecklare ut kandidatmodeller att bedöma – offentliga alternativ, importerade anpassade modeller eller finjusterade versioner. De definierar relevanta testuppgifter, datauppsättningar och utvärderingsmått, såsom noggrannhet, latens, kostnadsprognoser och kvalitativa faktorer. Läs mer om Modellutvärdering i Amazon Bedrock.

Möjligheten att välja bland de topppresterande FM:erna i Amazon Bedrock har varit extremt fördelaktigt för Elastic Security. James Spiteri, Director of Product Management på Elastic delade,

"Med bara några klick kan vi bedöma en enda uppmaning över flera modeller samtidigt. Denna modellutvärderingsfunktion gör det möjligt för oss att jämföra utdata, mätvärden och associerade kostnader mellan olika modeller, vilket gör att vi kan fatta ett välgrundat beslut om vilken modell som skulle vara mest lämplig för det vi försöker åstadkomma. Detta har avsevärt effektiviserat vår process, vilket sparar oss mycket tid på att distribuera våra applikationer till produktion."

2. Amazon Bedrock erbjuder möjligheter att skräddarsy generativ AI till ditt företags behov

Även om modeller är otroligt viktiga krävs det mer än en modell för att bygga en applikation som är användbar för en organisation. Det är därför Amazon Bedrock har möjligheter att hjälpa dig att enkelt skräddarsy generativa AI-lösningar för specifika användningsfall. Kunder kan använda sin egen data för att privat anpassa applikationer genom finjustering eller genom att använda kunskapsbaser för en helt hanterad RAG-upplevelse för att leverera mer relevanta, exakta och anpassade svar. Agenter för Amazon Bedrock tillåter utvecklare att definiera specifika uppgifter, arbetsflöden eller beslutsprocesser, vilket förbättrar kontroll och automatisering samtidigt som de säkerställer konsekvent anpassning till ett avsett användningsfall. Börjar idag, du kan nu använda Agenter med Anthropic Claude 3 Haiku och Sonnet modeller. Vi introducerar också en uppdaterad AWS-konsolupplevelse, som stöder ett förenklat schema och återgång av kontroll för att göra det enkelt för utvecklare att komma igång. Läs mer om Agenter för Amazon Bedrock, nu snabbare och enklare att använda.

Med ny anpassad modellimport kan kunderna dra nytta av Amazon Bedrocks fulla kapacitet med sina egna modeller

Alla dessa funktioner är väsentliga för att bygga generativa AI-applikationer, varför vi ville göra dem tillgängliga för ännu fler kunder, inklusive de som redan har investerat betydande resurser i att finjustera LLM:er med sina egna data om olika tjänster eller i att träna anpassade modeller från repa. Många kunder har anpassade modeller tillgängliga på Amazon SageMaker, som ger det bredaste utbudet av över 250 förtränade FM:s. Dessa FMs inkluderar banbrytande modeller som Mistral, Llama2, CodeLlama, Jurassic-2, Jamba, pplx-7B, 70B och den imponerande Falcon 180B. Amazon SageMaker hjälper till med att organisera och finjustera data, bygga skalbar och effektiv utbildningsinfrastruktur och sedan distribuera modeller i stor skala på ett kostnadseffektivt sätt med låg latens. Det har varit en game changer för utvecklare när de förbereder sina data för AI, hanterar experiment, tränar modeller snabbare (t.ex. Perplexity AI tränar modeller 40 % snabbare i Amazon SageMaker), sänker slutledningslatens (t.ex. Workday har minskat inferenslatens med 80 % med Amazon SageMaker), och förbättrad utvecklarproduktivitet (t.ex. NatWest minskade sin time-to-value för AI från 12-18 månader till under sju månader med Amazon SageMaker). Att operationalisera dessa skräddarsydda modeller på ett säkert sätt och integrera dem i applikationer för specifika affärsanvändningsfall har dock fortfarande utmaningar.

Det är därför vi idag presenterar Amazon Bedrock Custom Model Import, vilket gör det möjligt för organisationer att utnyttja sina befintliga AI-investeringar tillsammans med Amazon Bedrocks kapacitet. Med Custom Model Import kan kunder nu importera och få tillgång till sina egna anpassade modeller byggda på populära öppna modellarkitekturer inklusive Flan-T5, Llama och Mistral, som ett fullt hanterat applikationsprogrammeringsgränssnitt (API) i Amazon Bedrock. Kunder kan ta modeller som de har anpassat på Amazon SageMaker, eller andra verktyg, och enkelt lägga till dem i Amazon Bedrock. Efter en automatiserad validering kan de sömlöst komma åt sin anpassade modell, som med alla andra modeller i Amazon Bedrock. De får samma fördelar, inklusive sömlös skalbarhet och kraftfulla funktioner för att skydda sina applikationer, efterlevnad av ansvarsfulla AI-principer – såväl som möjligheten att utöka en modells kunskapsbas med RAG, enkelt skapa agenter för att utföra flerstegsuppgifter och bära finjustera för att fortsätta lära ut och förfina modeller. Allt utan att behöva hantera den underliggande infrastrukturen.

Med denna nya förmåga gör vi det enkelt för organisationer att välja en kombination av Amazon Bedrock-modeller och sina egna anpassade modeller samtidigt som vi behåller samma strömlinjeformade utvecklingsupplevelse. Idag är Amazon Bedrock Custom Model Import tillgänglig i förhandsvisning och stöder tre av de mest populära arkitekturerna med öppen modell och med planer på fler i framtiden. Läs mer om Anpassad modellimport för Amazon Bedrock.

ASAPP är ett generativt AI-företag med en 10-årig historia av att bygga ML-modeller.

"Vår konversationsgenerativa AI-röst- och chattagent använder dessa modeller för att omdefiniera kundtjänstupplevelsen. För att ge våra kunder full automatisering behöver vi LLM-agenter, kunskapsbas och flexibilitet för val av modell. Med Custom Model Import kommer vi att kunna använda våra befintliga anpassade modeller i Amazon Bedrock. Bedrock kommer att tillåta oss att snabbare ombord på våra kunder, öka vår innovationstakt och påskynda tiden till marknaden för nya produktegenskaper."

– Priya Vijayarajendran, VD, teknik.

3. Amazon Bedrock ger en säker och ansvarsfull grund för att enkelt implementera skyddsåtgärder

När generativ AI-kapacitet utvecklas och expanderar, blir det ännu viktigare att bygga förtroende och ta itu med etiska problem. Amazon Bedrock tar itu med dessa problem genom att utnyttja AWS:s säkra och pålitliga infrastruktur med branschledande säkerhetsåtgärder, robust datakryptering och strikta åtkomstkontroller.

Guardrails for Amazon Bedrock, nu allmänt tillgängligt, hjälper kunder att förhindra skadligt innehåll och hantera känslig information i en applikation.

Vi erbjuder också Skyddsräcken för Amazon Bedrock, som nu är allmänt tillgänglig. Guardrails erbjuder branschledande säkerhetsskydd, vilket ger kunderna möjlighet att definiera innehållspolicyer, sätta gränser för applikationsbeteende och implementera skydd mot potentiella risker. Guardrails for Amazon Bedrock är den enda lösningen som erbjuds av en stor molnleverantör som gör det möjligt för kunder att bygga och anpassa säkerhets- och integritetsskydd för sina generativa AI-applikationer i en enda lösning. Det hjälper kunder att blockera så mycket som 85 % mer skadligt innehåll än skydd som tillhandahålls av FMs på Amazon Bedrock. Guardrails tillhandahåller omfattande stöd för filtrering av skadligt innehåll och robusta funktioner för identifiering av personlig identifierbar information (PII). Guardrails fungerar med alla LLMs i Amazon Bedrock såväl som finjusterade modeller, vilket leder till konsekvens i hur modeller reagerar på oönskat och skadligt innehåll. Du kan konfigurera trösklar för att filtrera innehåll över sex kategorier – hat, förolämpningar, sexuellt, våld, tjänstefel (inklusive kriminell aktivitet) och snabb attack (jailbreak och snabb injektion). Du kan också definiera en uppsättning ämnen eller ord som måste blockeras i din generativa AI-applikation, inklusive skadliga ord, svordomar, konkurrenters namn och produkter. Till exempel kan en bankapplikation konfigurera ett skyddsräcke för att upptäcka och blockera ämnen relaterade till investeringsrådgivning. En kontaktcenterapplikation som sammanfattar callcentertranskriptioner kan använda PII-redigering för att ta bort PII:er i samtalssammanfattningar, eller så kan en konversationschatbot använda innehållsfilter för att blockera skadligt innehåll. Läs mer om Skyddsräcken för Amazon Bedrock.

Företag som Aha!, ett mjukvaruföretag som hjälper mer än 1 miljon människor att förverkliga sin produktstrategi, använder Amazon Bedrock för att driva många av sina generativa AI-funktioner.

"Vi har full kontroll över vår information genom Amazon Bedrocks dataskydds- och integritetspolicy, och kan blockera skadligt innehåll genom Guardrails för Amazon Bedrock. Vi byggde bara på det för att hjälpa produktchefer att upptäcka insikter genom att analysera feedback från deras kunder. Detta är bara början. Vi kommer att fortsätta att bygga på avancerad AWS-teknik för att hjälpa produktutvecklingsteam överallt att med tillförsikt prioritera vad som ska byggas härnäst."

Med ännu fler urval av ledande FM:er och funktioner som hjälper dig att utvärdera modeller och skydda applikationer samt utnyttja dina tidigare investeringar i AI tillsammans med funktionerna hos Amazon Bedrock, gör dagens lanseringar det ännu enklare och snabbare för kunder att bygga och skala generativ AI applikationer. Det här blogginlägget belyser bara en del av de nya funktionerna. Du kan lära dig mer om allt vi har lanserat i resurserna i det här inlägget, inklusive att ställa frågor och sammanfatta data från ett enda dokument utan att ställa in en vektordatabas i kunskapsbaser och allmän tillgång till stöd för flera datakällor med kunskapsbaser.

Tidiga användare som utnyttjar Amazon Bedrocks kapacitet får ett avgörande försprång – driver produktivitetsvinster, underblåser banbrytande upptäckter över olika domäner och levererar förbättrade kundupplevelser som främjar lojalitet och engagemang. Jag är spännande att se vad våra kunder kommer att göra härnäst med dessa nya funktioner.

Som min mentor Werner Vogels alltid säger "Now Go Build" och jag lägger till "...with Amazon Bedrock!"

Resurser

Kolla in följande resurser för att lära dig mer om detta tillkännagivande:


Om författaren

Swami Sivasubramanian är vice vd för data- och maskininlärning på AWS. I denna roll övervakar Swami alla AWS-databas-, analys- och AI- och maskininlärningstjänster. Hans teams uppdrag är att hjälpa organisationer att få sin data att fungera med en komplett, end-to-end datalösning för att lagra, komma åt, analysera och visualisera och förutsäga.

plats_img

Senaste intelligens

plats_img

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?