Generatiivinen tiedustelu

Rakenna yrityskäyttöön sopivia generatiivisia tekoälyratkaisuja Cohere-pohjamalleilla Amazon Bedrockissa ja Weaviate-vektoritietokannassa AWS Marketplacessa | Amazon Web Services

Treffi:

Generatiiviset tekoälyratkaisut on potentiaalia muuttaa yrityksiä lisäämällä tuottavuutta ja parantamalla asiakaskokemuksia, ja suurten kielimallien (LLM) käyttö näiden ratkaisujen kanssa on tullut yhä suositummaksi. Konseptin todisteiden rakentaminen on suhteellisen yksinkertaista, koska se on huippuluokkaa perusmallit ovat saatavilla erikoistuneilta palveluntarjoajilta yksinkertaisen API-kutsun kautta. Siksi erikokoiset ja eri toimialojen organisaatiot ovat alkaneet suunnitella uudelleen tuotteitaan ja prosessejaan käyttämällä generatiivista tekoälyä.

Huolimatta runsaasta yleistiedosta, huippuluokan LLM:t pääsevät käsiksi vain niihin tietoihin, joihin he ovat koulutettuja. Tämä voi johtaa tosiasiallisiin epätarkkuuksiin (hallusinaatioihin), kun LLM:ää kehotetaan luomaan tekstiä tietojen perusteella, joita hän ei nähnyt koulutuksen aikana. Siksi on ratkaisevan tärkeää kuroa umpeen LLM:n yleisen tietämyksen ja omistusoikeutesi tietojesi välinen kuilu, jotta malli voi luoda tarkempia ja kontekstuaalisia vastauksia ja samalla vähentää hallusinaatioiden riskiä. Vaikka perinteinen hienosäätömenetelmä on tehokas, se voi olla laskentaintensiivistä, kallista ja vaatii teknistä asiantuntemusta. Toinen harkittava vaihtoehto on nimeltään Retrieval Augmented Generation (RAG), joka tarjoaa LLM:ille lisätietoa ulkoisesta tietolähteestä, joka voidaan päivittää helposti.

Lisäksi yritysten on varmistettava tietoturva käsitellessään omistusoikeudellisia ja arkaluonteisia tietoja, kuten henkilötietoja tai immateriaaliomaisuutta. Tämä on erityisen tärkeää organisaatioille, jotka toimivat voimakkaasti säännellyillä aloilla, kuten rahoituspalveluissa sekä terveydenhuollossa ja biotieteissä. Siksi on tärkeää ymmärtää ja hallita tietovirtaa generatiivisen tekoälysovelluksen kautta: Missä malli sijaitsee? Missä tietoja käsitellään? Kenellä on pääsy tietoihin? Käytetäänkö tietoja mallien kouluttamiseen, jolloin vaarana on arkaluonteisten tietojen vuotaminen julkisille LLM:ille?

Tässä viestissä keskustellaan siitä, kuinka yritykset voivat rakentaa tarkkoja, läpinäkyviä ja turvallisia generatiivisia tekoälysovelluksia säilyttäen samalla täydellisen hallinnan omistusoikeudellisiin tietoihin. Ehdotettu ratkaisu on tekoälyn alkuperäistä teknologiapinoa käyttävä RAG-putkisto, jonka komponentit on suunniteltu alusta alkaen tekoälyn ytimessä sen sijaan, että niihin olisi lisätty tekoälyominaisuuksia jälkikäteen. Esittelemme kuinka rakentaa päästä päähän RAG-sovellus käyttämällä Coheren kielimallit kautta Amazonin kallioperä ja Weaviate-vektoritietokanta AWS Marketplacessa. Mukana oleva lähdekoodi on saatavilla osoitteessa liittyvä GitHub-arkisto isännöi Weaviate. Vaikka AWS ei ole vastuussa koodin ylläpidosta tai päivittämisestä kumppanin arkistossa, kehotamme asiakkaita ottamaan yhteyttä suoraan Weaviateen haluttujen päivitysten suhteen.

Ratkaisun yleiskatsaus

Seuraava korkean tason arkkitehtuurikaavio havainnollistaa ehdotettua RAG-putkilinjaa, jossa on tekoälyn natiiviteknologiapino tarkkojen, läpinäkyvien ja turvallisten generatiivisten tekoälyratkaisujen rakentamiseen.

Kuva 1: RAG-työnkulku käyttämällä Coheren kielimalleja Amazon Bedrockin kautta ja Weaviate-vektoritietokantaa AWS Marketplacessa

RAG-työnkulun valmisteluvaiheessa vektoritietokanta, joka toimii ulkoisena tietolähteenä, syötetään lisäkontekstin kanssa suojatuista tiedoista. Varsinainen RAG-työnkulku noudattaa kaaviossa esitettyjä neljää vaihetta:

  1. Käyttäjä kirjoittaa kyselynsä.
  2. Käyttäjäkyselyä käytetään hakemaan asiaankuuluvaa lisäkontekstia vektoritietokannasta. Tämä tehdään generoimalla käyttäjän kyselyn vektoriupotukset upotusmallilla vektorihaun suorittamiseksi relevantimman kontekstin hakemiseksi tietokannasta.
  3. Haettua kontekstia ja käyttäjän kyselyä käytetään kehotemallin täydentämiseen. Haulla täydennetty kehote auttaa LLM:ää luomaan osuvamman ja tarkemman suorituksen, minimoiden hallusinaatiot.
  4. Käyttäjä saa tarkemman vastauksen kyselynsä perusteella.

Arkkitehtuurikaaviossa esitetyssä tekoälyn alkuperäisessä teknologiapinossa on kaksi avainkomponenttia: Cohere-kielimallit ja Weaviate-vektoritietokanta.

Koherentit kielimallit Amazon Bedrockissa

- Cohere-alusta tuo kielimallit huippuluokan suorituskyvyllä yrityksille ja kehittäjille yksinkertaisen API-kutsun avulla. Cohere Platform tarjoaa kaksi avaintyyppiä kielenkäsittelyominaisuuksia – luova ja upotus – ja kutakin palvelee erilainen malli:

  • Tekstin luominen with Komento – Kehittäjät voivat käyttää päätepisteitä, jotka tehostavat tekoälyominaisuuksia ja mahdollistavat sovellukset, kuten keskustelun, kysymyksiin vastaamisen, tekstin kirjoittamisen, yhteenvedon, tiedon poimimisen ja paljon muuta.
  • Tekstin esitys with upottaa – Kehittäjät voivat käyttää päätepisteitä, jotka vangitsevat tekstin semanttisen merkityksen ja mahdollistavat sovellukset, kuten vektorihakukoneet, tekstin luokittelun ja klusteroinnin ja paljon muuta. Cohere Embed on saatavana kahdessa muodossa, englanninkielisenä mallina ja monikielisenä mallina, jotka molemmat ovat nyt saatavilla Amazon Bedrockissa.

Cohere Platform antaa yrityksille mahdollisuuden muokata luovaa tekoälyratkaisuaan yksityisesti ja turvallisesti Amazon Bedrockin käyttöönoton avulla. Amazon Bedrock on täysin hallittu pilvipalvelu, jonka avulla kehitystiimit voivat rakentaa ja skaalata generatiivisia tekoälysovelluksia nopeasti samalla kun autat pitämään tietosi ja sovelluksesi turvassa ja yksityisinä. Tietojasi ei käytetä palvelun parantamiseen, niitä ei koskaan jaeta kolmannen osapuolen mallintarjoajien kanssa, ja ne säilyvät Alue missä API-kutsu käsitellään. Tiedot on aina salattu kuljetuksen aikana ja lepotilassa, ja voit salata tiedot omilla avaimillasi. Amazon Bedrock tukee turvallisuusvaatimuksia, mukaan lukien US Health Insurance Portability and Accountability Act (HIPAA) -kelpoisuus ja yleisen tietosuoja-asetuksen (GDPR) noudattaminen. Lisäksi voit turvallisesti integroida ja ottaa helposti käyttöön luovia tekoälysovelluksiasi tuttujen AWS-työkalujen avulla.

Weaviate-vektoritietokanta AWS Marketplacessa

Kutoa On AI-natiivi vektoritietokanta Tämä tekee kehitystiimien yksinkertaisesta rakentaa turvallisia ja läpinäkyviä luovia tekoälysovelluksia. Weaviatea käytetään sekä vektoritietojen että lähdeobjektien tallentamiseen ja etsimiseen, mikä yksinkertaistaa kehitystä poistamalla tarpeen isännöidä ja integroida erillisiä tietokantoja. Weaviate tarjoaa sekunnissa semanttisen haun suorituskyvyn ja voi skaalautua käsittelemään miljardeja vektoreita ja miljoonia vuokralaisia. Ainutlaatuisen laajennettavan arkkitehtuurin ansiosta Weaviate integroituu natiivisti Amazon Bedrockissa käytettyjen Cohere-perustusmallien kanssa helpottaakseen tietojen kätevää vektorointia ja käyttääkseen sen luovia ominaisuuksia tietokannasta.

Weaviate AI-native vektoritietokanta antaa asiakkaille joustavuuden ottaa se käyttöön BYOC-ratkaisuna tai hallittavana palveluna. Tämä esittely käyttää Weaviate Kubernetes Cluster AWS Marketplacessa, osa Weaviaten BYOC-tarjontaa, joka mahdollistaa konttipohjaisen skaalautuvan käyttöönoton AWS-vuokralaisen ja VPC:n sisällä vain muutamalla napsautuksella. AWS-pilven muodostuminen sapluuna. Tämä lähestymistapa varmistaa, että vektoritietokantasi otetaan käyttöön tietyllä alueellasi lähellä perusmalleja ja omistusoikeudellista dataa viiveen minimoimiseksi, tietojen paikallisuuden tukemiseksi ja arkaluontoisten tietojen suojaamiseksi samalla kun huomioidaan mahdolliset sääntelyvaatimukset, kuten GDPR.

Käytä tapauskatsausta

Seuraavissa osissa esittelemme, miten RAG-ratkaisu rakennetaan käyttämällä tekoälyn alkuperäistä teknologiapinoa Coheren, AWS:n ja Weaviaten kanssa, kuten ratkaisun yleiskatsauksessa on kuvattu.

Esimerkkikäyttötapaus luo kohdistettuja mainoksia lomamajoituksista kohdeyleisön perusteella. Tavoitteena on käyttää käyttäjän kyselyä kohdeyleisölle (esimerkiksi "perhe, jossa on pieniä lapsia") löytääkseen osuvimmat lomamajoitusta koskevat tiedot (esimerkiksi tiedot leikkikentistä lähellä) ja luoda sitten mainos haettiin kohdeyleisölle räätälöity luettelo.

Kuva 2: Ensimmäiset rivit Inside Airbnb:n lomamajoituksista.

Tietojoukko on saatavilla osoitteesta Airbnb:n sisällä ja on lisensoitu a Creative Commons Attribution 4.0 - kansainvälinen lisenssi. Löydät mukana tulevan koodin osoitteesta GitHub-arkisto.

Edellytykset

Jotta voit seurata ja käyttää AWS-palveluita seuraavassa opetusohjelmassa, varmista, että sinulla on AWS-tili.

Ota tekoälyn alkuperäisen teknologiapinon komponentit käyttöön

Ensin sinun on otettava käyttöön asiaankuuluvat komponentit, joita käsitellään ratkaisun yleiskatsauksessa AWS-tililläsi. Suorita seuraavat vaiheet:

  1. Vasemmalla Amazon Bedrock -konsoli, valitse Mallin käyttöoikeus navigointipaneelissa.
  2. Valita Hallinnoi mallin käyttöoikeuksia oikeassa yläkulmassa.
  3. Valitse haluamasi pohjamallit ja pyydä pääsyä.

Kuva 3: Hallitse mallin käyttöä Amazon Bedrock -konsolissa.

Seuraavaksi määrität Weaviate-klusterin.

  1. Tilaa Weaviate Kubernetes Cluster AWS Marketplacessa.
  2. Käynnistä ohjelmisto käyttämällä a CloudFormation-malli haluamasi Saatavuusvyöhykkeen mukaan.

CloudFormation-malli on esitäytetty oletusarvoilla.

  1. varten Pino nimi, anna pinon nimi.
  2. varten helmauthentication tyyppi, on suositeltavaa ottaa käyttöön todennus asettamalla helmauthenticationtype että apikey ja määritellään a helmauthenticationapikey.
  3. varten helmauthenticationapikey, anna Weaviate API -avaimesi.
  4. varten helmchart-versio, anna versionumerosi. Sen on oltava vähintään v.16.8.0. Viittaavat GitHub repo uusinta versiota varten.
  5. varten kypärät moduulit, Varmista tex2vec-aws ja generative-aws ovat Weaviatessa käytössä olevien moduulien luettelossa.

Kuva 4: CloudFormation-malli.

Tämän mallin täyttäminen kestää noin 30 minuuttia.

Yhdistä Weaviateen

Suorita seuraavat vaiheet muodostaaksesi yhteyden Weaviateen:

  1. In Amazon SageMaker -konsoli, Navigoida johonkin Notebook-esiintymät navigointiruudussa kautta muistikirja > Notebook-esiintymät vasemmalla.
  2. Luo uusi muistikirjan esiintymä.
  3. Asenna Weaviate-asiakaspaketti vaadituilla riippuvuuksilla:
$ pip install weaviate-client

  1. Yhdistä Weaviate-esiintymääsi seuraavalla koodilla:
import weaviate client = weaviate.Client( url = "https://<YOUR-WEAVIATE-URL>", auth_client_secret=weaviate.AuthApiKey(api_key="YOUR-WEAVIATE-API-KEY"), additional_headers={ "X-AWS-Access-Key": "<YOUR-AWS-ACCESS-KEY>", "X-AWS-Secret-Key": "<YOUR-AWS-SECRET-ACCESS-KEY>" }
)

Anna seuraavat tiedot:

  • Weaviate URL – Käytä Weaviatea kuormituksen tasapainottimen URL-osoitteen kautta. Vuonna Amazonin elastinen laskentapilvi (Amazon EC2) -konsoli, valitse Kuormavaa'at navigointiruudusta ja etsi kuormituksen tasapainotin. Etsi DNS-nimisarake ja lisää https:// sen edessä.
  • Weaviate API-avain – Tämä on avain, jonka määritit aiemmin CloudFormation-mallissa (helmauthenticationapikey).
  • AWS-käyttöavain ja salainen pääsyavain – Voit hakea käyttäjällesi pääsyavaimen ja salaisen pääsyavaimen sovelluksesta AWS-henkilöllisyyden ja käyttöoikeuksien hallinta (IAM) -konsoli.

Kuva 5: AWS Identity and Access Management (IAM) -konsoli AWS-käyttöavaimen ja salaisen pääsyavaimen hakemiseksi.

Määritä Amazon Bedrock -moduuli ottamaan käyttöön Cohere-mallit

Seuraavaksi määrität tietokokoelman (class) nimeltään Listings tallentaa listauksen tietoobjektit, mikä on analogista taulukon luomiseen relaatiotietokantaan. Tässä vaiheessa määrität asiaankuuluvat moduulit mahdollistamaan Amazon Bedrockissa isännöityjen Cohere-kielimallien käytön natiivisti Weaviate-vektoritietokannasta. Vektori ("text2vec-aws") ja generatiivinen moduuli ("generative-aws") on määritelty tiedonkeruun määritelmässä. Molemmat moduulit ottavat kolme parametria:

  • ”Palvelu” - Käytä "bedrock" Amazon Bedrockille (vaihtoehtoisesti käytä "sagemaker”Varten Amazon SageMaker JumpStart)
  • ”Alue” – Anna alue, jossa mallisi on otettu käyttöön
  • "malli" – Anna pohjamallin nimi

Katso seuraava koodi:

collection_definition = { "class": "Listings", "moduleConfig": { "text2vec-aws": { "service": "bedrock", "region": "us-east-1", "model": "cohere.embed-english-v3", }, "generative-aws": { "service": "bedrock", "region": "us-east-1", "model": "cohere.command-text-v14" } }, "vectorizer": "text2vec-aws"
}

Siirrä tiedot Weaviate-vektoritietokantaan

Tässä vaiheessa määrität tietokokoelman rakenteen määrittämällä sen ominaisuudet. Ominaisuuden nimen ja tietotyypin lisäksi voit myös määrittää, tallennetaanko vain tietoobjekti vai tallennetaanko se yhdessä sen vektoriupotusten kanssa. Tässä esimerkissä host_name ja property_type eivät ole vektoroituja:

collection_definition["properties"] = [ { "name": "host_name", "dataType": ["text"], "moduleConfig": {"text2vec-aws": {"skip": True}} }, { "name": "property_type", "dataType": ["text"], "moduleConfig": {"text2vec-aws": {"skip": True}} } { "name": "description", "dataType": ["text"] }, {"name": "neighborhood_overview", "dataType": ["text"] },
]

Luo kokoelma Weaviate-esiintymässäsi suorittamalla seuraava koodi:

client.schema.create_class(collection_definition)

Voit nyt lisätä objekteja Weaviateen. Käytät erätuontiprosessia maksimaalisen tehokkuuden saavuttamiseksi. Suorita seuraava koodi tuodaksesi tiedot. Tuonnin aikana Weaviate käyttää määritettyä vektorisaattoria luodakseen vektori upotuksen jokaiselle objektille. Seuraava koodi lataa objektit, alustaa eräprosessin ja lisää objektit kohdekokoelmaan yksitellen:

from weaviate.util import generate_uuid5
import pandas as pd # Read CSV file
csv_file = './data/listings.csv'
df = pd.read_csv(csv_file, usecols = ['host_name', 'property_type', 'description', 'neighborhood_overview', ]) df.fillna('', inplace=True) # Configure batch
client.batch.configure(batch_size=100) # Initialize batch process
with client.batch as batch: for _, row in df.iterrows(): listing_object = { "host_name": row["host_name"], "property_type" : row["property_type"], "description": row["description"], "neighborhood_overview" : row["neighborhood_overview"], } batch.add_data_object( class_name = "Listings", data_object = listing_object, uuid = generate_uuid5(listing_object) )

Haku laajennettu sukupolvi

Voit rakentaa RAG-putkilinjan toteuttamalla generatiivisen hakukyselyn Weaviate-instanssissasi. Tätä varten sinun on ensin määritettävä kehotemalli f-merkkijonon muodossa, joka voi ottaa vastaan ​​käyttäjän kyselyn ({target_audience}) suoraan ja lisäkonteksti ({{host_name}}, {{property_type}}, {{description}}ja {{neighborhood_overview}}) vektoritietokannasta suorituksen aikana:

 prompt_template = f"""You are a copywriter. Write a short advertisement for the following vacation stay. Host: {{host_name}} Property type: {{property_type}} Description: {{description}} Neighborhood: {{neighborhood_overview}} Target audience: {target_audience} """

Seuraavaksi suoritat generatiivisen hakukyselyn. Tämä kehottaa määritettyä generatiivista mallia kehotteella, joka koostuu käyttäjän kyselystä sekä haetuista tiedoista. Seuraava kysely hakee yhden listausobjektin (.with_limit(1)) Alkaen Listings kokoelma, joka muistuttaa eniten käyttäjän kyselyä (.with_near_text({"concepts": target_audience})). Sitten käyttäjä kysyy (target_audience) ja haettujen listausten ominaisuudet (["description", "neighborhood", "host_name", "property_type"]) syötetään kehotemalliin. Katso seuraava koodi:

 result = client.query .get("Listings", ["description", "neighborhood", "host_name", "property_type"]) .with_near_text({"concepts": target_audience}) .with_limit(1) .with_generate(single_prompt=prompt_template) .do()

Seuraavassa esimerkissä voit nähdä, että edellinen koodinpätkä for target_audience = “Family with small children” hakee listauksen isäntä Marrelta. Kehotemalliin on lisätty Marren listauksen tiedot ja kohdeyleisö:

"You are a copywriter.
Write a short advertisement for the following vacation stay.
Host: Marre
Property type: Entire townhouse
Description: Welcome to our lovely home! You've come to the right place ...
Neighborhood: THE NEIGHBORHOOD:<br /><br />We are in the city centre ...
Target audience: Family with small children"

Haulla täydennetyn kehotteen perusteella Coheren komentomalli luo seuraavan kohdistetun mainoksen:

"Looking for a kid-friendly home away from home in one of the trendiest areas of Amsterdam? Look no further than this stylish townhouse in the heart of the city! Our 120ft² space is perfect for a family of four or a group of adults, with two bedrooms featuring elevated beds suitable for kids and one bedroom with a single bed. The ground floor features a spacious living room, a kitchen with a large dining table, and a half bath while heading upstairs leads you to a master bedroom and a full bathroom. Our central location means you're just steps away from the best cafes, restaurants, and bars that the city has to offer, and the Vondelpark and other attractions are only a short walk away! Supermarkets and paid parking are also conveniently located nearby. Experience the best of Amsterdam in a laid-back,local way and create unforgettable memories with your family at our cozy townhouse."

Vaihtoehtoiset mukautukset

Voit tehdä vaihtoehtoisia mukautuksia ehdotetun ratkaisun eri komponentteihin, kuten seuraavat:

  • Coheren kielimalleja on myös saatavilla Amazon SageMaker JumpStart, joka tarjoaa pääsyn huippuluokan perusmalleihin ja antaa kehittäjille mahdollisuuden ottaa LLM:t käyttöön Amazon Sage Maker, täysin hallittu palvelu, joka yhdistää laajan joukon työkaluja mahdollistamaan tehokkaan ja edullisen koneoppimisen kaikissa käyttötapauksissa. Weaviate on myös integroitu SageMakeriin.
  • Tehokas lisä tähän ratkaisuun on Cohere Rerank -päätepiste, saatavilla SageMaker JumpStartin kautta. Uudelleensijoittaminen voi parantaa leksikaalisen tai semanttisen haun hakutulosten osuvuutta. Rerank toimii laskemalla semanttiset relevanssipisteet asiakirjoille, jotka hakujärjestelmä hakee, ja luokittelemalla asiakirjat näiden pisteiden perusteella. Rerankin lisääminen sovellukseen vaatii vain yhden koodirivin muutoksen.
  • Weaviatea voidaan ottaa käyttöön useilla lisätavoilla eri tuotantoympäristöjen erilaisiin käyttöönottovaatimuksiin vastaamiseksi. Se on esimerkiksi ladattavissa suoraan osoitteesta Weaviate-verkkosivusto, joka jatkuu Amazonin elastisten kuberneettien palvelu (Amazon EKS) tai paikallisesti kautta Satamatyöläinen or Kubernetes. Se on saatavana myös nimellä hallittu palvelu jotka voivat toimia turvallisesti VPC:ssä tai AWS:ssä isännöitynä julkisena pilvipalveluna 14 päivän ilmaisella kokeilujaksolla.
  • Voit palvella ratkaisusi VPC:ssä käyttämällä Amazonin virtuaalinen yksityinen pilvi (Amazon VPC), jonka avulla organisaatiot voivat käynnistää AWS-palveluita loogisesti eristetyssä virtuaaliverkossa, joka muistuttaa perinteistä verkkoa, mutta jossa on AWS:n skaalautuvan infrastruktuurin etuja. Tietojen luokitellusta herkkyystasosta riippuen organisaatiot voivat myös poistaa Internet-yhteyden käytöstä näissä VPC:issä.

Puhdistaa

Estä odottamattomat veloitukset poistamalla kaikki resurssit, jotka otit käyttöön osana tätä viestiä. Jos käynnistit CloudFormation-pinon, voit poistaa sen AWS CloudFormation -konsolin kautta. Huomaa, että siellä voi olla joitain AWS-resursseja, kuten Amazonin elastisten lohkojen myymälä (Amazon EBS) volyymit ja AWS-avainhallintapalvelu (AWS KMS) -avaimet, joita ei välttämättä poisteta automaattisesti, kun CloudFormation-pino poistetaan.

Kuva 6: Poista kaikki resurssit AWS CloudFormation -konsolin kautta.

Yhteenveto

Tässä viestissä keskusteltiin siitä, kuinka yritykset voivat rakentaa tarkkoja, läpinäkyviä ja turvallisia generatiivisia tekoälysovelluksia samalla kun he voivat hallita täysin tietojaan. Ehdotettu ratkaisu on RAG-putki, jossa käytetään tekoälyn alkuperäistä teknologiapinoa Amazon Bedrockin Cohere-perustusmallien ja AWS Marketplacen Weaviate-vektoritietokannan yhdistelmänä. RAG-lähestymistapa mahdollistaa yritysten kuromisen umpeen LLM:n yleisen tiedon ja omistusoikeudellisten tietojen välillä samalla kun minimoidaan hallusinaatiot. AI-natiiviteknologiapino mahdollistaa nopean kehityksen ja skaalautuvan suorituskyvyn.

Voit alkaa kokeilla RAG-konseptin todisteita yritysvalmiille generatiivisille tekoälysovelluksille käyttämällä tässä viestissä esitettyjä vaiheita. Mukana oleva lähdekoodi on saatavilla osoitteessa liittyvä GitHub-arkisto. Kiitos, että luit. Voit vapaasti antaa kommentteja tai palautetta kommenttiosiossa.


Tietoja kirjoittajista

James Yi on vanhempi AI/ML Partner Solutions -arkkitehti Technology Partners COE Tech -tiimissä Amazon Web Servicesissä. Hän on intohimoinen työskennellä yritysasiakkaiden ja kumppaneiden kanssa suunnitella, ottaa käyttöön ja skaalata AI/ML-sovelluksia liiketoiminnan arvon saamiseksi. Työn ulkopuolella hän pelaa jalkapalloa, matkustaa ja viettää aikaa perheensä kanssa.

Leonie Monigatti on Weaviate Developer Advocate. Hänen painopistealueensa on AI/ML, ja hän auttaa kehittäjiä oppimaan generatiivisesta tekoälystä. Työn ulkopuolella hän myös jakaa tietotieteen ja ML-opintojensa blogissaan ja Kagglessa.

Meor Amer on Developer Advocate Coheressa, joka tarjoaa huippuluokan luonnollisen kielen käsittelyteknologian (NLP). Hän auttaa kehittäjiä rakentamaan huippuluokan sovelluksia Coheren suurten kielimallien (LLM) avulla.

Shun Mao on vanhempi AI/ML Partner Solutions -arkkitehti Amazon Web Services Emerging Technologies -tiimissä. Hän on intohimoinen työskentely yritysasiakkaiden ja kumppaneiden kanssa suunnitella, ottaa käyttöön ja skaalata tekoäly-/ML-sovelluksia niiden liiketoiminta-arvojen johtamiseksi. Työn ulkopuolella hän nauttii kalastuksesta, matkustamisesta ja pingistä.

spot_img

Uusin älykkyys

spot_img