Generatiivinen tiedustelu

Verkkotunnuksen mukauttaminen Perusmallien hienosäätö Amazon SageMaker JumpStartissa taloustiedoissa

Treffi:

Suuret kielimallit (LLM), joissa on miljardeja parametreja, ovat tällä hetkellä luonnollisen kielen käsittelyn (NLP) eturintamassa. Nämä mallit ravistelevat alaa uskomattomilla kyvyillään luoda tekstiä, analysoida tunteita, kääntää kieliä ja paljon muuta. Valtavien tietomäärien ansiosta LLM:t voivat mullistaa tapamme olla vuorovaikutuksessa kielen kanssa. Vaikka LLM:t pystyvät suorittamaan erilaisia ​​NLP-tehtäviä, heitä pidetän generalisteina, ei asiantuntijoina. Jotta LLM voidaan kouluttaa asiantuntijaksi tietyllä alalla, vaaditaan yleensä hienosäätöä.

Yksi suurimmista haasteista miljardeja parametreja sisältävien LLM:ien koulutuksessa ja käyttöönotossa on niiden koko, mikä voi vaikeuttaa niiden sovittamista yksittäisiin GPU:ihin, syvään oppimiseen yleisesti käytettyyn laitteistoon. Näiden mallien suuri mittakaava vaatii korkean suorituskyvyn laskentaresursseja, kuten erikoistuneet GPU:t, joissa on paljon muistia. Lisäksi näiden mallien koko voi tehdä niistä laskennallisesti kalliita, mikä voi merkittävästi pidentää koulutus- ja päättelyaikoja.

Tässä viestissä näytämme, kuinka voimme käyttää Amazon SageMaker JumpStart hienosäätää helposti suuren kielen tekstin luontimallia verkkotunnuskohtaisessa tietojoukossa samalla tavalla kuin harjoittaisit ja ottaisit käyttöön minkä tahansa mallin Amazon Sage Maker. Erityisesti näytämme, kuinka voit hienosäätää GPT-J 6B -kielimallia taloustekstien luomista varten käyttämällä sekä JumpStart SDK:ta että Amazon SageMaker Studio Käyttöliittymä julkisesti saatavilla olevalle SEC-tiedostojen tietojoukolle.

JumpStart auttaa sinua nopeasti ja helposti aloittamaan koneoppimisen (ML) ja tarjoaa joukon ratkaisuja yleisimpiin käyttötapauksiin, jotka voidaan kouluttaa ja ottaa käyttöön helposti muutamalla askeleella. Kaikki tämän esittelyn vaiheet ovat saatavilla mukana tulevassa muistikirjassa Tekstin luomisen GPT-J 6B -mallin hienosäätö verkkoaluekohtaisessa tietojoukossa.

Ratkaisun yleiskatsaus

Seuraavissa osioissa tarjoamme vaiheittaisen esittelyn LLM:n hienosäädöstä tekstin luontitehtäviä varten sekä JumpStart Studion käyttöliittymän että Python SDK:n kautta. Keskustelemme erityisesti seuraavista aiheista:

  • Yleiskatsaus SEC-arkistointitiedoista talousalueella, johon mallia on hienosäädetty
  • Yleiskatsaus LLM GPT-J 6B -malliin, jonka olemme päättäneet hienosäätää
  • Esittely kahdesta eri tavasta, joilla voimme hienosäätää LLM:ää JumpStartin avulla:
    • Käytä JumpStartia ohjelmallisesti SageMaker Python SDK:n kanssa
    • Käytä JumpStartia Studion käyttöliittymän avulla
  • Hienosäädetyn mallin arviointi vertaamalla sitä esikoulutettuun malliin ilman hienosäätöä

Hienosäätö tarkoittaa prosessia, jossa otetaan esikoulutettu kielimalli ja opetetaan se erilaista, mutta siihen liittyvää tehtävää varten tiettyä dataa käyttämällä. Tämä lähestymistapa tunnetaan myös nimellä siirrä oppimista, johon kuuluu opitun tiedon siirtäminen tehtävästä toiseen. GPT-J 6B:n kaltaiset LLM:t on koulutettu käyttämään valtavia määriä merkitsemätöntä dataa, ja niitä voidaan hienosäätää pienemmissä tietojoukkoissa, mikä tekee mallista tehokkaamman tietyllä alueella.

Esimerkkinä siitä, kuinka suorituskyky paranee, kun mallia hienosäädetään, harkitse seuraavan kysymyksen esittämistä:

"Mikä ohjaa myynnin kasvua Amazonissa?"

Ilman hienosäätöä vastaus olisi:

"Amazon on maailman suurin verkkokauppa. Se on myös maailman suurin verkkokauppapaikka. Se on myös maailma"

Hienosäädöllä vastaus on:

"Amazonin myynnin kasvua vauhdittaa ensisijaisesti lisääntynyt asiakkaiden käyttö, mukaan lukien lisääntynyt valikoima, alhaisemmat hinnat ja lisääntynyt käyttömukavuus sekä muiden myyjien lisääntynyt myynti verkkosivustoillamme."

Hienosäädöstä saatu parannus on ilmeinen.

Käytämme SEC-hakemusten taloustekstiä GPT-J 6B LLM:n hienosäätämiseen rahoitussovelluksiin. Seuraavissa osissa esittelemme tiedot ja LLM:n, jota hienosäädetään.

SEC-tiedostojen tietojoukko

SEC-ilmoitukset ovat kriittisiä rahoitusalan sääntelyn ja julkistamisen kannalta. Hakemukset kertovat sijoittajayhteisölle yritysten liiketoiminnan ehdoista ja yritysten tulevaisuuden näkymistä. SEC-ilmoitusten teksti kattaa koko yrityksen toiminnan ja toimintaedellytysten kirjon. Mahdollisen ennustearvonsa vuoksi nämä hakemukset ovat hyviä tietolähteitä sijoittajille. Vaikka nämä SEC-ilmoitukset ovat julkisesti saatavilla kaikille, jäsennettyjen tiedostojen lataaminen ja puhtaan tietojoukon luominen lisäominaisuuksineen on aikaa vievää harjoittelua. Teemme tämän mahdolliseksi muutamassa API-kutsussa JumpStartissa Teollisuuden SDK.

SageMaker API:n avulla latasimme vuosiraportit (10-K viitteitä; nähdä Kuinka lukea 10-K lisätietoja) useille yrityksille. Valitsemme Amazonin SEC-arkistointiraportit vuosille 2021–2022 koulutustiedoiksi GPT-J 6B -mallin hienosäätämistä varten. Erityisesti yhdistämme yrityksen eri vuosien SEC-arkistointiraportit yhdeksi tekstitiedostoksi lukuun ottamatta kohtaa ”Johdon keskustelu ja analyysi”, joka sisältää yhtiön johdon tulevaisuutta koskevia lausuntoja ja jota käytetään validointitietona.

Odotuksena on, että GPT-J 6B -tekstinluontimallin hienosäädön jälkeen taloushallinnon SEC-asiakirjoissa malli pystyy tuottamaan oivaltavaa talouteen liittyvää tekstitulostusta, ja siksi sitä voidaan käyttää useiden toimialuekohtaisten NLP-tehtävien ratkaisemiseen.

GPT-J 6B iso kielimalli

GPT-J 6B on Eleuther AI:n julkaisema avoimen lähdekoodin 6 miljardin parametrin malli. GPT-J 6B on koulutettu suurelle tekstidatakorpulle, ja se pystyy suorittamaan erilaisia ​​NLP-tehtäviä, kuten tekstin luomisen, luokittelun ja tekstin yhteenvedon. Vaikka tämä malli on vaikuttava useissa NLP-tehtävissä ilman hienosäätöä, monissa tapauksissa sinun täytyy hienosäätää mallia tietyssä tietojoukossa ja NLP-tehtävissä, joita yrität ratkaista. Käyttötapauksia ovat mukautetut chatbotit, ideoiden luominen, kokonaisuuden purkaminen, luokittelu ja mielialan analyysi.

Käytä LLM:itä SageMakerissa

Nyt kun olemme tunnistaneet tietojoukon ja mallin, jota aiomme hienosäätää, JumpStart tarjoaa kaksi tapaa aloittaa tekstin luomisen hienosäätö: SageMaker SDK ja Studio.

Käytä JumpStartia ohjelmallisesti SageMaker SDK:n kanssa

Käymme nyt läpi esimerkin siitä, kuinka voit käyttää SageMaker JumpStart SDK:ta päästäksesi LLM:ään (GPT-J 6B) ja hienosäätääksesi sitä SEC-tiedostojen tietojoukossa. Kun hienosäätö on valmis, otamme hienosäädetyn mallin käyttöön ja teemme siitä johtopäätöksen. Kaikki tämän viestin vaiheet ovat saatavilla mukana tulevassa muistikirjassa: Tekstin luomisen GPT-J 6B -mallin hienosäätö verkkoaluekohtaisessa tietojoukossa.

Tässä esimerkissä JumpStart käyttää SageMaker Hugging Face Deep Learning Container (DLC) ja Syvä nopeus kirjasto mallin hienosäätämiseksi. DeepSpeed-kirjasto on suunniteltu vähentämään laskentatehon ja muistin käyttöä ja kouluttamaan suuria hajautettuja malleja paremmalla rinnakkaisuudella olemassa olevien tietokonelaitteistojen kanssa. Se tukee yhden solmun hajautettua koulutusta käyttämällä gradientin tarkistuspisteitä ja mallin rinnakkaisuutta suurten mallien kouluttamiseen yhdellä SageMaker-koulutusesiintymällä, jossa on useita GPU:ita. JumpStartin avulla integroimme DeepSpeed-kirjaston SageMaker Hugging Face DLC:hen ja huolehdimme kaikesta konepellin alla. Voit helposti hienosäätää mallia verkkotunnuskohtaisessa tietojoukossasi määrittämättä sitä manuaalisesti.

Hienosäädä esikoulutettua mallia verkkotunnuskohtaisilla tiedoilla

Valitun mallin hienosäätöä varten meidän on hankittava mallin URI sekä harjoitusskripti ja koulutuksessa käytetty säilön kuva. Asioiden helpottamiseksi nämä kolme syötettä riippuvat yksinomaan mallin nimestä ja versiosta (luettelo saatavilla olevista malleista, katso Sisäänrakennetut algoritmit esiopetetulla mallitaulukolla) ja instanssin tyyppi, jossa haluat harjoitella. Tämä näkyy seuraavassa koodinpätkässä:

from sagemaker import image_uris, model_uris, script_uris, hyperparameters model_id, model_version = "huggingface-textgeneration1-gpt-j-6b", "*"
training_instance_type = "ml.g5.12xlarge" # Retrieve the docker image
train_image_uri = image_uris.retrieve( region=None, framework=None, model_id=model_id, model_version=model_version, image_scope="training", instance_type=training_instance_type,
) # Retrieve the training script
train_source_uri = script_uris.retrieve( model_id=model_id, model_version=model_version, script_scope="training"
) # Retrieve the pre-trained model tarball to further fine-tune
train_model_uri = model_uris.retrieve( model_id=model_id, model_version=model_version, model_scope="training"
)

Haemme model_id vastaavat samaa mallia, jota haluamme käyttää. Tässä tapauksessa hienosäädämme huggingface-textgeneration1-gpt-j-6b.

Hyperparametrien määrittely sisältää arvojen asettamisen eri parametreille, joita käytetään ML-mallin opetusprosessin aikana. Nämä parametrit voivat vaikuttaa mallin suorituskykyyn ja tarkkuuteen. Seuraavassa vaiheessa määritämme hyperparametrit käyttämällä oletusasetuksia ja määrittämällä mukautettuja arvoja parametreille, kuten epochs ja learning_rate:

from sagemaker import hyperparameters # Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version) # [Optional] Override default hyperparameters with custom values
hyperparameters["epochs"] = "6" hyperparameters["learning_rate"] = "2e-04"
print(hyperparameters)

JumpStart tarjoaa laajan luettelon hyperparametreistä, jotka ovat käytettävissä viritettävänä. Seuraava luettelo antaa yleiskatsauksen osasta tärkeimmistä hyperparametreistä, joita käytetään mallin hienosäädössä. Täydellinen luettelo hyperparametreista on muistikirjassa Tekstin luomisen GPT-J 6B -mallin hienosäätö verkkoaluekohtaisessa tietojoukossa.

  • aikakausia – Määrittää enintään kuinka monta alkuperäisen tietojoukon jaksoa iteroidaan.
  • oppimisnopeus – Ohjaa optimointialgoritmin askelkokoa tai oppimisnopeutta harjoituksen aikana.
  • eval_steps – Määrittää, kuinka monta vaihetta suoritetaan ennen mallin arviointia validointijoukossa harjoituksen aikana. Validointijoukko on osajoukko tiedoista, joita ei käytetä harjoitteluun, vaan käytetään sen sijaan mallin suorituskyvyn tarkistamiseen näkymättömällä tiedolla.
  • painon lasku – Säätelee säätelyvoimaa malliharjoittelun aikana. Regularisointi on tekniikka, joka auttaa estämään mallia sovittamasta liikaa harjoitustietoja, mikä voi johtaa parempaan suorituskykyyn näkymättömissä tiedoissa.
  • fp16 – Ohjaa, käytetäänkö fp16 16-bittistä (sekoitettua) tarkkuuskoulutusta 32-bittisen koulutuksen sijaan.
  • arviointistrategia – Koulutuksessa käytetty arviointistrategia.
  • gradient_accumulation_steps – Päivitysvaiheiden määrä liukuvärien keräämiseen ennen taaksepäin/päivityskierroksen suorittamista.

Lisätietoja hyperparametreista saat virkamieheltä Hugging Face Trainer -dokumentaatio.

Voit nyt hienosäätää tätä JumpStart-mallia omassa mukautetussa tietojoukossasi SageMaker SDK:n avulla. Käytämme aiemmin kuvailtuja SEC-tiedostotietoja. Juna- ja validointitiedot ovat alla train_dataset_s3_path ja validation_dataset_s3_path. Tietojen tuettu muoto sisältää CSV, JSON ja TXT. CSV- ja JSON-tiedoissa käytetään tekstitietoja sarakkeesta nimeltä text tai ensimmäinen sarake, jos saraketta nimeltä teksti ei löydy. Koska tämä on tekstin luomisen hienosäätöä, perustotuusmerkintöjä ei tarvita. Seuraava koodi on SDK-esimerkki mallin hienosäätämisestä:

from sagemaker.estimator import Estimator
from sagemaker.utils import name_from_base
from sagemaker.tuner import HyperparameterTuner
from sagemaker.huggingface import HuggingFace train_dataset_s3_path = "s3://jumpstart-cache-prod-us-west-2/training-datasets/tc/data.csv"
validation_dataset_s3_path = "s3://jumpstart-cache-prod-us-west-2/training-datasets/tc/data.csv" training_job_name = name_from_base(f"jumpstart-example-{model_id}") metric_definitions=[ {'Name': 'train:loss', 'Regex': "'loss': ([0-9]+.[0-9]+)"}, {'Name': 'eval:loss', 'Regex': "'eval_loss': ([0-9]+.[0-9]+)"}, {'Name': 'eval:runtime', 'Regex': "'eval_runtime': ([0-9]+.[0-9]+)"}, {'Name': 'eval:samples_per_second', 'Regex': "'eval_samples_per_second': ([0-9]+.[0-9]+)"}, {'Name': 'eval:eval_steps_per_second', 'Regex': "'eval_steps_per_second': ([0-9]+.[0-9]+)"},
] # # Create SageMaker Estimator instance
tg_estimator = Estimator( role=aws_role, image_uri=train_image_uri, source_dir=train_source_uri, model_uri=train_model_uri, entry_point="transfer_learning.py", instance_count=1, instance_type=training_instance_type, hyperparameters=hyperparameters, output_path=s3_output_location, base_job_name=training_job_name, enable_network_isolation=True, metric_definitions=metric_definitions
) # Launch a SageMaker Training job by passing s3 path of the training data
tg_estimator.fit({"train": train_dataset_s3_path, "validation": validation_dataset_s3_path}, logs=True)

Kun olemme määrittäneet SageMaker Estimatorin vaadituilla hyperparametreilla, luomme SageMaker-estimaattorin ja kutsumme .fit tapa aloittaa mallimme hienosäätö ja välittää se Amazonin yksinkertainen tallennuspalvelu (Amazon S3) harjoitustietojemme URI. Kuten näette, entry_point toimitettu skripti on nimetty transfer_learning.py (sama muille tehtäville ja malleille), ja tulodatakanava välitetty .fit on nimettävä juna ja validointi.

JumpStart tukee myös hyperparametrien optimointia Automaattinen SageMaker-viritys. Katso lisätietoja esimerkistä muistikirja.

Ota käyttöön hienosäädetty malli

Kun koulutus on valmis, voit ottaa käyttöön hienosäädetyn mallisi. Tätä varten tarvitsemme vain päättelykomentosarjan URI:n (koodi, joka määrittää, kuinka mallia käytetään päättelyyn, kun se on otettu käyttöön) ja päätelmäsäiliökuvan URI, joka sisältää sopivan mallipalvelimen valitsemamme mallin isännöimiseksi. Katso seuraava koodi:

from sagemaker.predictor import Predictor
from sagemaker import image_uris
from sagemaker.utils import name_from_base
import boto3 sagemaker_session = sagemaker.Session(boto_session=boto3.Session(region_name="us-west-2")) #Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve( region=None, framework=None, image_scope="inference", model_id=model_id, model_version=model_version, instance_type=inference_instance_type,
) endpoint_name = name_from_base(f"jumpstart-example-{model_id}") # Use the estimator from the previous step to deploy to a SageMaker endpoint
finetuned_predictor = tg_estimator.deploy( initial_instance_count=1, instance_type="ml.g5.12xlarge", image_uri=image_uri, endpoint_name=endpoint_name,
)

Muutaman minuutin kuluttua mallimme otetaan käyttöön ja voimme saada siitä ennusteita reaaliajassa!

Käytä JumpStartia Studion käyttöliittymän kautta

Toinen tapa hienosäätää ja ottaa käyttöön JumpStart-malleja on Studion käyttöliittymän kautta. Tämä käyttöliittymä tarjoaa matalan koodin/koodittoman ratkaisun LLM:ien hienosäätöön.

Valitse Studio-konsolista Mallit, muistikirjat, ratkaisut varten SageMaker JumpStart navigointipaneelissa.

Hae hakupalkista mallia, jota haluat hienosäätää ja ottaa käyttöön.

Meidän tapauksessamme valitsimme GPT-J 6B -mallikortin. Täällä voimme suoraan hienosäätää tai ottaa käyttöön LLM:n.

Mallin arviointi

LLM:ää arvioitaessa voimme käyttää hämmennystä (PPL). PPL on yleinen mittari siitä, kuinka hyvin kielimalli pystyy ennustamaan sekvenssin seuraavan sanan. Yksinkertaisemmin sanottuna se on tapa mitata kuinka hyvin malli pystyy ymmärtämään ja luomaan ihmisen kaltaista kieltä.

Pienempi hämmennyspistemäärä tarkoittaa, että mallin osoitetaan toimivan paremmin seuraavan sanan ennustamisessa. Käytännössä voimme käyttää hämmennystä vertaillaksemme eri kielimalleja ja määrittääksemme, kumpi toimii paremmin tietyssä tehtävässä. Voimme käyttää sitä myös yksittäisen mallin suorituskyvyn seuraamiseen ajan kuluessa. Katso lisätietoja osoitteesta Kiinteäpituisten mallien hämmennys.

Arvioimme mallin suorituskyvyn vertaamalla sen suorituskykyä ennen ja jälkeen hienosäätöä. PPL vapautuu koulutustyössä amazonin pilvikello lokit. Lisäksi tarkastelemme mallin tuottamaa tulosta vastauksena tiettyihin testikehotteisiin.

Validointitietojen arviointimittari Ennen hienosäätöä Hienosäädön jälkeen
Hämmennys (PPL) 8.147 1.437

Mallin tehostettu suorituskyky on osoitettu kahdella kokeella:

  • Tekstin luominen – Näytämme, että hienosäädetyn GPT-J:n tulos tuottaa tekstiä, joka muistuttaa SEC-tietoaineistoa, mikä osoittaa, että se on oppinut jäljittelemään finanssialan sääntelyalueen kielimalleja ja käytäntöjä.
  • Zero-shot-oppiminen – Osoitamme, että hienosäädetyn GPT-J:n suorituskyky on huomattavasti parempi kuin hienosäätämättömän GPT-J:n nollakytkimessä.

Tekstinluontikokeessa käytämme seuraavia päättelyparametreja saavuttaaksemme tulokset: max_length 400 (palautettujen merkkien määrä), num_return_sequences 1:stä (vastaustekstiesimerkkien määrä), top_k 250:stä (valitse yksi 250 parhaan mahdollisen jatkon joukosta), top_p 0.8 (valitse vain jatkosta, jonka todennäköisyys on vähintään 80 %), do_sample is True (näytteenotto) ja temperature 1 (korkea lämpötila on suurempi satunnaisuus vastauksissa). Lisätietoja parametreista on kohdassa GenerationConfig. Seuraavassa taulukossa verrataan hienosäädettyä GPT-J:tä ja ei-hienosäätöä tekstinsyötötehtävässä.

Esimerkki johtopäätöksestä Lähtö GPT-J 6B:stä ennen hienosäätöä Lähtö GPT-J 6B:stä hienosäädön jälkeen
Tämä lomake 10-K -raportti osoittaa sen

Tämä 10-K-lomakeraportti osoittaa, että:

Yhtiön yhtiölle kuuluva nettotulos 31. joulukuuta 2016 päättyneeltä tilikaudelta oli 3,923,000 0.21 3,818,000 dollaria eli 0.21 dollaria laimennettua osaketta kohden verrattuna 31 2015 XNUMX dollariin eli XNUMX dollariin laimennettua osaketta kohden XNUMX. joulukuuta XNUMX päättyneeltä tilikaudelta.

Yhtiön yhtiölle kuuluva nettotulos 31. joulukuuta 2016 päättyneeltä tilikaudelta oli 4,816,000 0.28 4,726,000 dollaria eli 0.27 dollaria laimennettua osaketta kohden verrattuna 31 2015 XNUMX dollariin eli XNUMX dollariin laimennettua osaketta kohden XNUMX. joulukuuta XNUMX päättyneeltä tilikaudelta.

Yhtiön yhtiölle kuuluva nettotulos 31. joulukuuta 2016 päättyneeltä tilikaudelta oli 5,828,000 0.34 5,716,000 dollaria eli 0.33 dollaria laimennettua osaketta kohden verrattuna 31 2015 XNUMX dollariin eli XNUMX dollariin laimennettua osaketta kohden XNUMX. joulukuuta XNUMX päättyneeltä tilikaudelta.

Yhtiö jätti 21. elokuuta 2009 lomakkeen 10-Q 31. joulukuuta 2008 päättyneeltä vuosineljännekseltä.

Yhtiö jätti 21. elokuuta 2009 lomakkeen 10-Q 30. syyskuuta 2008 päättyneeltä vuosineljännekseltä.

Yhtiö jätti 21. elokuuta 2009 lomakkeen 10-Q 31. maaliskuuta 2009 päättyneeltä vuosineljännekseltä.

Tämä lomake 10-K -raportti osoittaa, että:(1) Rekisteröijän nimi, osoite ja puhelinnumero ovat seuraavat: Amazon.com, Inc. c/o Ernst & Young LLPSeattle, Washington Huomio: Yrityssihteeri (2) Vuoden 1934 arvopaperipörssilain III §:n tarkoitusta varten rekisteröijän nimi ja osoite ovat seuraavat:(3) Rekisteröijän Pörssilain raportoitava ajanjakso on 1 mukaan lukien tähän päivään.(2020) Rekisteröijän subjektiivinen arvio on että tilinpäätös ja muut tähän raporttiin sisältyvät taloudelliset tiedot ovat kaikilta olennaisilta osiltaan riittävän ajankohtaisia ​​rekisteröijän taloudellisen aseman, toiminnan tuloksen ja kassavirtojen osalta tässä raportissa esitetyiltä ajanjaksoilta ja kausilta.(4) Rekisteröijän johdon arvio on, että tilinpäätös ja muut tähän raporttiin sisältyvät taloudelliset tiedot ovat kaikilta olennaisilta osiltaan riittävän ajankohtaisia ​​rekisteröijän taloudellisen aseman, toiminnan tuloksen ja kassavirtojen osalta tässä raportissa esitetyillä ajanjaksoilla ja kausilta./s/ Ernst & Young LLPSeattle, Washington 5. tammikuuta 29EX-2020 31.1 amzn-5xex20201231.htm EX-311 DocumentExhibit 31.1 SERTIFIKAATIOSI, Andrew R. Jassy, ​​todistaa, että:31.1. Olen tarkistanut tämän Amazon.com, Inc:n lomakkeen 1-K;10. Tietääkseni tämä raportti ei sisällä totuudenvastaista toteamusta olennaisesta tosiasiasta tai jättää mainitsematta sellaista olennaista tosiasiaa, joka on tarpeen, jotta lausunnot ovat olosuhteisiin nähden, joissa lausunnot on annettu, eivät ole harhaanjohtavia tämän kattaman ajanjakson suhteen. raportti;
Palvelemme kuluttajia kautta

Palvelemme kuluttajia seuraavilla tavoilla:

meidän Blogi

Oletko yrittäjä, joka haluaa kasvattaa yritystäsi? Haluatko luoda tehokkaamman ja tehokkaamman liiketoiminnan? Haluatko oppia kasvattamaan yritystäsi? Jos vastasit "kyllä" johonkin näistä kysymyksistä, sinun on luettava tämä artikkeli.

Ensimmäinen askel yrityksesi kasvattamisessa on ymmärtää liiketoimintaasi. Sinun on kyettävä vastaamaan seuraaviin yritystäsi koskeviin kysymyksiin:

Ketkä ovat asiakkaasi?

Mikä on tuotteesi tai palvelusi?

Mikä on ainutlaatuinen myyntitarjouksesi?

Mikä on markkinointistrategiasi?

Mikä on myyntiennuste?

Mikä on myyntiennuste?

Mikä on myyntiennuste?

Mikä on myyntiennuste?

Mikä on myyntiennuste?

Palvelemme kuluttajia seuraavien kautta: Amazon.com, fyysisten ja digitaalisten tuotteiden jälleenmyyjä; Amazon Web Services, joka tarjoaa teknologiainfrastruktuuripalveluita, jotka mahdollistavat käytännössä kaikenlaisen liiketoiminnan; Amazon Enterprise Solutions, joka tarjoaa yrityksille räätälöityä teknologiaa ja palveluita parempien liiketoimintaprosessien mahdollistamiseksi sekä tehokkuuden ja tuottavuuden parantamiseksi; ja Audible, digitaalisten äänikirjojen kustantaja. Palvelemme kaikenkokoisia kehittäjiä ja yrityksiä AWS:n kautta, joka tarjoaa laajan valikoiman maailmanlaajuisia laskenta-, tallennus-, tietokanta- ja muita palveluita. Valmistamme ja myymme myös elektroniikkalaitteita. Olemme organisoineet toimintamme kahteen pääsegmenttiin: Pohjois-Amerikka ja kansainvälinen. Ks. osan II kohta 8, ""Tilinpäätös ja lisätiedot-liite 12 - segmenttitiedot." Ks. osan II kohta 7, ""Johdon keskustelu ja analyysi taloudellisesta tilanteesta ja toiminnan tuloksista-Toiminnan tulokset-lisätiedot" ”Lisätietoja liikevaihdostamme. KuluttajatPalvelemme kuluttajia verkko- ja fyysisten liikkeiden kautta ja keskitymme valikoimaan, hintaan ja mukavuuteen. Suunnittelemme myymälämme siten, että me ja kolmannet osapuolet voivat myydä satoja miljoonia ainutlaatuisia tuotteita kymmenissä tuoteluokissa. Asiakkaat pääsevät tarjontaamme verkkosivustojemme, mobiilisovellustemme, Alexan kautta ja käymällä fyysisesti myymälöissämme. Valmistamme ja myymme myös Kindle-laitteita. Pyrimme tarjoamaan asiakkaillemme mahdollisimman edullisia hintoja päivittäisten tuotteiden hinnoittelu- ja toimitustarjousten kautta sekä parantamaan toimintamme tehokkuutta, jotta voimme jatkossakin alentaa hintojamme asiakkaillemme. Tarjoamme myös helppokäyttöisiä toimintoja, nopeaa ja luotettavaa täyttöä sekä oikea-aikaista asiakaspalvelua. Lisäksi tarjoamme Amazon Primen, jäsenohjelman, joka sisältää rajoittamattoman ilmaisen toimituksen yli 100 miljoonalle tuotteelle, pääsyn rajoittamattomaan suoratoistoon kymmeniin tuhansiin elokuviin ja TV-jaksot ja muut edut.
Tänä vuonna keskitymme erityisesti

Tänä vuonna panostamme erityisesti:

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Terveydenhuoltojärjestelmän rooli liikalihavuuden ja diabeteksen ehkäisyssä

Tänä vuonna keskitymme erityisesti: -Jatkuvaan kansainväliseen laajentumiseen, mukaan lukien uusien yritysten kehittäminen olemassa oleville kansainvälisille markkinasegmenteille sekä uusien kansainvälisten markkinasegmenttien kehittämiseen; - Asiakaskuntamme laajentaminen, mukaan lukien myynnin lisääminen olemassa oleville asiakkaille ja uusien asiakkaiden houkutteleminen; -Uusien liiketoimintamahdollisuuksien kehittäminen ja kaupallisten sopimusten tekeminen, mukaan lukien lisenssi- ja muut järjestelyt, muiden yritysten kanssa tai hankkimalla muita yrityksiä; -Kehitämme teknologiaa, joka parantaa asiakaspalvelua ja toimittaa tuotteitamme ja palvelujamme tehokkaasti; -Uusien tuote- ja palvelutarjonnan kehittäminen ja yhdistäminen olemassa oleviin ja uusiin tuote- ja palvelutarjontaan; -Tehokkaiden ja vaikuttavien järjestelmien kehittäminen liiketoimintamme tukemiseksi ja -Muita liiketoiminta- ja strategisia aloitteita. Uskomme, että alhaisten hintojen tarjoaminen asiakkaillemme on tulevaisuuden menestyksemme perusta. Yksi tapa tarjota alhaisempia hintoja on ilmaiset toimitustarjoukset, jotka aiheuttavat meille nettokuluja tuotteiden toimittamisesta, sekä Amazon Prime -jäsenyys, joka tarjoaa ilmaisen toimituksen miljoonille tuotteille ja pääsyn elokuviin ja muuhun sisältöön. Tarjoamme myös muita kampanjoita, jotka mahdollistavat myynnin nettokustannusten pienentämisen. Olemme organisoineet toimintamme kahteen pääsegmenttiin: Pohjois-Amerikka ja kansainvälinen. Ks. osan II kohta 8, ""Tilinpäätös ja lisätiedot-liite 12-segmenttitiedot."" Katso osan II kohta 7,""Johdon keskustelu ja analyysi taloudellisesta tilasta ja tuloksista - Toiminnan tulokset - Lisätiedot"" lisätietoa liikevaihdostamme. KuluttajatPalvelemme kuluttajia vähittäismyyntisivustojemme ja fyysisten myymälöiden kautta ja keskitymme valikoimaan, hintaan ja mukavuuteen.

Toista kokeilua varten, jossa oli nolla-kysymykseen vastaustehtävä, asetimme max_length olla eri arvo (40, 200 ja 40 vastaavasti) kunkin kysymyksen tulosten perusteella. Kohteen parametrit top_k, top_p, do_sample, temperature on asetettu arvoiksi 250, 0.8, False, ja 0, vastaavasti. Asetamme lämpötilan lähelle 0:a kontrolloidaksemme lähdön satunnaisuutta, kun taas tekstin luontitehtävässä asetimme sen lähelle 1:tä tehdäksemme mallista luovemman. Seuraavassa taulukossa vertaillaan tuloksia. Jokaisen kysymyksen kohdalla hienosäädetyn GPT-J:n tulos on tarkempi kuin hienosäätämättömän.

panos Lähtö GPT-J 6B:stä ennen hienosäätöä Lähtö GPT-J 6B:stä hienosäädön jälkeen
Mistä 7-K SEC -hakemuksen kohta 10 koskee?:

Mistä 7-K SEC -hakemuksen kohta 10 koskee?:

7-K SEC -hakemuksen kohta 10 on seuraava:

”Yhtiö ei ole saanut olennaista haittaa

Kohta 7. Johdon keskustelu ja analyysi taloudellisesta tilanteesta ja toiminnan tuloksista Tulevaisuutta koskevat lausunnot
Miten COVID-19-pandemia vaikutti Amazonin liiketoimintaan?:

Miten COVID-19-pandemia vaikutti Amazonin liiketoimintaan?:

COVID-19-pandemia vaikuttaa Amazonin liiketoimintaan monin tavoin.

Yrityksen Prime-jäsenyyksien määrä laskee, mikä on suuri osa sen liiketoimintaa.

Yhtiö näkee myös Prime-jäsenyyden laskun.

Amazon näkee myös laskun verkkosivuillaan tehtyjen tilausten määrässä.

Yhtiö näkee myös laskun niiden ihmisten määrässä, jotka tekevät ostoksia sen verkkosivuilla.

Amazon näkee myös laskun niiden ihmisten määrässä, jotka tekevät ostoksia sen verkkosivustolla.

Amazon näkee myös laskun niiden ihmisten määrässä, jotka tekevät ostoksia sen verkkosivustolla.

Amazon näkee myös laskun niiden ihmisten määrässä, jotka tekevät ostoksia sen verkkosivustolla.

Amazon näkee myös ostoksia tekevien ihmisten määrän laskun

Miten COVID-19-pandemia vaikutti Amazonin liiketoimintaan?: COVID-19-pandemia on vaikuttanut liiketoimintaamme monin tavoin. Ensinnäkin se on häirinnyt toimitusketjuamme ja vaikuttanut asiakkaiden kysyntään, mikä puolestaan ​​on vaikuttanut myyntiimme ja toimintatuloksiimme. Toiseksi se on lisännyt menojamme mainontaan ja markkinointiin, mikä ei välttämättä ole tehokasta pitkällä aikavälillä. Kolmanneksi se on lisännyt menojamme teknologiainfrastruktuuriin ja laskentakapasiteettiin, mikä ei välttämättä ole tehokasta pitkällä aikavälillä. Neljänneksi se on lisännyt kulujamme täyttämiseen ja asiakaspalveluun, mikä ei välttämättä ole tehokasta pitkällä aikavälillä. Lopuksi se on lisännyt sisältökulujamme, mikä ei välttämättä ole tehokasta pitkällä aikavälillä. Katso kohta 8 osassa II, ”Tilinpäätös ja lisätiedot – Liite 1 – Liiketoiminta- ja laskentaperiaatteiden kuvaus.
Mikä ohjaa myynnin kasvua Amazonissa?: Amazon on maailman suurin verkkokauppa. Se on myös maailman suurin verkkokauppapaikka. Se on myös maailma' Amazonin myynnin kasvua vauhdittaa ensisijaisesti lisääntynyt asiakkaiden käyttö, mukaan lukien lisääntynyt valikoima, alhaisemmat hinnat ja lisääntynyt käyttömukavuus sekä muiden myyjien lisääntynyt myynti verkkosivustoillamme.

Puhdistaa

Jatkuvien maksujen välttämiseksi poista SageMaker-päätepäätepisteet. Voit poistaa päätepisteet SageMaker-konsolin kautta tai muistikirjasta seuraavilla komennoilla:

# Delete the SageMaker endpoint and the attached resources
finetuned_predictor.delete_model()
finetuned_predictor.delete_endpoint()

Yhteenveto

JumpStart on SageMakerin ominaisuus, jonka avulla voit nopeasti aloittaa ML:n käytön. JumpStart käyttää avoimen lähdekoodin, valmiiksi koulutettuja malleja ratkaistakseen yleisiä ML-ongelmia, kuten kuvien luokittelua, objektien havaitsemista, tekstin luokittelua, lauseparien luokittelua ja kysymyksiin vastaamista.

Tässä viestissä näytimme sinulle, kuinka hienosäätää ja ottaa käyttöön esikoulutettu LLM (GPT-J 6B) tekstin luomiseen SEC-täyttötietojoukon perusteella. Osoitimme, kuinka malli muuttui talousalan asiantuntijaksi käymällä läpi hienosäätöprosessin vain kahdessa yrityksen vuosiraportissa. Tämän hienosäädön ansiosta malli pystyi luomaan sisältöä, joka ymmärtää taloudellisia aiheita ja oli tarkempaa. Kokeile ratkaisua itse ja kerro meille kommenteissa, miten se menee.

Tärkeää: Tämä viesti on tarkoitettu vain esittelytarkoituksiin. Se ei ole taloudellista neuvontaa, eikä siihen tule luottaa rahoitus- tai sijoitusneuvontana. Postauksessa käytettiin malleja, jotka oli esikoulutettu SEC EDGAR -tietokannasta saaduilla tiedoilla. Olet vastuussa EDGARin käyttöehtojen noudattamisesta, jos käytät SEC-tietoja.

Saat lisätietoja JumpStartista tutustumalla seuraaviin viesteihin:


Tietoja Tekijät

Tohtori Xin Huang on vanhempi soveltuva tutkija Amazon SageMaker JumpStart ja Amazon SageMaker sisäänrakennetuille algoritmeille. Hän keskittyy skaalautuvien koneoppimisalgoritmien kehittämiseen. Hänen tutkimusintressiään ovat luonnollisen kielen prosessointi, selitettävissä oleva syvä oppiminen taulukkotiedoista ja ei-parametrisen aika-avaruusklusteroinnin robusti analyysi. Hän on julkaissut monia artikkeleita ACL-, ICDM-, KDD-konferensseissa ja Royal Statistical Society: Series A.

Marc Karp on ML-arkkitehti Amazon SageMaker Service -tiimin kanssa. Hän keskittyy auttamaan asiakkaita suunnittelemaan, ottamaan käyttöön ja hallitsemaan ML-työkuormia laajasti. Vapaa-ajallaan hän nauttii matkustamisesta ja uusien paikkojen tutkimisesta.

Tohtori Sanjiv Das on Amazon-stipendiaatti ja rahoituksen ja tietotieteen Terry-professori Santa Claran yliopistossa. Hänellä on jatkotutkinto rahoituksesta (M.Phil ja PhD New Yorkin yliopistosta) ja tietojenkäsittelytieteestä (MS UC Berkeleystä) ja MBA-tutkinto Indian Institute of Managementista Ahmedabadissa. Ennen akateemikkoa hän työskenteli johdannaisliiketoiminnassa Aasian ja Tyynenmeren alueella Citibankin johtajana. Hän työskentelee multimodaalisen koneoppimisen parissa rahoitussovellusten alalla.

Arun Kumar Lokanatha on vanhempi ML-ratkaisuarkkitehti Amazon SageMaker Service -tiimissä. Hän keskittyy auttamaan asiakkaita rakentamaan, kouluttamaan ja siirtämään ML-tuotannon työmäärät mittakaavassa SageMakeriin. Hän on erikoistunut syväoppimiseen, erityisesti NLP:n ja CV:n alueella. Työn ulkopuolella hän harrastaa juoksua ja patikointia.

spot_img

Uusin älykkyys

spot_img