Generativ dataintelligens

Komme ombord med AI

Dato:

Sponset funksjon Kunstig intelligens (AI) har dominert forretnings- og teknologioverskriftene i det siste. Du kan ikke sjekke en nyhetsside uten å se en historie om hvordan AI er klar til å endre måten vi driver forretninger på.

Naturligvis er omtrent alle bedrifter ivrige etter å begynne eller fremme sin reise inn i AI, men de fleste vet ikke helt hvordan de skal fortsette.

AI har allerede en stor innvirkning på moderne virksomhet. Faktisk ifølge statistikk samlet av AuthorityHacker, 35 prosent av virksomhetene har tatt i bruk AI, 77 prosent av enhetene bruker en form for AI, og ni av 10 organisasjoner støtter bruk av AI for å oppnå konkurransefortrinn. AI forventes deretter å legge til 15.7 billioner dollar til den globale økonomien innen 2030. Og som med all ny teknologi, vil det gå tapte jobber og få jobber. AI kan potensielt eliminere 85 millioner arbeidsplasser innen 2025, men på baksiden kan det også skape 97 millioner nye jobber.

Bedrifter som enten ønsker å ta i bruk AI for første gang, eller utvide sin eksisterende bruk av det, møter flere lag med utfordringer både på bemannings- og teknologisiden. Det er også regulatoriske og etiske bekymringer rundt teknologien. Og ettersom AI-systemer drives av data, møter bedrifter uunngåelig bekymringer for å sikre kvaliteten, relevansen og tilgjengeligheten til informasjonen de mater inn i AI-algoritmene. Å sikre at disse datasettene er nøyaktige, oppdaterte og så omfattende som mulig, vil sannsynligvis by på en varig utfordring. Det samme gjelder når det gjelder å håndtere kompleksiteten til nødvendig maskinvare, infrastruktur og energiforsyning, og de tilhørende kostnadene.

Å overvinne utfordringene for å høste fruktene

Matt Armstrong-Barnes, Chief Technologist for AI ved HPE, mener at organisasjoner ofte gjør feilen ved å nærme seg AI uten en strategisk plan. "De kjører for raskt på teknologien. De har ikke en felles strategi, sier han. "De lager interessante vitenskapelige prosjekter, men de tilfører ikke forretningsverdi."

Først og fremst må bedrifter utvikle en AI-strategi som identifiserer og prioriterer brukstilfeller, og sørger for at de takler reelle problemer og ikke bare bygger noe som vil leve og dø i laboratoriet. Det er selvfølgelig praktiske spørsmål rundt denne prosessen: «Hvordan skal du bygge disse AI-plattformene? Hvordan skal du overvåke dem?" spør Armstrong-Barnes. «Hvordan sikrer du at de fortsatt fungerer effektivt? Hvordan skal du innse at du har oppnådd fordeler du trodde de skulle oppnå? Hvordan fordeler du budsjettet for å finansiere tiltak på riktig måte?»

Det er liten tvil om at det å stille de riktige spørsmålene og ha en solid plan på plass kan bidra til å redusere tiden det tar å realisere fordelene med AI. Men å få ethvert AI-system fra den eksperimentelle modellen til en faktisk arbeidsmodell er også en stor utfordring. "De største utfordringene er rundt 'operasjonalisering', som er hvordan du får et AI-system fra innledende datainnsamling til å konstruere en modell til produksjonsdistribusjon," forklarer Armstrong-Barnes.

Og det er viktig å sørge for at ansatte har de riktige ferdighetene. Å tiltrekke og beholde ansatte med de rette egenskapene, eller samarbeide med en organisasjon som kan tilby den ekspertisen, vil være et stort fokus. "Det er fortsatt mye misforståelse rundt hva teknologien kan gjøre, så utdanning bygger ikke bare ferdigheter, den bygger også innkjøp," legger han til.

En tilnærming som bedrifter kan ta for å løse noen av kompetanse- og infrastrukturproblemene er å oppsøke partnerskap, råder han: «Du kan samarbeide for å få inn disse ferdighetene; partner for å få tilgang til infrastruktur, plattform og modelltjenester."

En AI-native arkitektur har mange lag. AI-infrastrukturtjenestekomponenter kan inkludere GPUer og akseleratorer for eksempel, sammen med databehandlings-, lagrings- og nettverkselementer, containere og virtuelle maskiner og AI-biblioteker. På samme måte kan AI-plattformtjenester inkludere ML-applikasjoner og data-, utviklings- og distribusjonstjenester. Og la oss ikke glemme modelltjenester som omfatter grunnleggende modeller, finjustering, vektorbutikker og prompting, sammen med AI-forretningstjenester designet for å fremme pålitelighet ved å eliminere skjevheter og drift for å levere verdifulle presentasjoner.

HPE har allerede bygget et robust menneskefokusert rammeverk som kan brukes på kundekrav, sentrert om personvern, inkludering og ansvar, sier selskapet.

"Det betyr at du kan fokusere på dataene og forretningsproblemet," sier Armstrong-Barnes.

Alt handler om data

Å fokusere på dataene når du designer og distribuerer AI-systemer kan være kritisk. Organisasjoner rammes av en tsunami av data hver eneste dag. Det AI gjør dem i stand til å gjøre er å finne skjulte mønstre i disse dataene, noe som bidrar til å akselerere deres evne til å hente verdi fra dem. Da kan de ta betydelig bedre informerte beslutninger om applikasjonene, prosessene og tjenestene de ønsker å bygge eller forbedre.

En viktig komponent i det datasentriske fokuset er å ha en solid strategi på plass for hvordan man samler inn, administrerer og overvåker dataene – en som er tett på linje med virksomheten, bygger en datakultur og inkluderer elementer rundt styring, datakvalitet, personvern og metadata, sier HPE.

"Du må forstå hva virksomheten prøver å gjøre," forklarer Armstrong-Barnes. "Du må forstå hvordan du fremmer datakvaliteten, hvem som har tilgang til den, hvordan kaster du den, hvilke metadata lagrer du."

Et annet problem dataene kan presentere er siloer. Når data er låst, kan det være problematisk å trekke ut og få verdi ut av det. Og når disse dataene er tilgjengelige og tilgjengelige, kommer spørsmålet om opplæring av dataene som vil informere AI-plattformene. Når det gjelder å bygge AI-systemer, er det på et høyt nivå flere stadier: datainnsamling; raffinere data for å gjøre det klart for modellkonstruksjon; bygge modellene; tuning av modellene; og deretter distribuere dem. Hvert av disse stadiene byr på spesifikke utfordringer.

Men å bruke en AI-native arkitektur fra HPE Greenlake kan gå en lang vei for å legge det riktige grunnlaget på plass for å fremskynde disse prosessene, sier HPE. Og selskapets Machine Learning Development Environment (MLDE) er også designet for å bidra til å redusere kompleksiteten og kostnadene knyttet til utvikling av maskinlæringsmodeller.

Trening av disse AI-modellene krever også betydelig prosessorkraft. Når bedrifter flytter til å ta i bruk eller øke bruken av AI, må de først ha den teknologiske kapasiteten til å håndtere belastningen. HPE GreenLake-plattformen kan gi den kapasiteten i form av en prosesseringsarkitektur med høy ytelse og strømlinjeformet datapipeline som organisasjoner trenger for å sikre tilgang til relevante data av høy kvalitet for å bygge og distribuere AI-modeller og arbeidsbelastninger.

Vellykkede prosjekter kan lyse veien

Det er ofte nyttig å se på selskaper som allerede har gjort en god jobb med å ta i bruk og implementere AI for veiledning. En av disse er Seattle, WA-baserte esportsteamet Evil Geniuses. Gjennom sin 25-årige historie har selskapet gått inn i lag i en rekke e-sporter som spiller Call of Duty, Fortnite, Halo, Rocket League og VALROANT. Evil Geniuses lag har vært ganske vellykkede. Selskapets Call of Duty: WWII-team vant for eksempel 2018 Call of Duty Championship, og VALORANT-teamet vant 2023 VALORANT Champions.

"Vi er her for å endre ansiktet til spill," sier Chris DeAppolonio, administrerende direktør for Evil Geniuses. "Vi er en organisasjon for e-sport og spillunderholdning. Vi spiller profesjonelt spill over hele verden. Teknologi og data er ryggraden i alt vi gjør. Spillene våre er bygget på enere og nuller. De er basert på data, og hvordan behandler vi det og skaper innsikt fra det?»

En av de mer presserende bekymringene Evil Geniuses står overfor er å identifisere potensielle profesjonelle spillere. Selskapet behandler store mengder komplekse data for å finne talenter over hele verden, og . "Vi ønsker å finne data om den fremtidige proffen," sier han. Og det ser ut til å fungere. «Vi ønsker å vinne. Vi ønsker å finne bedre talenter. Vi ønsker å bli mer effektive med trenere og speidere. Vi kan bruke innsikt for å finne den neste superstjernen.»

Fremtiden for AI – både fra et produktivitets- og forretningsnytteperspektiv – ser lovende ut. "AI er en lagsport, det handler om ferdigheter," sier HPEs Armstrong-Barnes. "Når det kommer til vellykket implementering av AI-systemer, er en tilnærming å samarbeide med en organisasjon som har en rekord i å bygge skalerbare, effektive og effektive AI-systemer. Med en dyp arv innen AI som går flere tiår tilbake tilbyr HPE verktøyene, teknikkene og ferdighetene for å akselerere AI-initiativer."

Å være datadrevet og fullt ut forstå dataene og hva de skal bruke dem til, vil hjelpe en organisasjon med en brukstilnærming sentrisk for å identifisere hvordan den kan smelte sammen dataene sine med AI-teknikker for å skape forretningsverdi. Når den forståelsen er på plass, blir det lettere å bygge videre på fordelene.  

Armstrong-Barnes råder selskaper til å bygge plattformer som lar dem starte i det små, men som har alt grunnlaget på plass for å sette dem i stand til å skalere opp når det er nødvendig. Så må de bare finne ut hva de vil gjøre og hvordan det skal gi verdi, og vokse med behovene deres over tid. HPE understreker sin evne til å bygge "AI-fabrikker" som kombinerer maskinvare, programvare og tjenester som gir den bedriftens skalerbarhet, støttet av integrerte systemer som gjør livet enklere for sluttbrukere.

"Du vil holde tritt med konkurrentene dine allerede på AI-reisen," sier han. "Å legge til partnere i Team AI er en kritisk suksessfaktor når det gjelder å bygge en AI-native arkitektur som skalerer med dine behov og lar deg fokusere på dine data og forretningsutfordringer i stedet for kompleksiteten til det underliggende grunnlaget."

Sponset av HPE.

spot_img

Siste etterretning

spot_img

Chat med oss

Hei der! Hvordan kan jeg hjelpe deg?