Generativ dataintelligens

Att komma ombord med AI

Datum:

Sponsrad funktion Artificiell intelligens (AI) har dominerat affärs- och teknikrubrikerna på sistone. Du kan inte kolla en nyhetssajt utan att se en berättelse om hur AI är redo att förändra vårt sätt att göra affärer.

Naturligtvis är nästan alla företag ivriga att börja eller avancera sin resa till AI, men de flesta vet inte riktigt hur de ska gå vidare.

AI har redan en stor inverkan på moderna företag. Faktum är att enligt statistik som samlats in av AuthorityHacker, 35 procent av företagen har anammat AI, 77 procent av enheterna använder någon form av AI, och nio av 10 organisationer stöder användning av AI för att få konkurrensfördelar. AI förväntas därefter tillföra 15.7 biljoner dollar till den globala ekonomin år 2030. Och som med all ny teknik kommer det att gå förlorade och få jobb. AI skulle potentiellt kunna eliminera 85 miljoner jobb till 2025, men på baksidan kan det också skapa 97 miljoner nya jobb.

Företag som vill anta AI för första gången, eller utöka sin befintliga användning av det, står inför flera nivåer av utmaningar på både personal- och tekniksidan. Det finns också regulatoriska och etiska farhågor kring tekniken. Och eftersom AI-system drivs av data, möter företag oundvikligen oro för att säkerställa kvaliteten, relevansen och tillgängligheten av informationen som de matar in i AI-algoritmerna. Att säkerställa att dessa datamängder är korrekta, uppdaterade och så omfattande som möjligt kommer sannolikt att innebära en bestående utmaning. Detsamma gäller när det gäller att hantera komplexiteten i den nödvändiga hårdvaran, infrastrukturen och energiförsörjningen, och de relaterade kostnaderna.

Att övervinna utmaningarna för att skörda frukterna

Matt Armstrong-Barnes, Chief Technologist för AI på HPE, tror att organisationer ofta gör misstaget att närma sig AI utan en strategisk plan. "De kör på tekniken för snabbt. De har ingen gemensam strategi, säger han. "De skapar intressanta vetenskapsprojekt, men de tillför inget affärsvärde".

Först och främst måste företag utveckla en AI-strategi som identifierar och prioriterar användningsfall och ser till att de tar itu med verkliga problem och inte bara bygger något som kommer att leva och dö i labbet. Det finns naturligtvis praktiska frågor kring denna process: "Hur ska du bygga dessa AI-plattformar? Hur ska du övervaka dem?” frågar Armstrong-Barnes. "Hur ser du till att de fortfarande fungerar effektivt? Hur ska du inse att du har uppnått fördelar du trodde att de skulle uppnå? Hur fördelar man budgeten för att finansiera initiativ på rätt sätt?”

Det råder ingen tvekan om att ställa de rätta frågorna och ha en solid plan på plats kan hjälpa till att minska tiden det tar att inse fördelarna med AI. Men att få vilket AI-system som helst från den experimentella modellen till en verklig arbetsmodell är också en stor utmaning. "De största utmaningarna är kring 'operationalisering', vilket är hur du får ett AI-system från initial datainsamling till att konstruera en modell till produktionsinstallation", förklarar Armstrong-Barnes.

Och att se till att anställda har rätt kompetens är viktigt. Att attrahera och behålla personal med rätt egenskaper, eller samarbeta med en organisation som kan tillhandahålla den expertis, kommer att vara ett stort fokus. "Det finns fortfarande många missförstånd kring vad tekniken kan göra, så utbildning bygger inte bara färdigheter, den bygger också inköp," tillägger han.

Ett tillvägagångssätt som företag kan ta för att lösa en del av kompetensuppsättningen och infrastrukturproblemen är att söka efter partnerskap, råder han: "Du kan samarbeta för att få in dessa färdigheter; partner för att få tillgång till infrastruktur, plattform och modelltjänster."

En AI-native arkitektur har många lager. AI-infrastrukturtjänstkomponenter kan till exempel inkludera GPU:er och acceleratorer, tillsammans med dator-, lagrings- och nätverkselement, behållare och virtuella maskiner och AI-bibliotek. På samma sätt kan AI-plattformstjänster innefatta ML-applikationer och data-, utvecklings- och distributionstjänster. Och låt oss inte glömma modelltjänster som omfattar grundläggande modeller, finjustering, vektorbutiker och uppmaningar, tillsammans med AI-företagstjänster som är utformade för att främja pålitlighet genom att eliminera partiskhet och drift för att leverera värdefulla presentationer av användningsfall.

HPE har redan byggt ett robust mänskligt fokuserat ramverk som kan tillämpas på kundernas krav, centrerat på integritet, inkludering och ansvar, säger företaget.

"Det betyder att du kan fokusera på data och affärsproblem", säger Armstrong-Barnes.

Allt handlar om data

Att fokusera på data när du designar och distribuerar AI-system kan vara avgörande. Organisationer drabbas av en tsunami av data varje dag. Vad AI gör det möjligt för dem att göra är att hitta dolda mönster i den datan, vilket hjälper till att accelerera deras förmåga att hämta värde från den. Då kan de fatta betydligt bättre informerade beslut om de applikationer, processer och tjänster de vill bygga eller förbättra.

En viktig komponent i detta datacentrerade fokus är att ha en solid strategi på plats för hur man samlar in, hanterar och övervakar data – en som är nära anpassad till verksamheten, bygger en datakultur och inkluderar element kring styrning, datakvalitet, integritet och metadata, säger HPE.

"Du måste förstå vad företaget försöker göra", förklarar Armstrong-Barnes. "Du måste förstå hur du driver datakvaliteten, vem som har tillgång till den, hur gör du dig av den, vilken metadata lagrar du."

Ett annat problem som data kan uppvisa är silos. När data är inlåst kan det vara problematiskt att extrahera och få ut värdet av den. Och när den informationen är tillgänglig och tillgänglig kommer frågan om att träna den data som kommer att informera AI-plattformarna. När det gäller att bygga AI-system finns det på en hög nivå flera steg: datainsamling; förfina data för att göra den redo för modellkonstruktion; bygga modellerna; trimma modellerna; och sedan distribuera dem. Var och en av dessa stadier presenterar specifika utmaningar.

Men att använda en AI-native arkitektur från HPE Greenlake kan gå långt för att sätta rätt grund på plats för att påskynda dessa processer, säger HPE. Och företagets Machine Learning Development Environment (MLDE) är också utformad för att hjälpa till att minska komplexiteten och kostnaden förknippad med utveckling av maskininlärningsmodeller.

Att träna dessa AI-modeller kräver också betydande processorkraft. När företag övergår till att ta till sig eller öka sin användning av AI måste de först ha den tekniska kapaciteten att hantera belastningen. HPE GreenLake-plattformen kan tillhandahålla den kapaciteten i form av en högpresterande bearbetningsarkitektur och strömlinjeformad datapipeline som organisationer kommer att behöva för att säkerställa tillgång till högkvalitativ, relevant data för att bygga och distribuera AI-modeller och arbetsbelastningar.

Framgångsrika projekt kan lysa upp vägen

Det är ofta bra att titta på företag som redan har gjort ett bra jobb med att anta och implementera AI för vägledning. En av dessa är Seattle, WA-baserade esportteamet Evil Geniuses. Under sin 25-åriga historia har företaget gått in i lag i en mängd olika e-sporter som spelar Call of Duty, Fortnite, Halo, Rocket League och VALROANT. Evil Geniuses lag har varit ganska framgångsrika. Företagets Call of Duty: WWII-team vann till exempel 2018 Call of Duty Championship, och VALORANT-teamet vann 2023 VALORANT Champions.

"Vi är här för att förändra spelets ansikte", säger Chris DeAppolonio, VD för Evil Geniuses. "Vi är en organisation för e-sport och spelunderhållning. Vi spelar professionellt spel över hela världen. Teknik och data är ryggraden i allt vi gör. Våra spel är byggda på ettor och nollor. De är baserade på data, och hur bearbetar vi det och skapar insikter utifrån det?”

En av de mer pressande problemen som Evil Geniuses står inför är att identifiera potentiella professionella spelare. Företaget bearbetar stora mängder komplex data för att hitta talanger över hela världen, och . "Vi vill hitta data om det framtida proffset", säger han. Och det verkar fungera. "Vi vill vinna. Vi vill hitta bättre talanger. Vi vill bli mer effektiva med tränare och scouter. Vi kan använda insikter för att avslöja nästa superstjärna."

Framtiden för AI – både ur ett produktivitets- och affärsnyttaperspektiv – ser lovande ut. "AI är en lagsport, det handlar om färdigheter", säger HPE:s Armstrong-Barnes. "När det gäller att framgångsrikt implementera AI-system, är ett tillvägagångssätt att samarbeta med en organisation som har erfarenhet av att bygga skalbara, effektiva och effektiva AI-system. Med ett djupt arv inom AI som går decennier tillbaka erbjuder HPE verktygen, teknikerna och färdigheterna för att påskynda AI-initiativ."

Att vara datadriven och fullt ut förstå data och vad de ska använda den till kommer att hjälpa en organisation att ta ett användningsfallscentrerat tillvägagångssätt för att hjälpa till att identifiera hur den kan sammansmälta sin data med AI-tekniker för att skapa affärsvärde. När den förståelsen väl är på plats blir det lättare att bygga vidare på fördelarna.  

Armstrong-Barnes råder företag att bygga plattformar som låter dem börja i det små men som har alla grunder på plats för att de ska kunna skala upp vid behov. Sedan måste de bara ta reda på vad de vill göra och hur det kommer att ge mervärde, och växa med deras behov över tiden. HPE betonar sin förmåga att bygga "AI-fabriker" som kombinerar hårdvara, mjukvara och tjänster som tillhandahåller företagets skalbarhet, med stöd av integrerade system som gör livet enklare för slutanvändare.

"Du vill hänga med dina konkurrenter redan på AI-resan", säger han. "Att lägga till partners i Team AI är en kritisk framgångsfaktor när det gäller att bygga en AI-native arkitektur som anpassar sig efter dina behov och låter dig fokusera på dina data och affärsutmaningar istället för komplexiteten i de underliggande grunderna."

Sponsras av HPE.

plats_img

Senaste intelligens

plats_img

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?