Generativ dataintelligens

Google slår sammen AI-team for å finne nye modeller

Dato:

Google konsoliderer de forskjellige teamene som jobber med generativ AI under DeepMind-teamet i et forsøk på å akselerere utviklingen av mer dyktige systemer.

Avgjørelsen, overlevert av administrerende direktør Sundar Pichai på torsdag, bygger på tidligere konsolideringsarbeid rundt AI-utvikling ved sjokoladefabrikken. I fjor kombinerte søkegiganten DeepMind-teamet og Brain-divisjonen for å danne en gruppe forvirrende kalt Google DeepMind. Dette teamet var til syvende og sist ansvarlig for opplæring av modellene bak Googles Gemini chatbot.

Pichai planlegger nå å flytte alle team som bygger AI-modeller under ett tak.

"Alt dette arbeidet vil nå sitte i Google DeepMind og skalere vår kapasitet til å levere dyktig AI for brukere, partnere og kunder," skrev han, og la til at endringen vil tillate Google Research å fokusere mer på å undersøke grunnleggende og anvendt datamaskin vitenskap.

Googles såkalte Responsible AI-team slutter seg også til DeepMind-teamet, hvor det forventes å spille en større rolle tidligere i utviklingen av nye modeller. Google sier at de allerede har flyttet andre ansvarsgrupper under sitt sentrale tillits- og sikkerhetsteam og planlegger å bygge ut mer omfattende AI-testing og -evalueringsprotokoller.

Bevegelsene ble antagelig gjort i et forsøk på å unngå pinlige problemer, som har plaget mange tidlige generative AI-tilbud, inkludert Googles Bard og senere Gemini chatbots.

I februar ble Google tvunget til det henge Geminis tekst-til-bilde-genereringsevner etter at den ikke klarte å representere europeere og amerikanere nøyaktig i spesifikke historiske sammenhenger. For eksempel, når de ble bedt om å generere bilder av en tysk soldat fra 1943, ville det konsekvent generere bilder av ikke-hvite karakterer.

For å unngå dette, sier Pichai at Google også "standardiserer lanseringskravene for AI-drevne funksjoner og øker investeringene i "red team"-testing for sårbarheter og bredere evalueringer for å sikre at svarene er nøyaktige og responsive for brukerne våre.

Med andre ord, nå som Google har etablert seg som en generativ AI-tungvekter sammen med Microsoft, OpenAI og andre, kommer det til å bruke litt mer tid på å finne måter å få modellene til å oppføre seg dårlig før brukerne har en sjanse til det.

Å omgå AI-rekkverk for å generere støtende, giftig eller utrygt innhold eller forslag, som hvordan man kan begå selvmord, har blitt en stort problem for modellbyggere.

Konsolideringsarbeidet strekker seg også til AI-maskinvareutvikling. Endringene vil se at teamene for plattform og økosystem og enheter og tjenester blir slått sammen til en ny gruppe kalt plattformer og enheter. Som en del av dette trekket vil ansatte som jobber med datafotografering og intelligens på enheten også bli med i den kombinerte maskinvaredivisjonen.

Pichai avsluttet notatet sitt med en advarsel til ansatte om å forlate sine personlige vendettaer hjemme.

"Dette er en virksomhet og ikke et sted å handle på en måte som forstyrrer medarbeidere eller får dem til å føle seg utrygge, for å forsøke å bruke selskapet som en personlig plattform, eller å slåss om forstyrrende problemer eller for å debattere retningslinjer," skrev han.

Pichais kommentarer ser ut til å være i referanse til de 28 ansatte sparken denne uken for å protestere mot Googles avtaler med den israelske regjeringen, er vi imidlertid ikke i tvil om at de også gjelder for etisk minefelt feltet AI blir raskt. ®

spot_img

Siste etterretning

spot_img

Chat med oss

Hei der! Hvordan kan jeg hjelpe deg?