Generatieve data-intelligentie

Google verplettert AI-teams samen om nieuwe modellen te ontwikkelen

Datum:

Google consolideert de verschillende teams die aan generatieve AI werken onder het DeepMind-team in een poging de ontwikkeling van meer capabele systemen te versnellen.

De beslissing, overgeleverd door CEO Sundar Pichai op donderdag, bouwt voort op eerdere consolidatie-inspanningen rond AI-ontwikkeling in de Chocolate Factory. Vorig jaar combineerde de zoekgigant zijn DeepMind-team en zijn Brain-divisie om een โ€‹โ€‹groep te vormen die verwarrend Google DeepMind heette. Dit team was uiteindelijk verantwoordelijk voor het trainen van de modellen achter de Gemini-chatbot van Google.

Pichai is nu van plan om alle teams die AI-modellen bouwen onder รฉรฉn dak te brengen.

โ€œAl dit werk zal nu in Google DeepMind zitten en onze capaciteit vergroten om capabele AI te leveren voor gebruikers, partners en klantenโ€, schreef hij, eraan toevoegend dat de verandering Google Research in staat zal stellen meer aandacht te besteden aan het onderzoeken van fundamentele en toegepaste computertechnologie. wetenschap.

Het zogenaamde Responsible AI-team van Google voegt zich ook bij de DeepMind-crew, waar het naar verwachting eerder een grotere rol zal spelen bij de ontwikkeling van nieuwe modellen. Google zegt dat het al andere verantwoordelijkheidsgroepen onder zijn centrale Trust and Safety-team heeft geplaatst en van plan is om uitgebreidere AI-test- en evaluatieprotocollen uit te bouwen.

Deze stappen zijn vermoedelijk genomen in een poging om gรชnante minpunten te voorkomen, die veel vroege generatieve AI-aanbiedingen hebben geplaagd, waaronder Google's Bard en latere Gemini-chatbots.

In februari werd Google daartoe gedwongen opschorten Gemini's mogelijkheden voor het genereren van tekst naar afbeeldingen nadat het er niet in was geslaagd Europeanen en Amerikanen nauwkeurig weer te geven in specifieke historische contexten. Als hem bijvoorbeeld werd gevraagd om afbeeldingen van een Duitse soldaat uit 1943 te genereren, werden er consequent afbeeldingen van niet-blanke karakters gegenereerd.

Om dit te voorkomen zegt Pichai dat Google ook โ€œde lanceringsvereisten voor AI-aangedreven functies standaardiseert en de investeringen in โ€˜red teamโ€™-testen op kwetsbaarheden en bredere evaluaties verhoogt om ervoor te zorgen dat de reacties accuraat zijn en reageren op onze gebruikers.โ€

Met andere woorden: nu Google zich heeft gevestigd als een generatief AI-zwaargewicht naast Microsoft, OpenAI en anderen, gaat het wat meer tijd besteden aan het vinden van manieren om zijn modellen zich te laten misdragen voordat de gebruikers de kans krijgen.

Het omzeilen van AI-vangrails om beledigende, giftige of onveilige inhoud of suggesties te genereren, zoals hoe je zelfmoord kunt plegen, is een Groot probleem voor modelbouwers.

De consolidatie-inspanningen strekken zich ook uit tot de ontwikkeling van AI-hardware. Door de veranderingen worden de teams Platform en Ecosysteem en Devices and Services samengevoegd in een nieuwe groep genaamd Platforms and Devices. Als onderdeel van deze stap zullen ook medewerkers die zich bezighouden met computationele fotografie en on-device intelligence zich aansluiten bij de gecombineerde hardwaredivisie.

Pichai sloot zijn memo af met een waarschuwing aan werknemers om hun persoonlijke wraakacties thuis te laten.

โ€œDit is een bedrijf en geen plek om te handelen op een manier die collegaโ€™s ontwricht of een onveilig gevoel geeft, om te proberen het bedrijf als een persoonlijk platform te gebruiken, om ontwrichtende kwesties te bevechten of om over beleid te debatterenโ€, schreef hij.

De opmerkingen van Pichai lijken betrekking te hebben op de 28 werknemers deze week ontslagen voor het protesteren tegen de omgang van Google met de Israรซlische regering, maar we twijfelen er niet aan dat dit ook van toepassing is op de Israรซlische regering ethisch mijnenveld het vakgebied AI is snel aan het veranderen. ยฎ

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?