Intelligence de données générative

Nvidia lance de nouveaux matériels, logiciels et services pour l'IA - Déchiffrer

Date :

Nvidia a déployé ses muscles de l'IA cette semaine, dévoilant une multitude de produits de nouvelle génération pour inaugurer la nouvelle ère de l'intelligence artificielle. De ce qu'il a décrit comme une superpuce révolutionnaire axée sur l'IA à des outils de développement plus intuitifs, Nvidia a clairement l'intention de rester le moteur de la révolution de l'IA.

La présentation Nvidia de cette année au SIGGRAPH 2023, une conférence annuelle consacrée à la technologie et à la recherche en infographie, était presque entièrement consacrée à l'IA. Le PDG de Nvidia, Jensen Huang, a déclaré que l'IA générative représente un point d'inflexion semblable à la révolution Internet il y a des décennies. Il a déclaré que le monde se dirige vers une nouvelle ère dans laquelle la plupart des interactions entre l'homme et l'ordinateur seront alimentées par l'IA.

"Chaque application, chaque base de données, tout ce avec quoi vous interagissez au sein d'un ordinateur, vous serez probablement d'abord engagé avec un modèle Large Language", dit Huang.

En combinant logiciel et matériel spécialisé, Nvidia se positionne comme le chaînon manquant réalisant le plein potentiel de l'IA.

Grace Hopper Superchip fait ses débuts pour la formation à l'IA

La star du spectacle était le nouveau Grace Hopper Superchip GH200, le premier GPU avec High Bandwidth Memory 3e (HBM3e). Avec jusqu'à 2 To/s de bande passante, HBM3e fournit près de trois fois la bande passante de la génération précédente HBM2e.

Nvidia définit sa puce Grace Hopper en tant que « processeur accéléré conçu dès le départ pour les applications d’IA et de calcul haute performance (HPC) à grande échelle ». La puce est le résultat de la combinaison des technologies Nvidia Grace (processeurs hautes performances) et Hopper (GPU haute performance), son nom évoquant celui de la célèbre informaticienne américaine.

Le GH200 peut fournir jusqu'à six fois les performances d'entraînement du GPU phare A100 de Nvidia pour les grands modèles d'IA, selon Huang. Le GH200 devrait être disponible au deuxième trimestre 2.

« GH200 est un nouveau moteur de formation et d'inférence », Huang a affirmé Valérie Plante., ajoutant que « les futurs modèles frontières seront construits de cette façon ». Il a dit que cette nouvelle superpuce « probablement même exécute Crysis» – un jeu vidéo de tir à la première personne avec des exigences matérielles notoirement lourdes.

L'architecture GPU d'Ada Lovelace arrive sur les stations de travail

Nvidia a également eu des nouvelles pour les utilisateurs à domicile. Le fabricant de puces a dévoilé ses derniers GPU RTX pour stations de travail basés sur son architecture Ada Lovelace : les RTX 5000, RTX 4500 et RTX 4000. Avec jusqu'à 7680 cœurs CUDA, ces GPU offrent jusqu'à 5 fois plus de performances que les cartes de la génération précédente pour le développement de l'IA, la 3D rendu, montage vidéo et autres workflows professionnels exigeants.

Le vaisseau amiral RTX 6000Ada reste le premier choix des professionnels exigeant des performances maximales. La nouvelle gamme étend cependant l'architecture Ada Lovelace à un plus large éventail d'utilisateurs. Les RTX 4000, 4500 et 5000 seront disponibles à partir du troisième trimestre 3 auprès des principaux constructeurs OEM.

Cependant, ces nouvelles offres ne sont pas bon marché. Le prix du RTX 4000 commence à 1,250 5000 $ et le RTX 4,000 à environ XNUMX XNUMX $.

Pour les professionnels et les entreprises qui font passer leurs initiatives d'IA au niveau supérieur, Nvidia a dévoilé son nouveau GPU Nvidia L40 à l'échelle du centre de données. Avec jusqu'à 18,176 48 cœurs CUDA et 40 Go de vRAM, le L9.2 offre des performances d'entraînement IA jusqu'à 100 fois supérieures à celles du AXNUMX.

Nvidia affirme que les fabricants mondiaux de serveurs prévoient d'offrir le L40 dans leurs systèmes, permettant aux entreprises de former de gigantesques modèles d'IA avec une efficacité optimale et des économies de coûts. Associé au logiciel Nvidia, le L40 pourrait fournir une solution complète aux organisations adoptant l'IA.

Les microservices natifs du cloud améliorent les communications vidéo

Poursuivant ses efforts en matière d'applications vidéo, Nvidia a également annoncé une nouvelle suite de kits de développement logiciel accélérés par GPU et un service cloud natif pour le montage vidéo appelé Maxine.

Propulsé par l'IA, Maxine offre des fonctionnalités telles que la suppression du bruit, la mise à l'échelle de la super résolution et le contact visuel simulé pour les appels vidéo, permettant aux utilisateurs distants d'avoir des conversations naturelles de presque n'importe où.

Nvidia affirme que les partenaires de narration visuelle ont déjà intégré Maxine dans des flux de travail tels que la vidéoconférence et le montage vidéo.

La boîte à outils simplifie le développement de l'IA générative

Enfin, Nvidia a annoncé la sortie prochaine d'AI Workbench, une plate-forme unifiée qui rationalise le développement, le test et le déploiement de modèles d'IA génératifs.

En fournissant une interface unique pour gérer les données, les modèles et les ressources sur toutes les machines, AI Workbench permet une collaboration et une mise à l'échelle transparentes d'un poste de travail local à une infrastructure cloud.

Avec sa dernière gamme d'offres couvrant le matériel, les logiciels et les services, Nvidia déclare avoir l'intention d'accélérer l'adoption de l'IA par les entreprises grâce à une pile technologique complète conçue pour faire face à ses nombreuses complexités.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

spot_img

Dernières informations

spot_img