ਜਨਰੇਟਿਵ ਡਾਟਾ ਇੰਟੈਲੀਜੈਂਸ

Run:ai ਪ੍ਰਾਪਤੀ ਦੇ ਨਾਲ, Nvidia ਦਾ ਉਦੇਸ਼ ਤੁਹਾਡੇ AI K8s ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਨਾ ਹੈ

ਤਾਰੀਖ:

Nvidia ਨੇ ਬੁੱਧਵਾਰ ਨੂੰ GPU 'ਤੇ ਬਣੇ ਕੰਪਿਊਟਿੰਗ ਕਲੱਸਟਰਾਂ ਦੀ ਕੁਸ਼ਲਤਾ ਨੂੰ ਵਧਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਨ ਦੇ ਯਤਨ ਵਿੱਚ AI-ਕੇਂਦ੍ਰਿਤ Kubernetes ਆਰਕੈਸਟਰੇਸ਼ਨ ਪ੍ਰਦਾਤਾ Run:ai ਦੀ ਪ੍ਰਾਪਤੀ ਦੀ ਘੋਸ਼ਣਾ ਕੀਤੀ।

ਦੇ ਵੇਰਵੇ ਸੌਦਾ ਦਾ ਖੁਲਾਸਾ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਸੀ, ਪਰ ਰਿਪੋਰਟ ਸੌਦੇ ਦੀ ਕੀਮਤ ਲਗਭਗ $700 ਮਿਲੀਅਨ ਹੋ ਸਕਦੀ ਹੈ। ਤੇਲ ਅਵੀਵ ਆਧਾਰਿਤ ਸਟਾਰਟਅੱਪ ਹੈ ਜ਼ਾਹਰ ਹੈ ਕਿ 118 ਵਿੱਚ ਸਥਾਪਿਤ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ ਚਾਰ ਫੰਡਿੰਗ ਦੌਰਾਂ ਵਿੱਚ $2018 ਮਿਲੀਅਨ ਇਕੱਠੇ ਕੀਤੇ।

Run:ai ਦਾ ਪਲੇਟਫਾਰਮ ਕਈ ਪ੍ਰਸਿੱਧ ਕੁਬਰਨੇਟਸ ਵੇਰੀਐਂਟਸ ਦੇ ਨਾਲ ਕੰਮ ਕਰਨ ਲਈ ਇੱਕ ਕੇਂਦਰੀ ਉਪਭੋਗਤਾ ਇੰਟਰਫੇਸ ਅਤੇ ਕੰਟਰੋਲ ਪਲੇਨ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਇਹ ਇਸਨੂੰ ਥੋੜਾ ਜਿਹਾ RedHat ਦੇ OpenShift ਜਾਂ SUSE ਦੇ Rancher ਵਰਗਾ ਬਣਾਉਂਦਾ ਹੈ, ਅਤੇ ਇਸ ਵਿੱਚ ਨੇਮਸਪੇਸ, ਉਪਭੋਗਤਾ ਪ੍ਰੋਫਾਈਲਾਂ, ਅਤੇ ਸਰੋਤ ਅਲਾਟਮੈਂਟ ਵਰਗੀਆਂ ਚੀਜ਼ਾਂ ਦੇ ਪ੍ਰਬੰਧਨ ਲਈ ਬਹੁਤ ਸਾਰੇ ਸਮਾਨ ਟੂਲ ਹਨ।

ਮੁੱਖ ਅੰਤਰ ਇਹ ਹੈ ਕਿ Run:ai's ਨੂੰ ਥਰਡ-ਪਾਰਟੀ AI ਟੂਲਸ ਅਤੇ ਫਰੇਮਵਰਕ ਨਾਲ ਏਕੀਕ੍ਰਿਤ ਕਰਨ ਅਤੇ GPU ਐਕਸਲਰੇਟਿਡ ਕੰਟੇਨਰਾਂ ਦੇ ਵਾਤਾਵਰਨ ਨਾਲ ਨਜਿੱਠਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਇਸ ਦੇ ਸੌਫਟਵੇਅਰ ਪੋਰਟਫੋਲੀਓ ਵਿੱਚ ਵਰਕਲੋਡ ਸਮਾਂ-ਸਾਰਣੀ ਅਤੇ ਐਕਸਲੇਟਰ ਵਿਭਾਗੀਕਰਨ ਵਰਗੇ ਤੱਤ ਸ਼ਾਮਲ ਹਨ, ਜਿਸਦਾ ਬਾਅਦ ਵਾਲਾ ਇੱਕ ਸਿੰਗਲ GPU ਵਿੱਚ ਕਈ ਵਰਕਲੋਡਾਂ ਨੂੰ ਫੈਲਾਉਣ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ।

Nvidia ਦੇ ਅਨੁਸਾਰ, Run:ai ਦਾ ਪਲੇਟਫਾਰਮ ਪਹਿਲਾਂ ਹੀ ਇਸਦੇ DGX ਕੰਪਿਊਟ ਪਲੇਟਫਾਰਮਾਂ ਦਾ ਸਮਰਥਨ ਕਰਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਇਸਦੇ ਸੁਪਰਪੌਡ ਸੰਰਚਨਾ, ਬੇਸ ਕਮਾਂਡ ਕਲੱਸਟਰ ਪ੍ਰਬੰਧਨ ਸਿਸਟਮ, NGC ਕੰਟੇਨਰ ਲਾਇਬ੍ਰੇਰੀ, ਅਤੇ ਇੱਕ AI ਐਂਟਰਪ੍ਰਾਈਜ਼ ਸੂਟ ਸ਼ਾਮਲ ਹਨ।

ਏਆਈ ਕੁਬਰਨੇਟਸ ਦੇ ਸਬੰਧ ਵਿੱਚ ਬੇਅਰ ਮੈਟਲ ਤੈਨਾਤੀਆਂ ਉੱਤੇ ਬਹੁਤ ਸਾਰੇ ਫਾਇਦਿਆਂ ਦਾ ਦਾਅਵਾ ਕਰਦਾ ਹੈ, ਕਿਉਂਕਿ ਵਾਤਾਵਰਣ ਨੂੰ ਮਲਟੀਪਲ, ਸੰਭਾਵੀ ਤੌਰ 'ਤੇ ਭੂਗੋਲਿਕ ਤੌਰ 'ਤੇ ਵੰਡੇ ਸਰੋਤਾਂ ਵਿੱਚ ਸਕੇਲਿੰਗ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਸੰਰਚਿਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

ਫਿਲਹਾਲ, ਮੌਜੂਦਾ Run:ai ਗਾਹਕਾਂ ਨੂੰ Nvidia ਦੁਆਰਾ ਪਲੇਟਫਾਰਮ ਵਿੱਚ ਵੱਡੀਆਂ ਤਬਦੀਲੀਆਂ ਕਰਨ ਬਾਰੇ ਚਿੰਤਾ ਕਰਨ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ। ਵਿੱਚ ਇੱਕ ਰੀਲਿਜ਼, Nvidia ਨੇ ਕਿਹਾ ਕਿ ਇਹ ਉਸੇ ਬਿਜ਼ਨਸ ਮਾਡਲ ਦੇ ਤਹਿਤ Run:ai ਦੇ ਉਤਪਾਦਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਨਾ ਜਾਰੀ ਰੱਖੇਗੀ, ਤੁਰੰਤ ਭਵਿੱਖ ਲਈ - ਇਸਦਾ ਮਤਲਬ ਜੋ ਵੀ ਹੋਵੇ।

ਇਸ ਦੌਰਾਨ, Nvidia ਦੇ DGX ਕਲਾਊਡ ਦੀ ਗਾਹਕੀ ਲੈਣ ਵਾਲਿਆਂ ਨੂੰ ਉਹਨਾਂ ਦੇ AI ਵਰਕਲੋਡ ਲਈ Run:ai ਦੀ ਵਿਸ਼ੇਸ਼ਤਾ ਸੈੱਟ ਤੱਕ ਪਹੁੰਚ ਮਿਲੇਗੀ, ਜਿਸ ਵਿੱਚ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ (LLM) ਤੈਨਾਤੀਆਂ ਵੀ ਸ਼ਾਮਲ ਹਨ।

ਇਹ ਘੋਸ਼ਣਾ GPU ਦਿੱਗਜ ਦੇ ਸਿਰਫ ਇੱਕ ਮਹੀਨੇ ਬਾਅਦ ਆਈ ਹੈ ਖੁਲਾਸਾ ਹੋਇਆ ਐਨਵੀਡੀਆ ਇਨਫਰੈਂਸ ਮਾਈਕ੍ਰੋ ਸਰਵਿਸਿਜ਼ (ਐਨਆਈਐਮ) ਨਾਮਕ AI ਮਾਡਲਾਂ ਨੂੰ ਬਣਾਉਣ ਲਈ ਇੱਕ ਨਵਾਂ ਕੰਟੇਨਰ ਪਲੇਟਫਾਰਮ।

NIMS ਲਾਜ਼ਮੀ ਤੌਰ 'ਤੇ ਪਹਿਲਾਂ ਤੋਂ ਸੰਰਚਿਤ ਅਤੇ ਅਨੁਕੂਲਿਤ ਕੰਟੇਨਰ ਚਿੱਤਰ ਹੁੰਦੇ ਹਨ ਜਿਸ ਵਿੱਚ ਮਾਡਲ ਸ਼ਾਮਲ ਹੁੰਦਾ ਹੈ, ਭਾਵੇਂ ਇਹ ਓਪਨ ਸੋਰਸ ਜਾਂ ਮਲਕੀਅਤ ਵਾਲਾ ਸੰਸਕਰਣ ਹੋਵੇ, ਇਸ ਨੂੰ ਚਲਾਉਣ ਲਈ ਲੋੜੀਂਦੀਆਂ ਸਾਰੀਆਂ ਨਿਰਭਰਤਾਵਾਂ ਦੇ ਨਾਲ।

ਜ਼ਿਆਦਾਤਰ ਕੰਟੇਨਰਾਂ ਦੀ ਤਰ੍ਹਾਂ, NIM ਨੂੰ CUDA-ਐਕਸਲਰੇਟਡ ਕੁਬਰਨੇਟਸ ਨੋਡਸ ਸਮੇਤ ਕਈ ਤਰ੍ਹਾਂ ਦੇ ਰਨਟਾਈਮ ਵਿੱਚ ਤਾਇਨਾਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

LLMs ਅਤੇ ਹੋਰ AI ਮਾਡਲਾਂ ਨੂੰ ਮਾਈਕ੍ਰੋ ਸਰਵਿਸਿਜ਼ ਵਿੱਚ ਬਦਲਣ ਦੇ ਪਿੱਛੇ ਵਿਚਾਰ ਇਹ ਹੈ ਕਿ ਉਹਨਾਂ ਨੂੰ ਇਕੱਠੇ ਨੈੱਟਵਰਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਦੀ ਵਰਤੋਂ ਵਧੇਰੇ ਗੁੰਝਲਦਾਰ ਅਤੇ ਵਿਸ਼ੇਸ਼ਤਾ ਵਾਲੇ ਅਮੀਰ AI ਮਾਡਲਾਂ ਨੂੰ ਬਣਾਉਣ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਜੋ ਕਿ ਆਪਣੇ ਆਪ ਨੂੰ ਸਮਰਪਿਤ ਮਾਡਲ ਨੂੰ ਸਿਖਲਾਈ ਦਿੱਤੇ ਬਿਨਾਂ ਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ, ਜਾਂ ਘੱਟੋ ਘੱਟ ਇਸ ਤਰ੍ਹਾਂ Nvidia ਦੁਆਰਾ ਲੋਕਾਂ ਦੀ ਕਲਪਨਾ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਉਹਨਾਂ ਨੂੰ।

Run:ai ਦੀ ਪ੍ਰਾਪਤੀ ਦੇ ਨਾਲ, Nvidia ਕੋਲ ਹੁਣ ਆਪਣੇ GPU ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਵਿੱਚ ਇਹਨਾਂ NIMs ਦੀ ਤੈਨਾਤੀ ਦੇ ਪ੍ਰਬੰਧਨ ਲਈ ਇੱਕ Kubernetes ਆਰਕੈਸਟਰੇਸ਼ਨ ਲੇਅਰ ਹੈ। ®

ਸਪਾਟ_ਮਿਗ

ਨਵੀਨਤਮ ਖੁਫੀਆ ਜਾਣਕਾਰੀ

ਸਪਾਟ_ਮਿਗ

ਸਾਡੇ ਨਾਲ ਚੈਟ ਕਰੋ

ਸਤ ਸ੍ਰੀ ਅਕਾਲ! ਮੈਂ ਕਿਵੇਂ ਮਦਦ ਕਰ ਸਕਦਾ ਹਾਂ?