ਜਨਰੇਟਿਵ ਡਾਟਾ ਇੰਟੈਲੀਜੈਂਸ

ਐਮਾਜ਼ਾਨ ਸੇਜਮੇਕਰ 'ਤੇ ਐਡਵਾਂਸਡ ਆਰਏਜੀ ਪੈਟਰਨ | ਐਮਾਜ਼ਾਨ ਵੈੱਬ ਸੇਵਾਵਾਂ

ਤਾਰੀਖ:

ਅੱਜ, ਸਾਰੇ ਉਦਯੋਗਾਂ ਦੇ ਗਾਹਕ—ਚਾਹੇ ਇਹ ਵਿੱਤੀ ਸੇਵਾਵਾਂ, ਸਿਹਤ ਸੰਭਾਲ ਅਤੇ ਜੀਵਨ ਵਿਗਿਆਨ, ਯਾਤਰਾ ਅਤੇ ਪਰਾਹੁਣਚਾਰੀ, ਮੀਡੀਆ ਅਤੇ ਮਨੋਰੰਜਨ, ਦੂਰਸੰਚਾਰ, ਇੱਕ ਸੇਵਾ ਦੇ ਤੌਰ 'ਤੇ ਸਾਫਟਵੇਅਰ (SaaS), ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਮਲਕੀਅਤ ਮਾਡਲ ਪ੍ਰਦਾਤਾ ਵੀ - ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ (LLMs) ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੇ ਹਨ। ਪ੍ਰਸ਼ਨ ਅਤੇ ਉੱਤਰ (QnA) ਚੈਟਬੋਟਸ, ਖੋਜ ਇੰਜਣ ਅਤੇ ਗਿਆਨ ਅਧਾਰ ਵਰਗੀਆਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਬਣਾਓ। ਇਹ ਜਨਰੇਟਿਵ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਵਰਤੋਂ ਨਾ ਸਿਰਫ਼ ਮੌਜੂਦਾ ਕਾਰੋਬਾਰੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਸਵੈਚਲਿਤ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਸਗੋਂ ਇਹਨਾਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਵਾਲੇ ਗਾਹਕਾਂ ਲਈ ਅਨੁਭਵ ਨੂੰ ਬਦਲਣ ਦੀ ਸਮਰੱਥਾ ਵੀ ਹੁੰਦੀ ਹੈ। ਵਰਗੇ ਐਲਐਲਐਮਜ਼ ਨਾਲ ਕੀਤੀ ਜਾ ਰਹੀ ਤਰੱਕੀ ਦੇ ਨਾਲ Mixtral-8x7B ਨਿਰਦੇਸ਼, ਆਰਕੀਟੈਕਚਰ ਦੇ ਡੈਰੀਵੇਟਿਵ ਜਿਵੇਂ ਕਿ ਮਾਹਰਾਂ ਦਾ ਮਿਸ਼ਰਣ (MoE), ਗਾਹਕ ਲਗਾਤਾਰ ਜਨਰੇਟਿਵ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਅਤੇ ਸ਼ੁੱਧਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਦੇ ਤਰੀਕਿਆਂ ਦੀ ਤਲਾਸ਼ ਕਰ ਰਹੇ ਹਨ ਜਦੋਂ ਕਿ ਉਹਨਾਂ ਨੂੰ ਬੰਦ ਅਤੇ ਓਪਨ ਸੋਰਸ ਮਾਡਲਾਂ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਸ਼੍ਰੇਣੀ ਨੂੰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਵਰਤਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ।

ਐਲਐਲਐਮ ਦੇ ਆਉਟਪੁੱਟ ਦੀ ਸ਼ੁੱਧਤਾ ਅਤੇ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ ਆਮ ਤੌਰ 'ਤੇ ਕਈ ਤਕਨੀਕਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਜਿਵੇਂ ਕਿ ਇਸ ਨਾਲ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਪੈਰਾਮੀਟਰ ਕੁਸ਼ਲ ਫਾਈਨ-ਟਿਊਨਿੰਗ (PEFT), ਮਨੁੱਖੀ ਫੀਡਬੈਕ (RLHF) ਤੋਂ ਮਜ਼ਬੂਤੀ ਸਿਖਲਾਈ, ਅਤੇ ਪ੍ਰਦਰਸ਼ਨ ਕਰ ਰਿਹਾ ਹੈ ਗਿਆਨ ਡਿਸਟਿਲੇਸ਼ਨ. ਹਾਲਾਂਕਿ, ਜਦੋਂ ਜਨਰੇਟਿਵ AI ਐਪਲੀਕੇਸ਼ਨ ਬਣਾਉਂਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਇੱਕ ਵਿਕਲਪਿਕ ਹੱਲ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ ਜੋ ਬਾਹਰੀ ਗਿਆਨ ਦੇ ਗਤੀਸ਼ੀਲ ਸੰਮਿਲਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ ਅਤੇ ਤੁਹਾਨੂੰ ਤੁਹਾਡੇ ਮੌਜੂਦਾ ਬੁਨਿਆਦੀ ਮਾਡਲ ਨੂੰ ਵਧੀਆ-ਟਿਊਨ ਕਰਨ ਦੀ ਲੋੜ ਤੋਂ ਬਿਨਾਂ ਪੀੜ੍ਹੀ ਲਈ ਵਰਤੀ ਜਾਣ ਵਾਲੀ ਜਾਣਕਾਰੀ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ। ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਰੀਟ੍ਰੀਵਲ ਔਗਮੈਂਟੇਡ ਜਨਰੇਸ਼ਨ (RAG) ਆਉਂਦੀ ਹੈ, ਖਾਸ ਤੌਰ 'ਤੇ ਜਨਰੇਟਿਵ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਲਈ, ਜੋ ਕਿ ਸਾਡੇ ਦੁਆਰਾ ਵਿਚਾਰੇ ਗਏ ਵਧੇਰੇ ਮਹਿੰਗੇ ਅਤੇ ਮਜ਼ਬੂਤ ​​ਫਾਈਨ-ਟਿਊਨਿੰਗ ਵਿਕਲਪਾਂ ਦੇ ਉਲਟ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਆਪਣੇ ਰੋਜ਼ਾਨਾ ਦੇ ਕੰਮਾਂ ਵਿੱਚ ਗੁੰਝਲਦਾਰ RAG ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਲਾਗੂ ਕਰ ਰਹੇ ਹੋ, ਤਾਂ ਤੁਹਾਨੂੰ ਆਪਣੇ RAG ਸਿਸਟਮਾਂ ਦੇ ਨਾਲ ਆਮ ਚੁਣੌਤੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਸਕਦਾ ਹੈ ਜਿਵੇਂ ਕਿ ਗਲਤ ਮੁੜ ਪ੍ਰਾਪਤੀ, ਦਸਤਾਵੇਜ਼ਾਂ ਦਾ ਆਕਾਰ ਅਤੇ ਗੁੰਝਲਤਾ ਵਧਣਾ, ਅਤੇ ਸੰਦਰਭ ਦਾ ਓਵਰਫਲੋ, ਜੋ ਉਤਪੰਨ ਜਵਾਬਾਂ ਦੀ ਗੁਣਵੱਤਾ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਤੌਰ 'ਤੇ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦਾ ਹੈ। .

ਇਹ ਪੋਸਟ LangChain ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਜਵਾਬ ਦੀ ਸ਼ੁੱਧਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ RAG ਪੈਟਰਨਾਂ ਦੀ ਚਰਚਾ ਕਰਦੀ ਹੈ ਅਤੇ ਸੰਦਰਭ ਸੰਕੁਚਨ ਵਰਗੀਆਂ ਤਕਨੀਕਾਂ ਦੇ ਨਾਲ-ਨਾਲ ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ ਟੂਲਜ਼ ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ ਤਾਂ ਜੋ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਮੌਜੂਦਾ ਜਨਰੇਟਿਵ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਦੇ ਯੋਗ ਬਣਾਇਆ ਜਾ ਸਕੇ।

ਹੱਲ ਸੰਖੇਪ ਜਾਣਕਾਰੀ

ਇਸ ਪੋਸਟ ਵਿੱਚ, ਅਸੀਂ ਪੇਰੈਂਟ ਡੌਕੂਮੈਂਟ ਰੀਟਰੀਵਰ ਟੂਲ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਤਕਨੀਕ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਐਮਾਜ਼ਾਨ ਸੇਜਮੇਕਰ ਨੋਟਬੁੱਕ 'ਤੇ ਇੱਕ RAG QnA ਸਿਸਟਮ ਨੂੰ ਕੁਸ਼ਲਤਾ ਨਾਲ ਬਣਾਉਣ ਲਈ BGE ਲਾਰਜ ਐਨ ਏਮਬੈਡਿੰਗ ਮਾਡਲ ਦੇ ਨਾਲ ਮਿਲ ਕੇ Mixtral-8x7B ਨਿਰਦੇਸ਼ ਟੈਕਸਟ ਜਨਰੇਸ਼ਨ ਦੀ ਵਰਤੋਂ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਦੇ ਹਾਂ। ਹੇਠਾਂ ਦਿੱਤਾ ਚਿੱਤਰ ਇਸ ਹੱਲ ਦੀ ਆਰਕੀਟੈਕਚਰ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ।

ਤੁਸੀਂ ਇਸ ਹੱਲ ਨੂੰ ਕੁਝ ਕੁ ਕਲਿੱਕਾਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਲਾਗੂ ਕਰ ਸਕਦੇ ਹੋ ਐਮਾਜ਼ਾਨ ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ, ਇੱਕ ਪੂਰੀ ਤਰ੍ਹਾਂ ਪ੍ਰਬੰਧਿਤ ਪਲੇਟਫਾਰਮ ਜੋ ਵੱਖ-ਵੱਖ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ ਜਿਵੇਂ ਕਿ ਸਮੱਗਰੀ ਲਿਖਣਾ, ਕੋਡ ਬਣਾਉਣਾ, ਸਵਾਲ ਜਵਾਬ ਦੇਣਾ, ਕਾਪੀਰਾਈਟਿੰਗ, ਸੰਖੇਪੀਕਰਨ, ਵਰਗੀਕਰਨ, ਅਤੇ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤੀ ਲਈ ਅਤਿ-ਆਧੁਨਿਕ ਫਾਊਂਡੇਸ਼ਨ ਮਾਡਲ ਪੇਸ਼ ਕਰਦਾ ਹੈ। ਇਹ ਪੂਰਵ-ਸਿਖਿਅਤ ਮਾਡਲਾਂ ਦਾ ਇੱਕ ਸੰਗ੍ਰਹਿ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ ਜੋ ਤੁਸੀਂ ਮਸ਼ੀਨ ਸਿਖਲਾਈ (ML) ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੇ ਵਿਕਾਸ ਅਤੇ ਤੈਨਾਤੀ ਨੂੰ ਤੇਜ਼ ਕਰਦੇ ਹੋਏ ਤੇਜ਼ੀ ਨਾਲ ਅਤੇ ਆਸਾਨੀ ਨਾਲ ਤੈਨਾਤ ਕਰ ਸਕਦੇ ਹੋ। ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ ਦੇ ਮੁੱਖ ਭਾਗਾਂ ਵਿੱਚੋਂ ਇੱਕ ਮਾਡਲ ਹੱਬ ਹੈ, ਜੋ ਕਿ ਕਈ ਤਰ੍ਹਾਂ ਦੇ ਕੰਮਾਂ ਲਈ ਪ੍ਰੀ-ਟ੍ਰੇਂਡ ਮਾਡਲਾਂ, ਜਿਵੇਂ ਕਿ ਮਿਕਸਟ੍ਰਾਲ-8x7B, ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਕੈਟਾਲਾਗ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ।

Mixtral-8x7B ਇੱਕ MoE ਆਰਕੀਟੈਕਚਰ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਇਹ ਆਰਕੀਟੈਕਚਰ ਇੱਕ ਨਿਊਰਲ ਨੈੱਟਵਰਕ ਦੇ ਵੱਖ-ਵੱਖ ਹਿੱਸਿਆਂ ਨੂੰ ਵੱਖ-ਵੱਖ ਕੰਮਾਂ ਵਿੱਚ ਮੁਹਾਰਤ ਹਾਸਲ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ, ਕੰਮ ਦੇ ਬੋਝ ਨੂੰ ਕਈ ਮਾਹਰਾਂ ਵਿੱਚ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਵੰਡਦਾ ਹੈ। ਇਹ ਪਹੁੰਚ ਰਵਾਇਤੀ ਆਰਕੀਟੈਕਚਰ ਦੇ ਮੁਕਾਬਲੇ ਵੱਡੇ ਮਾਡਲਾਂ ਦੀ ਕੁਸ਼ਲ ਸਿਖਲਾਈ ਅਤੇ ਤੈਨਾਤੀ ਨੂੰ ਸਮਰੱਥ ਬਣਾਉਂਦਾ ਹੈ।

MoE ਆਰਕੀਟੈਕਚਰ ਦੇ ਮੁੱਖ ਫਾਇਦਿਆਂ ਵਿੱਚੋਂ ਇੱਕ ਇਸਦੀ ਮਾਪਯੋਗਤਾ ਹੈ। ਕਈ ਮਾਹਰਾਂ ਵਿੱਚ ਕੰਮ ਦੇ ਬੋਝ ਨੂੰ ਵੰਡ ਕੇ, MoE ਮਾਡਲਾਂ ਨੂੰ ਵੱਡੇ ਡੇਟਾਸੈਟਾਂ 'ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾ ਸਕਦੀ ਹੈ ਅਤੇ ਇੱਕੋ ਆਕਾਰ ਦੇ ਰਵਾਇਤੀ ਮਾਡਲਾਂ ਨਾਲੋਂ ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਪ੍ਰਾਪਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, MoE ਮਾਡਲ ਅਨੁਮਾਨ ਦੇ ਦੌਰਾਨ ਵਧੇਰੇ ਕੁਸ਼ਲ ਹੋ ਸਕਦੇ ਹਨ ਕਿਉਂਕਿ ਦਿੱਤੇ ਗਏ ਇਨਪੁਟ ਲਈ ਮਾਹਰਾਂ ਦੇ ਸਿਰਫ ਇੱਕ ਉਪ ਸਮੂਹ ਨੂੰ ਕਿਰਿਆਸ਼ੀਲ ਕਰਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।

AWS 'ਤੇ Mixtral-8x7B ਨਿਰਦੇਸ਼ ਬਾਰੇ ਵਧੇਰੇ ਜਾਣਕਾਰੀ ਲਈ, ਵੇਖੋ Mixtral-8x7B ਹੁਣ Amazon SageMaker JumpStart ਵਿੱਚ ਉਪਲਬਧ ਹੈ. Mixtral-8x7B ਮਾਡਲ ਅਨੁਮਤੀ ਵਾਲੇ ਅਪਾਚੇ 2.0 ਲਾਇਸੰਸ ਦੇ ਤਹਿਤ, ਪਾਬੰਦੀਆਂ ਤੋਂ ਬਿਨਾਂ ਵਰਤੋਂ ਲਈ ਉਪਲਬਧ ਕਰਵਾਇਆ ਗਿਆ ਹੈ।

ਇਸ ਪੋਸਟ ਵਿੱਚ, ਅਸੀਂ ਚਰਚਾ ਕਰਦੇ ਹਾਂ ਕਿ ਤੁਸੀਂ ਕਿਵੇਂ ਵਰਤ ਸਕਦੇ ਹੋ ਲੈਂਗਚੇਨ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਅਤੇ ਵਧੇਰੇ ਕੁਸ਼ਲ RAG ਐਪਲੀਕੇਸ਼ਨ ਬਣਾਉਣ ਲਈ। LangChain ਇੱਕ ਓਪਨ ਸੋਰਸ ਪਾਈਥਨ ਲਾਇਬ੍ਰੇਰੀ ਹੈ ਜੋ LLM ਦੇ ਨਾਲ ਐਪਲੀਕੇਸ਼ਨ ਬਣਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੀ ਗਈ ਹੈ। ਇਹ ਸ਼ਕਤੀਸ਼ਾਲੀ ਅਤੇ ਅਨੁਕੂਲਿਤ ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਬਣਾਉਣ ਲਈ LLM ਨੂੰ ਹੋਰ ਹਿੱਸਿਆਂ, ਜਿਵੇਂ ਕਿ ਗਿਆਨ ਅਧਾਰ, ਪ੍ਰਾਪਤੀ ਪ੍ਰਣਾਲੀਆਂ, ਅਤੇ ਹੋਰ AI ਟੂਲਸ ਦੇ ਨਾਲ ਜੋੜਨ ਲਈ ਇੱਕ ਮਾਡਿਊਲਰ ਅਤੇ ਲਚਕਦਾਰ ਫਰੇਮਵਰਕ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ।

ਅਸੀਂ Mixtral-8x7B ਨਾਲ ਸੇਜਮੇਕਰ 'ਤੇ ਇੱਕ RAG ਪਾਈਪਲਾਈਨ ਦਾ ਨਿਰਮਾਣ ਕਰਦੇ ਹਾਂ। ਅਸੀਂ SageMaker ਨੋਟਬੁੱਕ 'ਤੇ RAG ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਇੱਕ ਕੁਸ਼ਲ QnA ਸਿਸਟਮ ਬਣਾਉਣ ਲਈ BGE Large En ਏਮਬੈਡਿੰਗ ਮਾਡਲ ਦੇ ਨਾਲ Mixtral-8x7B ਨਿਰਦੇਸ਼ ਟੈਕਸਟ ਜਨਰੇਸ਼ਨ ਮਾਡਲ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਾਂ। ਅਸੀਂ ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ ਦੁਆਰਾ LLM ਦੀ ਤੈਨਾਤੀ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਨ ਲਈ ਇੱਕ ml.t3.medium ਉਦਾਹਰਣ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਾਂ, ਜਿਸਨੂੰ ਸੇਜਮੇਕਰ ਦੁਆਰਾ ਤਿਆਰ API ਅੰਤਮ ਬਿੰਦੂ ਦੁਆਰਾ ਐਕਸੈਸ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਇਹ ਸੈਟਅਪ LangChain ਨਾਲ ਉੱਨਤ RAG ਤਕਨੀਕਾਂ ਦੀ ਖੋਜ, ਪ੍ਰਯੋਗ, ਅਤੇ ਅਨੁਕੂਲਤਾ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ। ਅਸੀਂ ਸਿਸਟਮ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਨੂੰ ਵਧਾਉਣ ਲਈ ਏਮਬੈਡਿੰਗਾਂ ਨੂੰ ਸਟੋਰ ਕਰਨ ਅਤੇ ਮੁੜ ਪ੍ਰਾਪਤ ਕਰਨ ਵਿੱਚ ਇਸਦੀ ਭੂਮਿਕਾ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹੋਏ, RAG ਵਰਕਫਲੋ ਵਿੱਚ FAISS ਏਮਬੈਡਿੰਗ ਸਟੋਰ ਦੇ ਏਕੀਕਰਣ ਨੂੰ ਵੀ ਦਰਸਾਉਂਦੇ ਹਾਂ।

ਅਸੀਂ ਸੇਜਮੇਕਰ ਨੋਟਬੁੱਕ ਦਾ ਇੱਕ ਸੰਖੇਪ ਵਾਕਥਰੂ ਕਰਦੇ ਹਾਂ। ਵਧੇਰੇ ਵਿਸਤ੍ਰਿਤ ਅਤੇ ਕਦਮ-ਦਰ-ਕਦਮ ਨਿਰਦੇਸ਼ਾਂ ਲਈ, ਵੇਖੋ ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ ਗਿਟਹਬ ਰੈਪੋ 'ਤੇ ਮਿਕਸਟ੍ਰੈਲ ਦੇ ਨਾਲ ਐਡਵਾਂਸਡ ਆਰਏਜੀ ਪੈਟਰਨ.

ਉੱਨਤ RAG ਪੈਟਰਨਾਂ ਦੀ ਲੋੜ

ਐਡਵਾਂਸਡ ਆਰਏਜੀ ਪੈਟਰਨ ਮਨੁੱਖੀ-ਵਰਗੇ ਟੈਕਸਟ ਨੂੰ ਪ੍ਰੋਸੈਸਿੰਗ, ਸਮਝਣ ਅਤੇ ਬਣਾਉਣ ਵਿੱਚ ਐਲਐਲਐਮ ਦੀਆਂ ਮੌਜੂਦਾ ਸਮਰੱਥਾਵਾਂ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨ ਲਈ ਜ਼ਰੂਰੀ ਹਨ। ਜਿਵੇਂ ਕਿ ਦਸਤਾਵੇਜ਼ਾਂ ਦਾ ਆਕਾਰ ਅਤੇ ਗੁੰਝਲਤਾ ਵਧਦੀ ਹੈ, ਇੱਕ ਸਿੰਗਲ ਏਮਬੈਡਿੰਗ ਵਿੱਚ ਦਸਤਾਵੇਜ਼ ਦੇ ਕਈ ਪਹਿਲੂਆਂ ਨੂੰ ਦਰਸਾਉਣ ਨਾਲ ਵਿਸ਼ੇਸ਼ਤਾ ਦਾ ਨੁਕਸਾਨ ਹੋ ਸਕਦਾ ਹੈ। ਹਾਲਾਂਕਿ ਇਹ ਇੱਕ ਦਸਤਾਵੇਜ਼ ਦੇ ਆਮ ਤੱਤ ਨੂੰ ਹਾਸਲ ਕਰਨ ਲਈ ਜ਼ਰੂਰੀ ਹੈ, ਇਸਦੇ ਅੰਦਰ ਵੱਖੋ-ਵੱਖਰੇ ਉਪ-ਪ੍ਰਸੰਗਾਂ ਨੂੰ ਪਛਾਣਨਾ ਅਤੇ ਉਹਨਾਂ ਦੀ ਨੁਮਾਇੰਦਗੀ ਕਰਨਾ ਵੀ ਬਰਾਬਰ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਇਹ ਇੱਕ ਚੁਣੌਤੀ ਹੈ ਜਿਸਦਾ ਤੁਹਾਨੂੰ ਅਕਸਰ ਵੱਡੇ ਦਸਤਾਵੇਜ਼ਾਂ ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਮੇਂ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ। RAG ਦੇ ਨਾਲ ਇੱਕ ਹੋਰ ਚੁਣੌਤੀ ਇਹ ਹੈ ਕਿ ਮੁੜ ਪ੍ਰਾਪਤੀ ਦੇ ਨਾਲ, ਤੁਸੀਂ ਉਹਨਾਂ ਖਾਸ ਸਵਾਲਾਂ ਤੋਂ ਜਾਣੂ ਨਹੀਂ ਹੋ ਜਿਨ੍ਹਾਂ ਨਾਲ ਤੁਹਾਡਾ ਦਸਤਾਵੇਜ਼ ਸਟੋਰੇਜ ਸਿਸਟਮ ਇੰਜੈਸ਼ਨ 'ਤੇ ਨਜਿੱਠੇਗਾ। ਇਹ ਟੈਕਸਟ (ਪ੍ਰਸੰਗ ਓਵਰਫਲੋ) ਦੇ ਹੇਠਾਂ ਦੱਬੀ ਜਾ ਰਹੀ ਪੁੱਛਗਿੱਛ ਲਈ ਸਭ ਤੋਂ ਢੁਕਵੀਂ ਜਾਣਕਾਰੀ ਲੈ ਸਕਦਾ ਹੈ। ਅਸਫਲਤਾ ਨੂੰ ਘੱਟ ਕਰਨ ਅਤੇ ਮੌਜੂਦਾ ਆਰਏਜੀ ਆਰਕੀਟੈਕਚਰ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨ ਲਈ, ਤੁਸੀਂ ਮੁੜ ਪ੍ਰਾਪਤੀ ਦੀਆਂ ਗਲਤੀਆਂ ਨੂੰ ਘਟਾਉਣ, ਜਵਾਬ ਦੀ ਗੁਣਵੱਤਾ ਨੂੰ ਵਧਾਉਣ, ਅਤੇ ਗੁੰਝਲਦਾਰ ਪ੍ਰਸ਼ਨ ਪ੍ਰਬੰਧਨ ਨੂੰ ਸਮਰੱਥ ਕਰਨ ਲਈ ਉੱਨਤ RAG ਪੈਟਰਨ (ਪੇਰੈਂਟ ਡੌਕੂਮੈਂਟ ਰੀਟਰੀਵਰ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ) ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ।

ਇਸ ਪੋਸਟ ਵਿੱਚ ਵਿਚਾਰੀਆਂ ਗਈਆਂ ਤਕਨੀਕਾਂ ਦੇ ਨਾਲ, ਤੁਸੀਂ ਬਾਹਰੀ ਗਿਆਨ ਪ੍ਰਾਪਤੀ ਅਤੇ ਏਕੀਕਰਣ ਨਾਲ ਜੁੜੀਆਂ ਮੁੱਖ ਚੁਣੌਤੀਆਂ ਨੂੰ ਹੱਲ ਕਰ ਸਕਦੇ ਹੋ, ਤੁਹਾਡੀ ਐਪਲੀਕੇਸ਼ਨ ਨੂੰ ਵਧੇਰੇ ਸਟੀਕ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਤੌਰ 'ਤੇ ਜਾਗਰੂਕ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਉਂਦੇ ਹੋਏ।

ਹੇਠਾਂ ਦਿੱਤੇ ਭਾਗਾਂ ਵਿੱਚ, ਅਸੀਂ ਖੋਜ ਕਰਦੇ ਹਾਂ ਕਿ ਕਿਵੇਂ ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਸੰਕੁਚਨ ਕੁਝ ਸਮੱਸਿਆਵਾਂ ਨਾਲ ਨਜਿੱਠਣ ਵਿੱਚ ਤੁਹਾਡੀ ਮਦਦ ਕਰ ਸਕਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਬਾਰੇ ਅਸੀਂ ਚਰਚਾ ਕੀਤੀ ਹੈ।

ਮਾਤਾ-ਪਿਤਾ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲਾ

ਪਿਛਲੇ ਭਾਗ ਵਿੱਚ, ਅਸੀਂ ਉਹਨਾਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਉਜਾਗਰ ਕੀਤਾ ਹੈ ਜੋ ਵਿਆਪਕ ਦਸਤਾਵੇਜ਼ਾਂ ਨਾਲ ਨਜਿੱਠਣ ਵੇਲੇ RAG ਐਪਲੀਕੇਸ਼ਨਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਦੀਆਂ ਹਨ। ਇਨ੍ਹਾਂ ਚੁਣੌਤੀਆਂ ਨਾਲ ਨਜਿੱਠਣ ਲਈ ਸ. ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ ਆਉਣ ਵਾਲੇ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਸ਼੍ਰੇਣੀਬੱਧ ਅਤੇ ਮਨੋਨੀਤ ਕਰੋ ਮਾਤਾ-ਪਿਤਾ ਦੇ ਦਸਤਾਵੇਜ਼. ਇਹ ਦਸਤਾਵੇਜ਼ ਉਹਨਾਂ ਦੀ ਵਿਆਪਕ ਪ੍ਰਕਿਰਤੀ ਲਈ ਮਾਨਤਾ ਪ੍ਰਾਪਤ ਹਨ ਪਰ ਏਮਬੈਡਿੰਗ ਲਈ ਉਹਨਾਂ ਦੇ ਅਸਲ ਰੂਪ ਵਿੱਚ ਸਿੱਧੇ ਤੌਰ 'ਤੇ ਨਹੀਂ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਪੂਰੇ ਦਸਤਾਵੇਜ਼ ਨੂੰ ਇੱਕ ਸਿੰਗਲ ਏਮਬੈਡਿੰਗ ਵਿੱਚ ਸੰਕੁਚਿਤ ਕਰਨ ਦੀ ਬਜਾਏ, ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ ਇਹਨਾਂ ਮੂਲ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਇਸ ਵਿੱਚ ਵੰਡਦੇ ਹਨ ਬੱਚੇ ਦੇ ਦਸਤਾਵੇਜ਼. ਹਰੇਕ ਚਾਈਲਡ ਦਸਤਾਵੇਜ਼ ਵਿਆਪਕ ਮਾਪੇ ਦਸਤਾਵੇਜ਼ ਤੋਂ ਵੱਖਰੇ ਪਹਿਲੂਆਂ ਜਾਂ ਵਿਸ਼ਿਆਂ ਨੂੰ ਕੈਪਚਰ ਕਰਦਾ ਹੈ। ਇਹਨਾਂ ਬਾਲ ਹਿੱਸਿਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਤੋਂ ਬਾਅਦ, ਹਰੇਕ ਨੂੰ ਵਿਅਕਤੀਗਤ ਏਮਬੈਡਿੰਗ ਨਿਰਧਾਰਤ ਕੀਤੇ ਜਾਂਦੇ ਹਨ, ਉਹਨਾਂ ਦੇ ਖਾਸ ਥੀਮੈਟਿਕ ਤੱਤ ਨੂੰ ਕੈਪਚਰ ਕਰਦੇ ਹੋਏ (ਹੇਠਾਂ ਦਿੱਤਾ ਚਿੱਤਰ ਦੇਖੋ)। ਮੁੜ ਪ੍ਰਾਪਤੀ ਦੇ ਦੌਰਾਨ, ਮੂਲ ਦਸਤਾਵੇਜ਼ ਮੰਗਿਆ ਜਾਂਦਾ ਹੈ। ਇਹ ਤਕਨੀਕ LLM ਨੂੰ ਇੱਕ ਵਿਆਪਕ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਨਾਲ ਪੇਸ਼ ਕਰਦੇ ਹੋਏ, ਟੀਚਾਬੱਧ ਪਰ ਵਿਆਪਕ ਖੋਜ ਸਮਰੱਥਾਵਾਂ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ। ਮਾਤਾ-ਪਿਤਾ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ LLM ਨੂੰ ਦੋ ਗੁਣਾ ਫਾਇਦਾ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ: ਸਟੀਕ ਅਤੇ ਸੰਬੰਧਿਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤੀ ਲਈ ਚਾਈਲਡ ਡੌਕੂਮੈਂਟ ਏਮਬੈਡਿੰਗ ਦੀ ਵਿਸ਼ੇਸ਼ਤਾ, ਜਵਾਬ ਪੈਦਾ ਕਰਨ ਲਈ ਮਾਤਾ-ਪਿਤਾ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਮੰਗ ਦੇ ਨਾਲ, ਜੋ ਕਿ LLM ਦੇ ਆਉਟਪੁੱਟ ਨੂੰ ਇੱਕ ਪੱਧਰੀ ਅਤੇ ਸੰਪੂਰਨ ਸੰਦਰਭ ਨਾਲ ਭਰਪੂਰ ਬਣਾਉਂਦਾ ਹੈ।

ਸੰਦਰਭ ਸੰਕੁਚਨ

ਪਹਿਲਾਂ ਚਰਚਾ ਕੀਤੀ ਗਈ ਪ੍ਰਸੰਗ ਓਵਰਫਲੋ ਦੇ ਮੁੱਦੇ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ, ਤੁਸੀਂ ਵਰਤ ਸਕਦੇ ਹੋ ਪ੍ਰਸੰਗਿਕ ਸੰਕੁਚਨ ਪੁਨਰ-ਪ੍ਰਾਪਤ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਪੁੱਛਗਿੱਛ ਦੇ ਸੰਦਰਭ ਦੇ ਨਾਲ ਸੰਕੁਚਿਤ ਅਤੇ ਫਿਲਟਰ ਕਰਨ ਲਈ, ਇਸ ਲਈ ਸਿਰਫ ਢੁਕਵੀਂ ਜਾਣਕਾਰੀ ਰੱਖੀ ਅਤੇ ਪ੍ਰਕਿਰਿਆ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਇਹ ਸ਼ੁਰੂਆਤੀ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਇੱਕ ਬੇਸ ਰੀਟ੍ਰੀਵਰ ਅਤੇ ਇਹਨਾਂ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਉਹਨਾਂ ਦੀ ਸਮੱਗਰੀ ਨੂੰ ਘਟਾ ਕੇ ਜਾਂ ਉਹਨਾਂ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਪ੍ਰਸੰਗਿਕਤਾ ਦੇ ਅਧਾਰ ਤੇ ਛੱਡ ਕੇ ਸੋਧਣ ਲਈ ਇੱਕ ਦਸਤਾਵੇਜ਼ ਕੰਪ੍ਰੈਸਰ ਦੇ ਸੁਮੇਲ ਦੁਆਰਾ ਪ੍ਰਾਪਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਜਿਵੇਂ ਕਿ ਹੇਠਾਂ ਦਿੱਤੇ ਚਿੱਤਰ ਵਿੱਚ ਦਰਸਾਇਆ ਗਿਆ ਹੈ। ਇਹ ਸੁਚਾਰੂ ਪਹੁੰਚ, ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਰੀਟ੍ਰੀਵਰ ਦੁਆਰਾ ਸਹੂਲਤ ਦਿੱਤੀ ਗਈ ਹੈ, ਬਹੁਤ ਸਾਰੇ ਜਾਣਕਾਰੀ ਦੇ ਸਮੂਹ ਤੋਂ ਸਿਰਫ ਜ਼ਰੂਰੀ ਚੀਜ਼ਾਂ ਨੂੰ ਐਕਸਟਰੈਕਟ ਕਰਨ ਅਤੇ ਵਰਤਣ ਲਈ ਇੱਕ ਢੰਗ ਪ੍ਰਦਾਨ ਕਰਕੇ RAG ਐਪਲੀਕੇਸ਼ਨ ਕੁਸ਼ਲਤਾ ਨੂੰ ਬਹੁਤ ਵਧਾਉਂਦੀ ਹੈ। ਇਹ ਜਾਣਕਾਰੀ ਦੇ ਓਵਰਲੋਡ ਅਤੇ ਅਪ੍ਰਸੰਗਿਕ ਡੇਟਾ ਪ੍ਰੋਸੈਸਿੰਗ ਦੇ ਮੁੱਦੇ ਨਾਲ ਨਜਿੱਠਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਜਵਾਬ ਦੀ ਗੁਣਵੱਤਾ ਵਿੱਚ ਸੁਧਾਰ, ਵਧੇਰੇ ਲਾਗਤ-ਪ੍ਰਭਾਵਸ਼ਾਲੀ LLM ਓਪਰੇਸ਼ਨ, ਅਤੇ ਇੱਕ ਨਿਰਵਿਘਨ ਸਮੁੱਚੀ ਮੁੜ ਪ੍ਰਾਪਤੀ ਪ੍ਰਕਿਰਿਆ ਹੁੰਦੀ ਹੈ। ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਇਹ ਇੱਕ ਫਿਲਟਰ ਹੈ ਜੋ ਜਾਣਕਾਰੀ ਨੂੰ ਹੱਥ ਵਿੱਚ ਮੌਜੂਦ ਪੁੱਛਗਿੱਛ ਲਈ ਤਿਆਰ ਕਰਦਾ ਹੈ, ਇਸ ਨੂੰ ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਅਤੇ ਉਪਭੋਗਤਾ ਸੰਤੁਸ਼ਟੀ ਲਈ ਆਪਣੇ RAG ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਣ ਦਾ ਟੀਚਾ ਬਣਾਉਣ ਵਾਲੇ ਡਿਵੈਲਪਰਾਂ ਲਈ ਇੱਕ ਬਹੁਤ ਜ਼ਰੂਰੀ ਟੂਲ ਬਣਾਉਂਦਾ ਹੈ।

ਪੂਰਿ-ਲੋੜਾਂ

ਜੇ ਤੁਸੀਂ ਸੇਜਮੇਕਰ ਲਈ ਨਵੇਂ ਹੋ, ਤਾਂ ਵੇਖੋ ਐਮਾਜ਼ਾਨ ਸੇਜਮੇਕਰ ਵਿਕਾਸ ਗਾਈਡ.

ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਕਿ ਤੁਸੀਂ ਹੱਲ ਨਾਲ ਸ਼ੁਰੂਆਤ ਕਰੋ, ਇੱਕ AWS ਖਾਤਾ ਬਣਾਓ. ਜਦੋਂ ਤੁਸੀਂ ਇੱਕ AWS ਖਾਤਾ ਬਣਾਉਂਦੇ ਹੋ, ਤਾਂ ਤੁਹਾਨੂੰ ਇੱਕ ਸਿੰਗਲ ਸਾਈਨ-ਆਨ (SSO) ਪਛਾਣ ਮਿਲਦੀ ਹੈ ਜਿਸ ਕੋਲ ਖਾਤੇ ਵਿੱਚ ਸਾਰੀਆਂ AWS ਸੇਵਾਵਾਂ ਅਤੇ ਸਰੋਤਾਂ ਤੱਕ ਪੂਰੀ ਪਹੁੰਚ ਹੁੰਦੀ ਹੈ। ਇਸ ਪਛਾਣ ਨੂੰ AWS ਖਾਤਾ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਰੂਟ ਉਪਭੋਗਤਾ.

ਵਿੱਚ ਸਾਈਨ ਇਨ ਕਰ ਰਿਹਾ ਹੈ AWS ਪ੍ਰਬੰਧਨ ਕੰਸੋਲ ਤੁਹਾਡੇ ਦੁਆਰਾ ਖਾਤਾ ਬਣਾਉਣ ਲਈ ਵਰਤੇ ਗਏ ਈਮੇਲ ਪਤੇ ਅਤੇ ਪਾਸਵਰਡ ਦੀ ਵਰਤੋਂ ਕਰਨ ਨਾਲ ਤੁਹਾਨੂੰ ਤੁਹਾਡੇ ਖਾਤੇ ਵਿੱਚ ਸਾਰੇ AWS ਸਰੋਤਾਂ ਤੱਕ ਪੂਰੀ ਪਹੁੰਚ ਮਿਲਦੀ ਹੈ। ਅਸੀਂ ਜ਼ੋਰਦਾਰ ਸਿਫਾਰਸ਼ ਕਰਦੇ ਹਾਂ ਕਿ ਤੁਸੀਂ ਰੋਜ਼ਾਨਾ ਦੇ ਕੰਮਾਂ ਲਈ ਰੂਟ ਉਪਭੋਗਤਾ ਦੀ ਵਰਤੋਂ ਨਾ ਕਰੋ, ਇੱਥੋਂ ਤੱਕ ਕਿ ਪ੍ਰਬੰਧਕੀ ਕੰਮਾਂ ਲਈ ਵੀ।

ਇਸ ਦੀ ਬਜਾਏ, ਦੀ ਪਾਲਣਾ ਕਰੋ ਸੁਰੱਖਿਆ ਦੇ ਵਧੀਆ ਅਭਿਆਸ in AWS ਪਛਾਣ ਅਤੇ ਪਹੁੰਚ ਪ੍ਰਬੰਧਨ (IAM), ਅਤੇ ਇੱਕ ਪ੍ਰਬੰਧਕੀ ਉਪਭੋਗਤਾ ਅਤੇ ਸਮੂਹ ਬਣਾਓ. ਫਿਰ ਰੂਟ ਉਪਭੋਗਤਾ ਪ੍ਰਮਾਣ ਪੱਤਰਾਂ ਨੂੰ ਸੁਰੱਖਿਅਤ ਢੰਗ ਨਾਲ ਲੌਕ ਕਰੋ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਸਿਰਫ਼ ਕੁਝ ਖਾਤਾ ਅਤੇ ਸੇਵਾ ਪ੍ਰਬੰਧਨ ਕਾਰਜ ਕਰਨ ਲਈ ਵਰਤੋ।

Mixtral-8x7b ਮਾਡਲ ਲਈ ਇੱਕ ml.g5.48x ਵੱਡੀ ਉਦਾਹਰਨ ਦੀ ਲੋੜ ਹੈ। ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ 100 ਤੋਂ ਵੱਧ ਵੱਖ-ਵੱਖ ਓਪਨ ਸੋਰਸ ਅਤੇ ਥਰਡ-ਪਾਰਟੀ ਫਾਊਂਡੇਸ਼ਨ ਮਾਡਲਾਂ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਅਤੇ ਲਾਗੂ ਕਰਨ ਦਾ ਇੱਕ ਸਰਲ ਤਰੀਕਾ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਨੂੰ ਕ੍ਰਮ ਵਿੱਚ SageMaker JumpStart ਤੋਂ Mixtral-8x7B ਦੀ ਮੇਜ਼ਬਾਨੀ ਕਰਨ ਲਈ ਇੱਕ ਐਂਡਪੁਆਇੰਟ ਲਾਂਚ ਕਰੋ, ਤੁਹਾਨੂੰ ਅੰਤਮ ਬਿੰਦੂ ਵਰਤੋਂ ਲਈ ਇੱਕ ml.g5.48xlarge ਉਦਾਹਰਨ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਲਈ ਸੇਵਾ ਕੋਟਾ ਵਧਾਉਣ ਦੀ ਬੇਨਤੀ ਕਰਨ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ। ਤੁਸੀਂ ਕਰ ਸੱਕਦੇ ਹੋ ਸੇਵਾ ਕੋਟਾ ਵਧਾਉਣ ਦੀ ਬੇਨਤੀ ਕਰੋ ਕੰਸੋਲ ਦੁਆਰਾ, AWS ਕਮਾਂਡ ਲਾਈਨ ਇੰਟਰਫੇਸ (AWS CLI), ਜਾਂ API ਉਹਨਾਂ ਵਾਧੂ ਸਰੋਤਾਂ ਤੱਕ ਪਹੁੰਚ ਦੀ ਇਜਾਜ਼ਤ ਦੇਣ ਲਈ।

ਸੇਜਮੇਕਰ ਨੋਟਬੁੱਕ ਉਦਾਹਰਨ ਸੈਟ ਅਪ ਕਰੋ ਅਤੇ ਨਿਰਭਰਤਾਵਾਂ ਨੂੰ ਸਥਾਪਿਤ ਕਰੋ

ਸ਼ੁਰੂ ਕਰਨ ਲਈ, ਇੱਕ ਸੇਜਮੇਕਰ ਨੋਟਬੁੱਕ ਉਦਾਹਰਨ ਬਣਾਓ ਅਤੇ ਲੋੜੀਂਦੀਆਂ ਨਿਰਭਰਤਾਵਾਂ ਨੂੰ ਸਥਾਪਿਤ ਕਰੋ। ਨੂੰ ਵੇਖੋ ਗਿਟਹੱਬ ਰੈਪੋ ਇੱਕ ਸਫਲ ਸੈੱਟਅੱਪ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ. ਤੁਹਾਡੇ ਦੁਆਰਾ ਨੋਟਬੁੱਕ ਉਦਾਹਰਨ ਸੈਟ ਅਪ ਕਰਨ ਤੋਂ ਬਾਅਦ, ਤੁਸੀਂ ਮਾਡਲ ਨੂੰ ਤੈਨਾਤ ਕਰ ਸਕਦੇ ਹੋ।

ਤੁਸੀਂ ਆਪਣੇ ਪਸੰਦੀਦਾ ਏਕੀਕ੍ਰਿਤ ਵਿਕਾਸ ਵਾਤਾਵਰਨ (IDE) 'ਤੇ ਸਥਾਨਕ ਤੌਰ 'ਤੇ ਨੋਟਬੁੱਕ ਵੀ ਚਲਾ ਸਕਦੇ ਹੋ। ਯਕੀਨੀ ਬਣਾਓ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਜੁਪੀਟਰ ਨੋਟਬੁੱਕ ਲੈਬ ਸਥਾਪਤ ਹੈ।

ਮਾਡਲ ਤਾਇਨਾਤ ਕਰੋ

ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ 'ਤੇ Mixtral-8X7B ਨਿਰਦੇਸ਼ LLM ਮਾਡਲ ਨੂੰ ਤੈਨਾਤ ਕਰੋ:

# Import the JumpStartModel class from the SageMaker JumpStart library
from sagemaker.jumpstart.model import JumpStartModel

# Specify the model ID for the HuggingFace Mixtral 8x7b Instruct LLM model
model_id = "huggingface-llm-mixtral-8x7b-instruct"
model = JumpStartModel(model_id=model_id)
llm_predictor = model.deploy()

ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ 'ਤੇ BGE ਲਾਰਜ ਐਨ ਏਮਬੈਡਿੰਗ ਮਾਡਲ ਨੂੰ ਤੈਨਾਤ ਕਰੋ:

# Specify the model ID for the HuggingFace BGE Large EN Embedding model
model_id = "huggingface-sentencesimilarity-bge-large-en"
text_embedding_model = JumpStartModel(model_id=model_id)
embedding_predictor = text_embedding_model.deploy()

LangChain ਸੈਟ ਅਪ ਕਰੋ

ਸਾਰੀਆਂ ਲੋੜੀਂਦੀਆਂ ਲਾਇਬ੍ਰੇਰੀਆਂ ਨੂੰ ਆਯਾਤ ਕਰਨ ਅਤੇ Mixtral-8x7B ਮਾਡਲ ਅਤੇ BGE Large En embeddings ਮਾਡਲ ਨੂੰ ਲਾਗੂ ਕਰਨ ਤੋਂ ਬਾਅਦ, ਤੁਸੀਂ ਹੁਣ LangChain ਸੈਟ ਅਪ ਕਰ ਸਕਦੇ ਹੋ। ਕਦਮ-ਦਰ-ਕਦਮ ਨਿਰਦੇਸ਼ਾਂ ਲਈ, ਵੇਖੋ ਗਿਟਹੱਬ ਰੈਪੋ.

ਡਾਟਾ ਤਿਆਰੀ

ਇਸ ਪੋਸਟ ਵਿੱਚ, ਅਸੀਂ QnA ਨੂੰ ਕਰਨ ਲਈ ਇੱਕ ਟੈਕਸਟ ਕਾਰਪਸ ਵਜੋਂ ਸ਼ੇਅਰਧਾਰਕਾਂ ਨੂੰ ਐਮਾਜ਼ਾਨ ਦੇ ਕਈ ਸਾਲਾਂ ਦੇ ਪੱਤਰਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਾਂ। ਡੇਟਾ ਤਿਆਰ ਕਰਨ ਲਈ ਵਧੇਰੇ ਵਿਸਤ੍ਰਿਤ ਕਦਮਾਂ ਲਈ, ਵੇਖੋ ਗਿਟਹੱਬ ਰੈਪੋ.

ਸਵਾਲ ਜਵਾਬ

ਇੱਕ ਵਾਰ ਡੇਟਾ ਤਿਆਰ ਹੋਣ ਤੋਂ ਬਾਅਦ, ਤੁਸੀਂ ਲੈਂਗਚੈਨ ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੇ ਰੈਪਰ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ, ਜੋ ਵੈਕਟਰ ਸਟੋਰ ਦੇ ਦੁਆਲੇ ਲਪੇਟਦਾ ਹੈ ਅਤੇ LLM ਲਈ ਇਨਪੁਟ ਲੈਂਦਾ ਹੈ। ਇਹ ਰੈਪਰ ਹੇਠ ਦਿੱਤੇ ਕਦਮਾਂ ਨੂੰ ਪੂਰਾ ਕਰਦਾ ਹੈ:

  1. ਇਨਪੁਟ ਸਵਾਲ ਲਵੋ.
  2. ਇੱਕ ਪ੍ਰਸ਼ਨ ਏਮਬੈਡਿੰਗ ਬਣਾਓ।
  3. ਸੰਬੰਧਿਤ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰੋ।
  4. ਦਸਤਾਵੇਜ਼ਾਂ ਅਤੇ ਸਵਾਲਾਂ ਨੂੰ ਪ੍ਰੋਂਪਟ ਵਿੱਚ ਸ਼ਾਮਲ ਕਰੋ।
  5. ਪ੍ਰੋਂਪਟ ਨਾਲ ਮਾਡਲ ਨੂੰ ਬੁਲਾਓ ਅਤੇ ਪੜ੍ਹਨਯੋਗ ਢੰਗ ਨਾਲ ਜਵਾਬ ਤਿਆਰ ਕਰੋ।

ਹੁਣ ਜਦੋਂ ਵੈਕਟਰ ਸਟੋਰ ਮੌਜੂਦ ਹੈ, ਤੁਸੀਂ ਸਵਾਲ ਪੁੱਛਣੇ ਸ਼ੁਰੂ ਕਰ ਸਕਦੇ ਹੋ:

prompt_template = """<s>[INST]
{query}
[INST]"""
PROMPT = PromptTemplate(
    template=prompt_template, input_variables=["query"]
)
query = "How has AWS evolved?"
answer = wrapper_store_faiss.query(question=PROMPT.format(query=query), llm=llm)
print(answer)
AWS, or Amazon Web Services, has evolved significantly since its initial launch in 2006. It started as a feature-poor service, offering only one instance size, in one data center, in one region of the world, with Linux operating system instances only. There was no monitoring, load balancing, auto-scaling, or persistent storage at the time. However, AWS had a successful launch and has since grown into a multi-billion-dollar service.

Over the years, AWS has added numerous features and services, with over 3,300 new ones launched in 2022 alone. They have expanded their offerings to include Windows, monitoring, load balancing, auto-scaling, and persistent storage. AWS has also made significant investments in long-term inventions that have changed what's possible in technology infrastructure.

One example of this is their investment in chip development. AWS has also seen a robust new customer pipeline and active migrations, with many companies opting to move to AWS for the agility, innovation, cost-efficiency, and security benefits it offers. AWS has transformed how customers, from start-ups to multinational companies to public sector organizations, manage their technology infrastructure.

ਰੈਗੂਲਰ ਰੀਟਰੀਵਰ ਚੇਨ

ਪਿਛਲੇ ਦ੍ਰਿਸ਼ ਵਿੱਚ, ਅਸੀਂ ਤੁਹਾਡੇ ਸਵਾਲ ਦਾ ਇੱਕ ਸੰਦਰਭ-ਜਾਗਰੂਕ ਜਵਾਬ ਪ੍ਰਾਪਤ ਕਰਨ ਦੇ ਤੇਜ਼ ਅਤੇ ਸਿੱਧੇ ਤਰੀਕੇ ਦੀ ਖੋਜ ਕੀਤੀ ਹੈ। ਆਉ ਹੁਣ RetrievalQA ਦੀ ਮਦਦ ਨਾਲ ਇੱਕ ਹੋਰ ਅਨੁਕੂਲਿਤ ਵਿਕਲਪ ਨੂੰ ਵੇਖੀਏ, ਜਿੱਥੇ ਤੁਸੀਂ ਕਸਟਮਾਈਜ਼ ਕਰ ਸਕਦੇ ਹੋ ਕਿ ਚੈਨ_ਟਾਈਪ ਪੈਰਾਮੀਟਰ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਪ੍ਰੋਂਪਟ ਵਿੱਚ ਕਿਵੇਂ ਜੋੜਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਨਾਲ ਹੀ, ਇਹ ਨਿਯੰਤਰਣ ਕਰਨ ਲਈ ਕਿ ਕਿੰਨੇ ਸੰਬੰਧਿਤ ਦਸਤਾਵੇਜ਼ ਮੁੜ ਪ੍ਰਾਪਤ ਕੀਤੇ ਜਾਣੇ ਹਨ, ਤੁਸੀਂ ਵੱਖ-ਵੱਖ ਆਉਟਪੁੱਟਾਂ ਨੂੰ ਦੇਖਣ ਲਈ ਹੇਠਾਂ ਦਿੱਤੇ ਕੋਡ ਵਿੱਚ k ਪੈਰਾਮੀਟਰ ਨੂੰ ਬਦਲ ਸਕਦੇ ਹੋ। ਬਹੁਤ ਸਾਰੀਆਂ ਸਥਿਤੀਆਂ ਵਿੱਚ, ਤੁਸੀਂ ਸ਼ਾਇਦ ਇਹ ਜਾਣਨਾ ਚਾਹੋਗੇ ਕਿ ਜਵਾਬ ਬਣਾਉਣ ਲਈ LLM ਕਿਹੜੇ ਸਰੋਤ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਤੁਸੀਂ ਉਹਨਾਂ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਆਉਟਪੁੱਟ ਵਿੱਚ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ return_source_documents, ਜੋ ਉਹਨਾਂ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਵਾਪਸ ਕਰਦਾ ਹੈ ਜੋ LLM ਪ੍ਰੋਂਪਟ ਦੇ ਸੰਦਰਭ ਵਿੱਚ ਸ਼ਾਮਲ ਕੀਤੇ ਗਏ ਹਨ। RetrievalQA ਤੁਹਾਨੂੰ ਇੱਕ ਕਸਟਮ ਪ੍ਰੋਂਪਟ ਟੈਂਪਲੇਟ ਪ੍ਰਦਾਨ ਕਰਨ ਦੀ ਵੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ ਜੋ ਮਾਡਲ ਲਈ ਖਾਸ ਹੋ ਸਕਦਾ ਹੈ।

from langchain.chains import RetrievalQA

prompt_template = """<s>[INST]
Use the following pieces of context to provide a concise answer to the question at the end. If you don't know the answer, just say that you don't know, don't try to make up an answer.

{context}

Question: {question}

[INST]"""
PROMPT = PromptTemplate(
    template=prompt_template, input_variables=["context", "question"]
)

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=vectorstore_faiss.as_retriever(
        search_type="similarity", search_kwargs={"k": 3}
    ),
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

ਆਓ ਇੱਕ ਸਵਾਲ ਪੁੱਛੀਏ:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS (Amazon Web Services) evolved from an initially unprofitable investment to an $85B annual revenue run rate business with strong profitability, offering a wide range of services and features, and becoming a significant part of Amazon's portfolio. Despite facing skepticism and short-term headwinds, AWS continued to innovate, attract new customers, and migrate active customers, offering benefits such as agility, innovation, cost-efficiency, and security. AWS also expanded its long-term investments, including chip development, to provide new capabilities and change what's possible for its customers.

ਪੇਰੈਂਟ ਡੌਕੂਮੈਂਟ ਰੀਟਰੀਵਰ ਚੇਨ

ਦੀ ਮਦਦ ਨਾਲ ਇੱਕ ਹੋਰ ਤਕਨੀਕੀ RAG ਵਿਕਲਪ 'ਤੇ ਨਜ਼ਰ ਮਾਰੋ Parent DocumentRetriever. ਦਸਤਾਵੇਜ਼ ਮੁੜ ਪ੍ਰਾਪਤੀ ਦੇ ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਮੇਂ, ਤੁਹਾਨੂੰ ਸਹੀ ਏਮਬੈਡਿੰਗਾਂ ਅਤੇ ਵਧੇਰੇ ਸੰਦਰਭ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਲਈ ਵੱਡੇ ਦਸਤਾਵੇਜ਼ਾਂ ਲਈ ਇੱਕ ਦਸਤਾਵੇਜ਼ ਦੇ ਛੋਟੇ ਹਿੱਸਿਆਂ ਨੂੰ ਸਟੋਰ ਕਰਨ ਦੇ ਵਿਚਕਾਰ ਇੱਕ ਵਪਾਰ-ਬੰਦ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਸਕਦਾ ਹੈ। ਪੇਰੈਂਟ ਡੌਕੂਮੈਂਟ ਰੀਟਰੀਵਰ ਡੇਟਾ ਦੇ ਛੋਟੇ ਹਿੱਸਿਆਂ ਨੂੰ ਵੰਡ ਕੇ ਅਤੇ ਸਟੋਰ ਕਰਕੇ ਸੰਤੁਲਨ ਨੂੰ ਪੂਰਾ ਕਰਦਾ ਹੈ।

ਅਸੀਂ ਇੱਕ ਵਰਤਦੇ ਹਾਂ parent_splitter ਮੂਲ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਵੱਡੇ ਭਾਗਾਂ ਵਿੱਚ ਵੰਡਣ ਲਈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਪੇਰੈਂਟ ਦਸਤਾਵੇਜ਼ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਏ child_splitter ਅਸਲ ਦਸਤਾਵੇਜ਼ਾਂ ਤੋਂ ਛੋਟੇ ਬੱਚਿਆਂ ਦੇ ਦਸਤਾਵੇਜ਼ ਬਣਾਉਣ ਲਈ:

# This text splitter is used to create the parent documents
parent_splitter = RecursiveCharacterTextSplitter(chunk_size=2000)

# This text splitter is used to create the child documents
# It should create documents smaller than the parent
child_splitter = RecursiveCharacterTextSplitter(chunk_size=400)

# The vectorstore to use to index the child chunks
vectorstore_faiss = FAISS.from_documents(
    child_splitter.split_documents(documents),
    sagemaker_embeddings,
)

ਚਾਈਲਡ ਦਸਤਾਵੇਜ਼ ਫਿਰ ਏਮਬੈਡਿੰਗਾਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਵੈਕਟਰ ਸਟੋਰ ਵਿੱਚ ਸੂਚੀਬੱਧ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਇਹ ਸਮਾਨਤਾ ਦੇ ਅਧਾਰ 'ਤੇ ਸਬੰਧਤ ਬਾਲ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਕੁਸ਼ਲ ਮੁੜ ਪ੍ਰਾਪਤੀ ਨੂੰ ਸਮਰੱਥ ਬਣਾਉਂਦਾ ਹੈ। ਸੰਬੰਧਿਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ, ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲਾ ਪਹਿਲਾਂ ਵੈਕਟਰ ਸਟੋਰ ਤੋਂ ਬਾਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ। ਇਹ ਫਿਰ ਉਹਨਾਂ ਬਾਲ ਦਸਤਾਵੇਜ਼ਾਂ ਲਈ ਮਾਤਾ-ਪਿਤਾ ਆਈਡੀ ਲੱਭਦਾ ਹੈ ਅਤੇ ਸੰਬੰਧਿਤ ਵੱਡੇ ਮਾਪਿਆਂ ਦੇ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਵਾਪਸ ਕਰਦਾ ਹੈ।

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

ਆਓ ਇੱਕ ਸਵਾਲ ਪੁੱਛੀਏ:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS (Amazon Web Services) started with a feature-poor initial launch of the Elastic Compute Cloud (EC2) service in 2006, providing only one instance size, in one data center, in one region of the world, with Linux operating system instances only, and without many key features like monitoring, load balancing, auto-scaling, or persistent storage. However, AWS's success allowed them to quickly iterate and add the missing capabilities, eventually expanding to offer various flavors, sizes, and optimizations of compute, storage, and networking, as well as developing their own chips (Graviton) to push price and performance further. AWS's iterative innovation process required significant investments in financial and people resources over 20 years, often well in advance of when it would pay out, to meet customer needs and improve long-term customer experiences, loyalty, and returns for shareholders.

ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਚੇਨ

ਆਉ ਇੱਕ ਹੋਰ ਉੱਨਤ RAG ਵਿਕਲਪ ਨੂੰ ਵੇਖੀਏ ਜਿਸ ਨੂੰ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਪ੍ਰਸੰਗਿਕ ਸੰਕੁਚਨ. ਮੁੜ ਪ੍ਰਾਪਤੀ ਦੇ ਨਾਲ ਇੱਕ ਚੁਣੌਤੀ ਇਹ ਹੈ ਕਿ ਆਮ ਤੌਰ 'ਤੇ ਸਾਨੂੰ ਪਤਾ ਨਹੀਂ ਹੁੰਦਾ ਕਿ ਤੁਹਾਡੇ ਦਸਤਾਵੇਜ਼ ਸਟੋਰੇਜ ਸਿਸਟਮ ਨੂੰ ਕਿਹੜੀਆਂ ਖਾਸ ਪੁੱਛਗਿੱਛਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਏਗਾ ਜਦੋਂ ਤੁਸੀਂ ਸਿਸਟਮ ਵਿੱਚ ਡੇਟਾ ਦਾਖਲ ਕਰਦੇ ਹੋ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇੱਕ ਪੁੱਛਗਿੱਛ ਲਈ ਸਭ ਤੋਂ ਢੁਕਵੀਂ ਜਾਣਕਾਰੀ ਬਹੁਤ ਸਾਰੇ ਅਪ੍ਰਸੰਗਿਕ ਟੈਕਸਟ ਦੇ ਨਾਲ ਇੱਕ ਦਸਤਾਵੇਜ਼ ਵਿੱਚ ਦੱਬੀ ਜਾ ਸਕਦੀ ਹੈ। ਤੁਹਾਡੀ ਅਰਜ਼ੀ ਰਾਹੀਂ ਉਸ ਪੂਰੇ ਦਸਤਾਵੇਜ਼ ਨੂੰ ਪਾਸ ਕਰਨ ਨਾਲ ਵਧੇਰੇ ਮਹਿੰਗੀਆਂ LLM ਕਾਲਾਂ ਅਤੇ ਮਾੜੇ ਜਵਾਬ ਮਿਲ ਸਕਦੇ ਹਨ।

ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਰੀਟ੍ਰੀਵਰ ਇੱਕ ਦਸਤਾਵੇਜ਼ ਸਟੋਰੇਜ ਸਿਸਟਮ ਤੋਂ ਸੰਬੰਧਿਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਦੀ ਚੁਣੌਤੀ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਦਾ ਹੈ, ਜਿੱਥੇ ਢੁਕਵੇਂ ਡੇਟਾ ਨੂੰ ਬਹੁਤ ਸਾਰੇ ਟੈਕਸਟ ਵਾਲੇ ਦਸਤਾਵੇਜ਼ਾਂ ਵਿੱਚ ਦਫ਼ਨਾਇਆ ਜਾ ਸਕਦਾ ਹੈ। ਦਿੱਤੇ ਗਏ ਸਵਾਲ ਦੇ ਸੰਦਰਭ ਦੇ ਆਧਾਰ 'ਤੇ ਮੁੜ ਪ੍ਰਾਪਤ ਕੀਤੇ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਸੰਕੁਚਿਤ ਅਤੇ ਫਿਲਟਰ ਕਰਨ ਨਾਲ, ਸਿਰਫ ਸਭ ਤੋਂ ਢੁਕਵੀਂ ਜਾਣਕਾਰੀ ਵਾਪਸ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।

ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਰੀਟਰੀਵਰ ਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ, ਤੁਹਾਨੂੰ ਲੋੜ ਹੋਵੇਗੀ:

  • ਇੱਕ ਬੇਸ ਰੀਟਰੀਵਰ - ਇਹ ਸ਼ੁਰੂਆਤੀ ਰੀਟਰੀਵਰ ਹੈ ਜੋ ਕਿ ਪੁੱਛਗਿੱਛ ਦੇ ਆਧਾਰ 'ਤੇ ਸਟੋਰੇਜ ਸਿਸਟਮ ਤੋਂ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ
  • ਇੱਕ ਦਸਤਾਵੇਜ਼ ਕੰਪ੍ਰੈਸਰ - ਇਹ ਕੰਪੋਨੈਂਟ ਸ਼ੁਰੂਆਤੀ ਤੌਰ 'ਤੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਲੈਂਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਵਿਅਕਤੀਗਤ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਸਮੱਗਰੀ ਨੂੰ ਘਟਾ ਕੇ ਜਾਂ ਅਪ੍ਰਸੰਗਿਕ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਛੱਡ ਕੇ, ਪ੍ਰਸੰਗਿਕਤਾ ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਪੁੱਛਗਿੱਛ ਸੰਦਰਭ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਉਹਨਾਂ ਨੂੰ ਛੋਟਾ ਕਰਦਾ ਹੈ।

ਇੱਕ LLM ਚੇਨ ਐਕਸਟਰੈਕਟਰ ਨਾਲ ਪ੍ਰਸੰਗਿਕ ਸੰਕੁਚਨ ਨੂੰ ਜੋੜਨਾ

ਪਹਿਲਾਂ, ਆਪਣੇ ਬੇਸ ਰੀਟਰੀਵਰ ਨੂੰ ਏ ਨਾਲ ਲਪੇਟੋ ContextualCompressionRetriever. ਤੁਸੀਂ ਇੱਕ ਜੋੜੋਗੇ LLMCchainExtractor, ਜੋ ਕਿ ਸ਼ੁਰੂਆਤੀ ਤੌਰ 'ਤੇ ਵਾਪਸ ਕੀਤੇ ਦਸਤਾਵੇਜ਼ਾਂ 'ਤੇ ਦੁਹਰਾਇਆ ਜਾਵੇਗਾ ਅਤੇ ਹਰੇਕ ਤੋਂ ਸਿਰਫ਼ ਉਹੀ ਸਮੱਗਰੀ ਕੱਢੇਗਾ ਜੋ ਪੁੱਛਗਿੱਛ ਨਾਲ ਸੰਬੰਧਿਤ ਹੈ।

from langchain.retrievers import ContextualCompressionRetrieverfrom langchain.retrievers.document_compressors import LLMChainExtractor

text_splitter = RecursiveCharacterTextSplitter(
    # Set a really small chunk size, just to show.
    chunk_size=1000,
    chunk_overlap=100,
)

docs = text_splitter.split_documents(documents)
retriever = FAISS.from_documents(
    docs,
    sagemaker_embeddings,
).as_retriever()

compressor = LLMChainExtractor.from_llm(llm)
compression_retriever = ContextualCompressionRetriever(
    base_compressor=compressor, base_retriever=retriever
)

compressed_docs = compression_retriever.get_relevant_documents(
    "How was Amazon impacted by COVID-19?"
)

ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਚੇਨ ਨੂੰ ਸ਼ੁਰੂ ਕਰੋ ContextualCompressionRetriever ਇੱਕ ਦੇ ਨਾਲ LLMChainExtractor ਅਤੇ ਦੁਆਰਾ ਪ੍ਰੋਂਪਟ ਨੂੰ ਪਾਸ ਕਰੋ chain_type_kwargs ਦਲੀਲ

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=compression_retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

ਆਓ ਇੱਕ ਸਵਾਲ ਪੁੱਛੀਏ:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS evolved by starting as a small project inside Amazon, requiring significant capital investment and facing skepticism from both inside and outside the company. However, AWS had a head start on potential competitors and believed in the value it could bring to customers and Amazon. AWS made a long-term commitment to continue investing, resulting in over 3,300 new features and services launched in 2022. AWS has transformed how customers manage their technology infrastructure and has become an $85B annual revenue run rate business with strong profitability. AWS has also continuously improved its offerings, such as enhancing EC2 with additional features and services after its initial launch.

LLM ਚੇਨ ਫਿਲਟਰ ਨਾਲ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਫਿਲਟਰ ਕਰੋ

The ਐਲਐਲਐਮਚੇਨ ਫਿਲਟਰ ਇੱਕ ਥੋੜਾ ਜਿਹਾ ਸਰਲ ਪਰ ਵਧੇਰੇ ਮਜ਼ਬੂਤ ​​ਕੰਪ੍ਰੈਸ਼ਰ ਹੈ ਜੋ ਇਹ ਫੈਸਲਾ ਕਰਨ ਲਈ ਇੱਕ LLM ਚੇਨ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ ਕਿ ਸ਼ੁਰੂਆਤੀ ਤੌਰ 'ਤੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ ਦਸਤਾਵੇਜ਼ਾਂ ਵਿੱਚੋਂ ਕਿਹੜੇ ਨੂੰ ਫਿਲਟਰ ਕਰਨਾ ਹੈ ਅਤੇ ਕਿਹੜੇ ਨੂੰ ਵਾਪਸ ਕਰਨਾ ਹੈ, ਦਸਤਾਵੇਜ਼ ਸਮੱਗਰੀ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕੀਤੇ ਬਿਨਾਂ:

from langchain.retrievers.document_compressors import LLMChainFilter

_filter = LLMChainFilter.from_llm(llm)
compression_retriever = ContextualCompressionRetriever(
    base_compressor=_filter, base_retriever=retriever
)

compressed_docs = compression_retriever.get_relevant_documents(
    "How was Amazon impacted by COVID-19?"
)
print(compressed_docs)

ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਚੇਨ ਨੂੰ ਸ਼ੁਰੂ ਕਰੋ ContextualCompressionRetriever ਇੱਕ ਦੇ ਨਾਲ LLMChainFilter ਅਤੇ ਦੁਆਰਾ ਪ੍ਰੋਂਪਟ ਨੂੰ ਪਾਸ ਕਰੋ chain_type_kwargs ਦਲੀਲ

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=compression_retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

ਆਓ ਇੱਕ ਸਵਾਲ ਪੁੱਛੀਏ:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS (Amazon Web Services) evolved by initially launching feature-poor but iterating quickly based on customer feedback to add necessary capabilities. This approach allowed AWS to launch EC2 in 2006 with limited features and then continuously add new functionalities, such as additional instance sizes, data centers, regions, operating system options, monitoring tools, load balancing, auto-scaling, and persistent storage. Over time, AWS transformed from a feature-poor service to a multi-billion-dollar business by focusing on customer needs, agility, innovation, cost-efficiency, and security. AWS now has an $85B annual revenue run rate and offers over 3,300 new features and services each year, catering to a wide range of customers from start-ups to multinational companies and public sector organizations.

ਨਤੀਜਿਆਂ ਦੀ ਤੁਲਨਾ ਕਰੋ

ਹੇਠ ਦਿੱਤੀ ਸਾਰਣੀ ਤਕਨੀਕ ਦੇ ਆਧਾਰ 'ਤੇ ਵੱਖ-ਵੱਖ ਸਵਾਲਾਂ ਦੇ ਨਤੀਜਿਆਂ ਦੀ ਤੁਲਨਾ ਕਰਦੀ ਹੈ।

ਤਕਨੀਕ ਸਵਾਲ 1 ਸਵਾਲ 2 ਤੁਲਨਾ
AWS ਕਿਵੇਂ ਵਿਕਸਿਤ ਹੋਇਆ? ਐਮਾਜ਼ਾਨ ਸਫਲ ਕਿਉਂ ਹੈ?
ਰੈਗੂਲਰ ਰੀਟਰੀਵਰ ਚੇਨ ਆਉਟਪੁੱਟ AWS (Amazon Web Services) ਇੱਕ ਸ਼ੁਰੂਆਤੀ ਗੈਰ-ਲਾਭਕਾਰੀ ਨਿਵੇਸ਼ ਤੋਂ ਇੱਕ $85B ਸਲਾਨਾ ਮਾਲੀਆ ਰਨ ਰੇਟ ਵਾਲੇ ਕਾਰੋਬਾਰ ਵਿੱਚ ਮਜ਼ਬੂਤ ​​ਮੁਨਾਫੇ ਦੇ ਨਾਲ ਵਿਕਸਤ ਹੋਇਆ, ਸੇਵਾਵਾਂ ਅਤੇ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਸ਼੍ਰੇਣੀ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ, ਅਤੇ Amazon ਦੇ ਪੋਰਟਫੋਲੀਓ ਦਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਹਿੱਸਾ ਬਣ ਗਿਆ ਹੈ। ਸੰਦੇਹਵਾਦ ਅਤੇ ਥੋੜ੍ਹੇ ਸਮੇਂ ਦੀਆਂ ਸੁਰਖੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨ ਦੇ ਬਾਵਜੂਦ, AWS ਨੇ ਚੁਸਤੀ, ਨਵੀਨਤਾ, ਲਾਗਤ-ਕੁਸ਼ਲਤਾ, ਅਤੇ ਸੁਰੱਖਿਆ ਵਰਗੇ ਲਾਭਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦੇ ਹੋਏ, ਨਵੀਨਤਾ ਕਰਨਾ, ਨਵੇਂ ਗਾਹਕਾਂ ਨੂੰ ਆਕਰਸ਼ਿਤ ਕਰਨਾ, ਅਤੇ ਸਰਗਰਮ ਗਾਹਕਾਂ ਨੂੰ ਮਾਈਗਰੇਟ ਕਰਨਾ ਜਾਰੀ ਰੱਖਿਆ। AWS ਨੇ ਨਵੀਆਂ ਸਮਰੱਥਾਵਾਂ ਪ੍ਰਦਾਨ ਕਰਨ ਅਤੇ ਇਸਦੇ ਗਾਹਕਾਂ ਲਈ ਜੋ ਸੰਭਵ ਹੈ ਉਸਨੂੰ ਬਦਲਣ ਲਈ, ਚਿੱਪ ਵਿਕਾਸ ਸਮੇਤ, ਆਪਣੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਨਿਵੇਸ਼ਾਂ ਦਾ ਵੀ ਵਿਸਤਾਰ ਕੀਤਾ। ਐਮਾਜ਼ਾਨ ਆਪਣੀ ਲਗਾਤਾਰ ਨਵੀਨਤਾ ਅਤੇ ਨਵੇਂ ਖੇਤਰਾਂ ਜਿਵੇਂ ਕਿ ਤਕਨਾਲੋਜੀ ਬੁਨਿਆਦੀ ਢਾਂਚਾ ਸੇਵਾਵਾਂ, ਡਿਜੀਟਲ ਰੀਡਿੰਗ ਡਿਵਾਈਸਾਂ, ਵੌਇਸ-ਸੰਚਾਲਿਤ ਨਿੱਜੀ ਸਹਾਇਕ, ਅਤੇ ਤੀਜੀ-ਪਾਰਟੀ ਮਾਰਕੀਟਪਲੇਸ ਵਰਗੇ ਨਵੇਂ ਕਾਰੋਬਾਰੀ ਮਾਡਲਾਂ ਵਿੱਚ ਵਿਸਤਾਰ ਕਰਕੇ ਸਫਲ ਹੈ। ਇਸਦੀ ਪੂਰਤੀ ਅਤੇ ਆਵਾਜਾਈ ਨੈਟਵਰਕ ਦੇ ਤੇਜ਼ ਵਿਸਤਾਰ ਵਿੱਚ ਦੇਖੀ ਗਈ ਕਾਰਵਾਈ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਸਕੇਲ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਵੀ ਇਸਦੀ ਸਫਲਤਾ ਵਿੱਚ ਯੋਗਦਾਨ ਪਾਉਂਦੀ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਇਸਦੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ ਅਨੁਕੂਲਤਾ ਅਤੇ ਕੁਸ਼ਲਤਾ ਲਾਭਾਂ 'ਤੇ ਐਮਾਜ਼ਾਨ ਦੇ ਫੋਕਸ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਉਤਪਾਦਕਤਾ ਵਿੱਚ ਸੁਧਾਰ ਅਤੇ ਲਾਗਤ ਵਿੱਚ ਕਮੀ ਆਈ ਹੈ। ਐਮਾਜ਼ਾਨ ਬਿਜ਼ਨਸ ਦੀ ਉਦਾਹਰਣ ਵੱਖ-ਵੱਖ ਸੈਕਟਰਾਂ ਵਿੱਚ ਆਪਣੀ ਈ-ਕਾਮਰਸ ਅਤੇ ਲੌਜਿਸਟਿਕਸ ਸ਼ਕਤੀਆਂ ਦਾ ਲਾਭ ਉਠਾਉਣ ਦੀ ਕੰਪਨੀ ਦੀ ਸਮਰੱਥਾ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀ ਹੈ। ਰੈਗੂਲਰ ਰੀਟ੍ਰੀਵਰ ਚੇਨ ਦੇ ਜਵਾਬਾਂ ਦੇ ਆਧਾਰ 'ਤੇ, ਅਸੀਂ ਨੋਟਿਸ ਕਰਦੇ ਹਾਂ ਕਿ ਹਾਲਾਂਕਿ ਇਹ ਲੰਬੇ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਇਹ ਸੰਦਰਭ ਓਵਰਫਲੋ ਤੋਂ ਪੀੜਤ ਹੈ ਅਤੇ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਪੁੱਛਗਿੱਛ ਦਾ ਜਵਾਬ ਦੇਣ ਦੇ ਸਬੰਧ ਵਿੱਚ ਕਾਰਪਸ ਤੋਂ ਕਿਸੇ ਮਹੱਤਵਪੂਰਨ ਵੇਰਵਿਆਂ ਦਾ ਜ਼ਿਕਰ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਹਿੰਦਾ ਹੈ। ਨਿਯਮਤ ਮੁੜ ਪ੍ਰਾਪਤੀ ਲੜੀ ਡੂੰਘਾਈ ਜਾਂ ਪ੍ਰਸੰਗਿਕ ਸੂਝ ਨਾਲ ਸੂਖਮਤਾਵਾਂ ਨੂੰ ਹਾਸਲ ਕਰਨ ਦੇ ਯੋਗ ਨਹੀਂ ਹੈ, ਸੰਭਾਵੀ ਤੌਰ 'ਤੇ ਦਸਤਾਵੇਜ਼ ਦੇ ਨਾਜ਼ੁਕ ਪਹਿਲੂਆਂ ਨੂੰ ਗੁੰਮ ਹੈ।
ਪੇਰੈਂਟ ਡੌਕੂਮੈਂਟ ਰੀਟਰੀਵਰ ਆਉਟਪੁੱਟ AWS (Amazon Web Services) ਦੀ ਸ਼ੁਰੂਆਤ 2 ਵਿੱਚ ਇਲਾਸਟਿਕ ਕੰਪਿਊਟ ਕਲਾਊਡ (EC2006) ਸੇਵਾ ਦੀ ਇੱਕ ਵਿਸ਼ੇਸ਼ਤਾ-ਗਰੀਬ ਸ਼ੁਰੂਆਤੀ ਸ਼ੁਰੂਆਤ ਨਾਲ ਕੀਤੀ ਗਈ ਸੀ, ਜੋ ਸਿਰਫ਼ ਇੱਕ ਡਾਟਾ ਸੈਂਟਰ ਵਿੱਚ, ਦੁਨੀਆ ਦੇ ਇੱਕ ਖੇਤਰ ਵਿੱਚ, ਸਿਰਫ਼ ਲੀਨਕਸ ਓਪਰੇਟਿੰਗ ਸਿਸਟਮ ਉਦਾਹਰਨਾਂ ਦੇ ਨਾਲ, ਸਿਰਫ਼ ਇੱਕ ਉਦਾਹਰਨ ਦਾ ਆਕਾਰ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ। , ਅਤੇ ਨਿਗਰਾਨੀ, ਲੋਡ ਸੰਤੁਲਨ, ਆਟੋ-ਸਕੇਲਿੰਗ, ਜਾਂ ਨਿਰੰਤਰ ਸਟੋਰੇਜ ਵਰਗੀਆਂ ਕਈ ਮੁੱਖ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਤੋਂ ਬਿਨਾਂ। ਹਾਲਾਂਕਿ, AWS ਦੀ ਸਫਲਤਾ ਨੇ ਉਹਨਾਂ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਦੁਹਰਾਉਣ ਅਤੇ ਗੁੰਮ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਜੋੜਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੱਤੀ, ਅੰਤ ਵਿੱਚ ਗਣਨਾ, ਸਟੋਰੇਜ, ਅਤੇ ਨੈਟਵਰਕਿੰਗ ਦੇ ਵੱਖ-ਵੱਖ ਸੁਆਦਾਂ, ਆਕਾਰਾਂ ਅਤੇ ਅਨੁਕੂਲਤਾਵਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਨ ਲਈ ਵਿਸਤਾਰ ਕੀਤਾ, ਨਾਲ ਹੀ ਕੀਮਤ ਅਤੇ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਲਈ ਉਹਨਾਂ ਦੇ ਆਪਣੇ ਚਿਪਸ (ਗ੍ਰੇਵੀਟਨ) ਨੂੰ ਵਿਕਸਤ ਕੀਤਾ। . AWS ਦੀ ਦੁਹਰਾਉਣ ਵਾਲੀ ਨਵੀਨਤਾ ਪ੍ਰਕਿਰਿਆ ਨੂੰ 20 ਸਾਲਾਂ ਵਿੱਚ ਵਿੱਤੀ ਅਤੇ ਲੋਕ ਸਰੋਤਾਂ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਨਿਵੇਸ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ, ਅਕਸਰ ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਕਿ ਇਹ ਕਦੋਂ ਭੁਗਤਾਨ ਕਰੇਗੀ, ਗਾਹਕ ਦੀਆਂ ਲੋੜਾਂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਅਤੇ ਸ਼ੇਅਰਧਾਰਕਾਂ ਲਈ ਲੰਬੇ ਸਮੇਂ ਦੇ ਗਾਹਕ ਅਨੁਭਵ, ਵਫ਼ਾਦਾਰੀ ਅਤੇ ਰਿਟਰਨ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨ ਲਈ। ਐਮਾਜ਼ਾਨ ਲਗਾਤਾਰ ਨਵੀਨਤਾ ਕਰਨ, ਬਦਲਦੀਆਂ ਮਾਰਕੀਟ ਸਥਿਤੀਆਂ ਦੇ ਅਨੁਕੂਲ ਹੋਣ ਅਤੇ ਵੱਖ-ਵੱਖ ਬਾਜ਼ਾਰ ਹਿੱਸਿਆਂ ਵਿੱਚ ਗਾਹਕਾਂ ਦੀਆਂ ਲੋੜਾਂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਦੇ ਕਾਰਨ ਸਫਲ ਹੈ। ਇਹ ਐਮਾਜ਼ਾਨ ਬਿਜ਼ਨਸ ਦੀ ਸਫਲਤਾ ਵਿੱਚ ਸਪੱਸ਼ਟ ਹੈ, ਜਿਸ ਨੇ ਵਪਾਰਕ ਗਾਹਕਾਂ ਨੂੰ ਚੋਣ, ਮੁੱਲ ਅਤੇ ਸਹੂਲਤ ਪ੍ਰਦਾਨ ਕਰਕੇ ਸਾਲਾਨਾ ਕੁੱਲ ਵਿਕਰੀ ਵਿੱਚ ਲਗਭਗ $35B ਦਾ ਵਾਧਾ ਕੀਤਾ ਹੈ। ਈ-ਕਾਮਰਸ ਅਤੇ ਲੌਜਿਸਟਿਕਸ ਸਮਰੱਥਾਵਾਂ ਵਿੱਚ ਐਮਾਜ਼ਾਨ ਦੇ ਨਿਵੇਸ਼ਾਂ ਨੇ ਪ੍ਰਾਈਮ ਨਾਲ ਖਰੀਦੋ ਵਰਗੀਆਂ ਸੇਵਾਵਾਂ ਦੀ ਸਿਰਜਣਾ ਨੂੰ ਵੀ ਸਮਰੱਥ ਬਣਾਇਆ ਹੈ, ਜੋ ਕਿ ਸਿੱਧੇ-ਤੋਂ-ਖਪਤਕਾਰ ਵੈੱਬਸਾਈਟਾਂ ਵਾਲੇ ਵਪਾਰੀਆਂ ਨੂੰ ਵਿਯੂਜ਼ ਤੋਂ ਖਰੀਦਦਾਰੀ ਤੱਕ ਪਰਿਵਰਤਨ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲਾ AWS ਦੀ ਵਿਕਾਸ ਰਣਨੀਤੀ ਦੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਵਿੱਚ ਡੂੰਘਾਈ ਨਾਲ ਖੋਜ ਕਰਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਗਾਹਕਾਂ ਦੇ ਫੀਡਬੈਕ ਦੇ ਅਧਾਰ ਤੇ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਨੂੰ ਜੋੜਨ ਦੀ ਦੁਹਰਾਉਣ ਵਾਲੀ ਪ੍ਰਕਿਰਿਆ ਅਤੇ ਵਿਸ਼ੇਸ਼ਤਾ-ਗ਼ਰੀਬ ਸ਼ੁਰੂਆਤੀ ਸ਼ੁਰੂਆਤ ਤੋਂ ਇੱਕ ਪ੍ਰਮੁੱਖ ਮਾਰਕੀਟ ਸਥਿਤੀ ਤੱਕ ਵਿਸਤ੍ਰਿਤ ਯਾਤਰਾ ਸ਼ਾਮਲ ਹੈ, ਇੱਕ ਸੰਦਰਭ-ਅਮੀਰ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹੋਏ। . ਜਵਾਬਾਂ ਵਿੱਚ ਤਕਨੀਕੀ ਨਵੀਨਤਾਵਾਂ ਅਤੇ ਮਾਰਕੀਟ ਰਣਨੀਤੀ ਤੋਂ ਲੈ ਕੇ ਸੰਗਠਨਾਤਮਕ ਕੁਸ਼ਲਤਾ ਅਤੇ ਗਾਹਕ ਫੋਕਸ ਤੱਕ, ਉਦਾਹਰਣਾਂ ਦੇ ਨਾਲ ਸਫਲਤਾ ਵਿੱਚ ਯੋਗਦਾਨ ਪਾਉਣ ਵਾਲੇ ਕਾਰਕਾਂ ਦਾ ਇੱਕ ਸੰਪੂਰਨ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਇਹ ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ ਦੀ ਨਿਸ਼ਾਨਾ ਅਜੇ ਤੱਕ ਵਿਆਪਕ-ਰੇਂਜ ਖੋਜ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਦਿੱਤਾ ਜਾ ਸਕਦਾ ਹੈ।
LLM ਚੇਨ ਐਕਸਟਰੈਕਟਰ: ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਆਉਟਪੁੱਟ AWS ਐਮਾਜ਼ਾਨ ਦੇ ਅੰਦਰ ਇੱਕ ਛੋਟੇ ਪ੍ਰੋਜੈਕਟ ਵਜੋਂ ਸ਼ੁਰੂ ਕਰਕੇ ਵਿਕਸਤ ਹੋਇਆ, ਜਿਸ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਪੂੰਜੀ ਨਿਵੇਸ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਅਤੇ ਕੰਪਨੀ ਦੇ ਅੰਦਰ ਅਤੇ ਬਾਹਰ ਦੋਵਾਂ ਤੋਂ ਸੰਦੇਹਵਾਦ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ। ਹਾਲਾਂਕਿ, AWS ਨੇ ਸੰਭਾਵੀ ਪ੍ਰਤੀਯੋਗੀਆਂ 'ਤੇ ਇੱਕ ਸ਼ੁਰੂਆਤੀ ਸ਼ੁਰੂਆਤ ਕੀਤੀ ਸੀ ਅਤੇ ਉਸ ਵਿੱਚ ਵਿਸ਼ਵਾਸ ਕੀਤਾ ਸੀ ਕਿ ਇਹ ਗਾਹਕਾਂ ਅਤੇ ਐਮਾਜ਼ਾਨ ਲਈ ਲਿਆ ਸਕਦਾ ਹੈ. AWS ਨੇ ਨਿਵੇਸ਼ ਕਰਨਾ ਜਾਰੀ ਰੱਖਣ ਲਈ ਇੱਕ ਲੰਬੀ-ਅਵਧੀ ਦੀ ਵਚਨਬੱਧਤਾ ਬਣਾਈ ਹੈ, ਜਿਸਦੇ ਨਤੀਜੇ ਵਜੋਂ 3,300 ਵਿੱਚ 2022 ਤੋਂ ਵੱਧ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਅਤੇ ਸੇਵਾਵਾਂ ਲਾਂਚ ਕੀਤੀਆਂ ਗਈਆਂ ਹਨ। AWS ਨੇ ਬਦਲ ਦਿੱਤਾ ਹੈ ਕਿ ਕਿਵੇਂ ਗਾਹਕ ਆਪਣੇ ਤਕਨਾਲੋਜੀ ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਦੇ ਹਨ ਅਤੇ ਮਜ਼ਬੂਤ ​​ਮੁਨਾਫ਼ੇ ਵਾਲਾ $85B ਸਾਲਾਨਾ ਆਮਦਨ ਰਨ ਰੇਟ ਕਾਰੋਬਾਰ ਬਣ ਗਿਆ ਹੈ। AWS ਨੇ ਆਪਣੀਆਂ ਪੇਸ਼ਕਸ਼ਾਂ ਵਿੱਚ ਲਗਾਤਾਰ ਸੁਧਾਰ ਕੀਤਾ ਹੈ, ਜਿਵੇਂ ਕਿ ਸ਼ੁਰੂਆਤੀ ਸ਼ੁਰੂਆਤ ਤੋਂ ਬਾਅਦ ਵਾਧੂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਅਤੇ ਸੇਵਾਵਾਂ ਦੇ ਨਾਲ EC2 ਨੂੰ ਵਧਾਉਣਾ। ਪ੍ਰਦਾਨ ਕੀਤੇ ਗਏ ਸੰਦਰਭ ਦੇ ਆਧਾਰ 'ਤੇ, ਐਮਾਜ਼ਾਨ ਦੀ ਸਫਲਤਾ ਦਾ ਕਾਰਨ ਕਿਤਾਬ-ਵੇਚਣ ਵਾਲੇ ਪਲੇਟਫਾਰਮ ਤੋਂ ਇੱਕ ਜੀਵੰਤ ਤੀਜੀ-ਧਿਰ ਵਿਕਰੇਤਾ ਈਕੋਸਿਸਟਮ ਦੇ ਨਾਲ ਇੱਕ ਗਲੋਬਲ ਮਾਰਕੀਟਪਲੇਸ ਤੱਕ ਇਸ ਦੇ ਰਣਨੀਤਕ ਵਿਸਤਾਰ, AWS ਵਿੱਚ ਸ਼ੁਰੂਆਤੀ ਨਿਵੇਸ਼, Kindle ਅਤੇ Alexa ਨੂੰ ਪੇਸ਼ ਕਰਨ ਵਿੱਚ ਨਵੀਨਤਾ, ਅਤੇ ਮਹੱਤਵਪੂਰਨ ਵਾਧੇ ਨੂੰ ਮੰਨਿਆ ਜਾ ਸਕਦਾ ਹੈ। 2019 ਤੋਂ 2022 ਤੱਕ ਸਾਲਾਨਾ ਆਮਦਨ ਵਿੱਚ। ਇਸ ਵਾਧੇ ਨੇ ਪੂਰਤੀ ਕੇਂਦਰ ਦੇ ਪੈਰਾਂ ਦੇ ਨਿਸ਼ਾਨ ਦੇ ਵਿਸਤਾਰ, ਇੱਕ ਆਖਰੀ-ਮੀਲ ਆਵਾਜਾਈ ਨੈਟਵਰਕ ਦੀ ਸਿਰਜਣਾ, ਅਤੇ ਇੱਕ ਨਵੇਂ ਛਾਂਟਣ ਕੇਂਦਰ ਨੈਟਵਰਕ ਦਾ ਨਿਰਮਾਣ ਕੀਤਾ, ਜਿਸਨੂੰ ਉਤਪਾਦਕਤਾ ਅਤੇ ਲਾਗਤ ਵਿੱਚ ਕਟੌਤੀ ਲਈ ਅਨੁਕੂਲ ਬਣਾਇਆ ਗਿਆ ਸੀ। LLM ਚੇਨ ਐਕਸਟਰੈਕਟਰ ਮੁੱਖ ਬਿੰਦੂਆਂ ਨੂੰ ਵਿਆਪਕ ਤੌਰ 'ਤੇ ਕਵਰ ਕਰਨ ਅਤੇ ਬੇਲੋੜੀ ਡੂੰਘਾਈ ਤੋਂ ਬਚਣ ਵਿਚਕਾਰ ਸੰਤੁਲਨ ਬਣਾਈ ਰੱਖਦਾ ਹੈ। ਇਹ ਡਾਇਨਾਮਿਕ ਤੌਰ 'ਤੇ ਪੁੱਛਗਿੱਛ ਦੇ ਸੰਦਰਭ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਂਦਾ ਹੈ, ਇਸਲਈ ਆਉਟਪੁੱਟ ਸਿੱਧੇ ਤੌਰ 'ਤੇ ਸੰਬੰਧਿਤ ਅਤੇ ਵਿਆਪਕ ਹੈ।
LLM ਚੇਨ ਫਿਲਟਰ: ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਆਉਟਪੁੱਟ AWS (Amazon Web Services) ਸ਼ੁਰੂਆਤੀ ਤੌਰ 'ਤੇ ਵਿਸ਼ੇਸ਼ਤਾ-ਗਰੀਬ ਨੂੰ ਲਾਂਚ ਕਰਕੇ ਵਿਕਸਿਤ ਹੋਈ ਪਰ ਜ਼ਰੂਰੀ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਜੋੜਨ ਲਈ ਗਾਹਕ ਫੀਡਬੈਕ ਦੇ ਆਧਾਰ 'ਤੇ ਤੇਜ਼ੀ ਨਾਲ ਦੁਹਰਾਈ। ਇਸ ਪਹੁੰਚ ਨੇ AWS ਨੂੰ ਸੀਮਤ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੇ ਨਾਲ 2 ਵਿੱਚ EC2006 ਲਾਂਚ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੱਤੀ ਅਤੇ ਫਿਰ ਲਗਾਤਾਰ ਨਵੀਆਂ ਕਾਰਜਕੁਸ਼ਲਤਾਵਾਂ ਸ਼ਾਮਲ ਕੀਤੀਆਂ, ਜਿਵੇਂ ਕਿ ਅਤਿਰਿਕਤ ਉਦਾਹਰਨ ਆਕਾਰ, ਡੇਟਾ ਸੈਂਟਰ, ਖੇਤਰ, ਓਪਰੇਟਿੰਗ ਸਿਸਟਮ ਵਿਕਲਪ, ਨਿਗਰਾਨੀ ਸਾਧਨ, ਲੋਡ ਸੰਤੁਲਨ, ਆਟੋ-ਸਕੇਲਿੰਗ, ਅਤੇ ਨਿਰੰਤਰ ਸਟੋਰੇਜ। ਸਮੇਂ ਦੇ ਨਾਲ, AWS ਗਾਹਕ ਦੀਆਂ ਲੋੜਾਂ, ਚੁਸਤੀ, ਨਵੀਨਤਾ, ਲਾਗਤ-ਕੁਸ਼ਲਤਾ, ਅਤੇ ਸੁਰੱਖਿਆ 'ਤੇ ਧਿਆਨ ਕੇਂਦ੍ਰਤ ਕਰਕੇ ਇੱਕ ਵਿਸ਼ੇਸ਼ਤਾ-ਗਰੀਬ ਸੇਵਾ ਤੋਂ ਇੱਕ ਬਹੁ-ਅਰਬ-ਡਾਲਰ ਕਾਰੋਬਾਰ ਵਿੱਚ ਬਦਲ ਗਿਆ। AWS ਕੋਲ ਹੁਣ $85B ਸਲਾਨਾ ਰੈਵੇਨਿਊ ਰਨ ਰੇਟ ਹੈ ਅਤੇ ਇਹ ਹਰ ਸਾਲ 3,300 ਤੋਂ ਵੱਧ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਅਤੇ ਸੇਵਾਵਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ, ਸਟਾਰਟ-ਅੱਪ ਤੋਂ ਲੈ ਕੇ ਬਹੁਰਾਸ਼ਟਰੀ ਕੰਪਨੀਆਂ ਅਤੇ ਜਨਤਕ ਖੇਤਰ ਦੀਆਂ ਸੰਸਥਾਵਾਂ ਤੱਕ ਗਾਹਕਾਂ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਸ਼੍ਰੇਣੀ ਨੂੰ ਪੂਰਾ ਕਰਦਾ ਹੈ। ਐਮਾਜ਼ਾਨ ਆਪਣੇ ਨਵੀਨਤਾਕਾਰੀ ਵਪਾਰਕ ਮਾਡਲਾਂ, ਨਿਰੰਤਰ ਤਕਨੀਕੀ ਤਰੱਕੀ, ਅਤੇ ਰਣਨੀਤਕ ਸੰਗਠਨਾਤਮਕ ਤਬਦੀਲੀਆਂ ਕਾਰਨ ਸਫਲ ਹੈ। ਕੰਪਨੀ ਨੇ ਨਵੇਂ ਵਿਚਾਰ ਪੇਸ਼ ਕਰਕੇ ਰਵਾਇਤੀ ਉਦਯੋਗਾਂ ਨੂੰ ਲਗਾਤਾਰ ਵਿਗਾੜ ਦਿੱਤਾ ਹੈ, ਜਿਵੇਂ ਕਿ ਵੱਖ-ਵੱਖ ਉਤਪਾਦਾਂ ਅਤੇ ਸੇਵਾਵਾਂ ਲਈ ਇੱਕ ਈ-ਕਾਮਰਸ ਪਲੇਟਫਾਰਮ, ਇੱਕ ਥਰਡ-ਪਾਰਟੀ ਮਾਰਕੀਟਪਲੇਸ, ਕਲਾਉਡ ਬੁਨਿਆਦੀ ਢਾਂਚਾ ਸੇਵਾਵਾਂ (AWS), ਕਿੰਡਲ ਈ-ਰੀਡਰ, ਅਤੇ ਅਲੈਕਸਾ ਵੌਇਸ-ਸੰਚਾਲਿਤ ਨਿੱਜੀ ਸਹਾਇਕ। . ਇਸ ਤੋਂ ਇਲਾਵਾ, ਐਮਾਜ਼ਾਨ ਨੇ ਆਪਣੀ ਕੁਸ਼ਲਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ ਢਾਂਚਾਗਤ ਤਬਦੀਲੀਆਂ ਕੀਤੀਆਂ ਹਨ, ਜਿਵੇਂ ਕਿ ਲਾਗਤਾਂ ਅਤੇ ਡਿਲੀਵਰੀ ਸਮੇਂ ਨੂੰ ਘਟਾਉਣ ਲਈ ਇਸਦੇ ਯੂਐਸ ਪੂਰਤੀ ਨੈਟਵਰਕ ਨੂੰ ਪੁਨਰਗਠਿਤ ਕਰਨਾ, ਇਸਦੀ ਸਫਲਤਾ ਵਿੱਚ ਹੋਰ ਯੋਗਦਾਨ ਪਾਉਂਦਾ ਹੈ। LLM ਚੇਨ ਐਕਸਟਰੈਕਟਰ ਦੀ ਤਰ੍ਹਾਂ, LLM ਚੇਨ ਫਿਲਟਰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ ਕਿ ਹਾਲਾਂਕਿ ਮੁੱਖ ਨੁਕਤੇ ਕਵਰ ਕੀਤੇ ਗਏ ਹਨ, ਆਉਟਪੁੱਟ ਸੰਖੇਪ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਜਵਾਬਾਂ ਦੀ ਭਾਲ ਕਰਨ ਵਾਲੇ ਗਾਹਕਾਂ ਲਈ ਕੁਸ਼ਲ ਹੈ।

ਇਹਨਾਂ ਵੱਖ-ਵੱਖ ਤਕਨੀਕਾਂ ਦੀ ਤੁਲਨਾ ਕਰਨ 'ਤੇ, ਅਸੀਂ ਦੇਖ ਸਕਦੇ ਹਾਂ ਕਿ ਇੱਕ ਸਧਾਰਨ ਸੇਵਾ ਤੋਂ ਇੱਕ ਗੁੰਝਲਦਾਰ, ਬਹੁ-ਬਿਲੀਅਨ-ਡਾਲਰ ਦੀ ਇਕਾਈ ਤੱਕ AWS ਦੇ ਪਰਿਵਰਤਨ ਦਾ ਵੇਰਵਾ ਦੇਣ ਜਾਂ ਐਮਾਜ਼ਾਨ ਦੀਆਂ ਰਣਨੀਤਕ ਸਫਲਤਾਵਾਂ ਦੀ ਵਿਆਖਿਆ ਕਰਨ ਵਰਗੇ ਸੰਦਰਭਾਂ ਵਿੱਚ, ਰੈਗੂਲਰ ਰੀਟ੍ਰੀਵਰ ਚੇਨ ਵਿੱਚ ਸ਼ੁੱਧਤਾ ਦੀ ਘਾਟ ਹੈ, ਜਿੰਨੀ ਕਿ ਵਧੇਰੇ ਆਧੁਨਿਕ ਤਕਨੀਕਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਘੱਟ ਨਿਸ਼ਾਨਾ ਜਾਣਕਾਰੀ ਵੱਲ ਅਗਵਾਈ ਕਰਦਾ ਹੈ। ਹਾਲਾਂਕਿ ਚਰਚਾ ਕੀਤੀਆਂ ਉੱਨਤ ਤਕਨੀਕਾਂ ਵਿਚਕਾਰ ਬਹੁਤ ਘੱਟ ਅੰਤਰ ਦਿਖਾਈ ਦਿੰਦੇ ਹਨ, ਪਰ ਉਹ ਨਿਯਮਤ ਰੀਟ੍ਰੀਵਰ ਚੇਨਾਂ ਨਾਲੋਂ ਕਿਤੇ ਜ਼ਿਆਦਾ ਜਾਣਕਾਰੀ ਭਰਪੂਰ ਹਨ।

ਸਿਹਤ ਸੰਭਾਲ, ਦੂਰਸੰਚਾਰ, ਅਤੇ ਵਿੱਤੀ ਸੇਵਾਵਾਂ ਵਰਗੇ ਉਦਯੋਗਾਂ ਦੇ ਗਾਹਕਾਂ ਲਈ ਜੋ ਆਪਣੀਆਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਵਿੱਚ RAG ਨੂੰ ਲਾਗੂ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹਨ, ਸ਼ੁੱਧਤਾ ਪ੍ਰਦਾਨ ਕਰਨ, ਰਿਡੰਡੈਂਸੀ ਤੋਂ ਬਚਣ ਅਤੇ ਜਾਣਕਾਰੀ ਨੂੰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਸੰਕੁਚਿਤ ਕਰਨ ਵਿੱਚ ਨਿਯਮਤ ਪ੍ਰਾਪਤੀ ਲੜੀ ਦੀਆਂ ਸੀਮਾਵਾਂ ਇਹਨਾਂ ਲੋੜਾਂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ ਘੱਟ ਅਨੁਕੂਲ ਬਣਾਉਂਦੀਆਂ ਹਨ। ਵਧੇਰੇ ਉੱਨਤ ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤੀ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਤਕਨੀਕਾਂ ਲਈ। ਕੀਮਤ-ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦੇ ਹੋਏ, ਇਹ ਤਕਨੀਕਾਂ ਤੁਹਾਨੂੰ ਲੋੜੀਂਦੀਆਂ, ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਸੂਝ-ਬੂਝਾਂ ਵਿੱਚ ਬਹੁਤ ਸਾਰੀ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਦੇ ਯੋਗ ਹਨ।

ਸਾਫ਼ ਕਰੋ

ਜਦੋਂ ਤੁਸੀਂ ਨੋਟਬੁੱਕ ਚਲਾਉਣਾ ਪੂਰਾ ਕਰ ਲੈਂਦੇ ਹੋ, ਤਾਂ ਵਰਤੋਂ ਵਿਚਲੇ ਸਰੋਤਾਂ ਦੇ ਖਰਚਿਆਂ ਤੋਂ ਬਚਣ ਲਈ ਤੁਹਾਡੇ ਦੁਆਰਾ ਬਣਾਏ ਸਰੋਤਾਂ ਨੂੰ ਮਿਟਾਓ:

# Delete resources
llm_predictor.delete_model()
llm_predictor.delete_endpoint()
embedding_predictor.delete_model()
embedding_predictor.delete_endpoint()

ਸਿੱਟਾ

ਇਸ ਪੋਸਟ ਵਿੱਚ, ਅਸੀਂ ਇੱਕ ਹੱਲ ਪੇਸ਼ ਕੀਤਾ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਜਾਣਕਾਰੀ ਦੀ ਪ੍ਰਕਿਰਿਆ ਕਰਨ ਅਤੇ ਜਨਰੇਟ ਕਰਨ ਲਈ LLMs ਦੀ ਯੋਗਤਾ ਨੂੰ ਵਧਾਉਣ ਲਈ ਮੂਲ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਾਪਤੀ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਕੰਪਰੈਸ਼ਨ ਚੇਨ ਤਕਨੀਕਾਂ ਨੂੰ ਲਾਗੂ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ। ਅਸੀਂ ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ ਦੇ ਨਾਲ ਉਪਲਬਧ Mixtral-8x7B ਨਿਰਦੇਸ਼ ਅਤੇ BGE ਲਾਰਜ En ਮਾਡਲਾਂ ਨਾਲ ਇਹਨਾਂ ਉੱਨਤ RAG ਤਕਨੀਕਾਂ ਦੀ ਜਾਂਚ ਕੀਤੀ ਹੈ। ਅਸੀਂ ਏਮਬੈਡਿੰਗਾਂ ਅਤੇ ਦਸਤਾਵੇਜ਼ਾਂ ਦੇ ਭਾਗਾਂ ਅਤੇ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਡੇਟਾ ਸਟੋਰਾਂ ਨਾਲ ਏਕੀਕਰਣ ਲਈ ਨਿਰੰਤਰ ਸਟੋਰੇਜ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਵੀ ਖੋਜ ਕੀਤੀ।

ਸਾਡੇ ਦੁਆਰਾ ਕੀਤੀਆਂ ਗਈਆਂ ਤਕਨੀਕਾਂ ਨਾ ਸਿਰਫ਼ LLM ਮਾਡਲਾਂ ਦੀ ਪਹੁੰਚ ਅਤੇ ਬਾਹਰੀ ਗਿਆਨ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਦੇ ਤਰੀਕੇ ਨੂੰ ਸੁਧਾਰਦੀਆਂ ਹਨ, ਸਗੋਂ ਉਹਨਾਂ ਦੇ ਆਉਟਪੁੱਟ ਦੀ ਗੁਣਵੱਤਾ, ਪ੍ਰਸੰਗਿਕਤਾ ਅਤੇ ਕੁਸ਼ਲਤਾ ਵਿੱਚ ਵੀ ਮਹੱਤਵਪੂਰਨ ਸੁਧਾਰ ਕਰਦੀਆਂ ਹਨ। ਭਾਸ਼ਾ ਪੈਦਾ ਕਰਨ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੇ ਨਾਲ ਵੱਡੇ ਟੈਕਸਟ ਕਾਰਪੋਰਾ ਤੋਂ ਪ੍ਰਾਪਤੀ ਨੂੰ ਜੋੜ ਕੇ, ਇਹ ਉੱਨਤ RAG ਤਕਨੀਕਾਂ LLMs ਨੂੰ ਵੱਖ-ਵੱਖ ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਪ੍ਰੋਸੈਸਿੰਗ ਕਾਰਜਾਂ ਵਿੱਚ ਉਹਨਾਂ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਨੂੰ ਵਧਾਉਂਦੇ ਹੋਏ, ਵਧੇਰੇ ਤੱਥਪੂਰਣ, ਇਕਸਾਰ, ਅਤੇ ਸੰਦਰਭ-ਉਚਿਤ ਜਵਾਬ ਪੈਦਾ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਉਂਦੀਆਂ ਹਨ।

ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ ਇਸ ਹੱਲ ਦੇ ਕੇਂਦਰ ਵਿੱਚ ਹੈ। ਸੇਜਮੇਕਰ ਜੰਪਸਟਾਰਟ ਦੇ ਨਾਲ, ਤੁਸੀਂ ਓਪਨ ਅਤੇ ਬੰਦ ਸਰੋਤ ਮਾਡਲਾਂ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਸ਼੍ਰੇਣੀ ਤੱਕ ਪਹੁੰਚ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹੋ, ML ਨਾਲ ਸ਼ੁਰੂਆਤ ਕਰਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਸੁਚਾਰੂ ਬਣਾਉਂਦੇ ਹੋਏ ਅਤੇ ਤੇਜ਼ ਪ੍ਰਯੋਗ ਅਤੇ ਤੈਨਾਤੀ ਨੂੰ ਸਮਰੱਥ ਕਰਦੇ ਹੋ। ਇਸ ਹੱਲ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰਨ ਲਈ, ਵਿੱਚ ਨੋਟਬੁੱਕ 'ਤੇ ਨੈਵੀਗੇਟ ਕਰੋ ਗਿਟਹੱਬ ਰੈਪੋ.


ਲੇਖਕਾਂ ਬਾਰੇ

ਨਿਤਿਨ ਵਿਜੇਸਵਰਨ AWS ਵਿਖੇ ਇੱਕ ਹੱਲ ਆਰਕੀਟੈਕਟ ਹੈ। ਉਸਦਾ ਫੋਕਸ ਦਾ ਖੇਤਰ ਜਨਰੇਟਿਵ AI ਅਤੇ AWS AI ਐਕਸਲੇਟਰ ਹੈ। ਉਸ ਕੋਲ ਕੰਪਿਊਟਰ ਸਾਇੰਸ ਅਤੇ ਬਾਇਓਇਨਫੋਰਮੈਟਿਕਸ ਵਿੱਚ ਬੈਚਲਰ ਦੀ ਡਿਗਰੀ ਹੈ। Niithiyn ਜਨਰੇਟਿਵ AI GTM ਟੀਮ ਦੇ ਨਾਲ ਮਿਲ ਕੇ ਕੰਮ ਕਰਦਾ ਹੈ ਤਾਂ ਜੋ AWS ਗਾਹਕਾਂ ਨੂੰ ਕਈ ਮੋਰਚਿਆਂ 'ਤੇ ਸਮਰੱਥ ਬਣਾਇਆ ਜਾ ਸਕੇ ਅਤੇ ਉਹਨਾਂ ਦੇ ਜਨਰੇਟਿਵ AI ਨੂੰ ਅਪਣਾਉਣ ਨੂੰ ਤੇਜ਼ ਕੀਤਾ ਜਾ ਸਕੇ। ਉਹ ਡੱਲਾਸ ਮੈਵਰਿਕਸ ਦਾ ਸ਼ੌਕੀਨ ਪ੍ਰਸ਼ੰਸਕ ਹੈ ਅਤੇ ਸਨੀਕਰ ਇਕੱਠੇ ਕਰਨ ਦਾ ਅਨੰਦ ਲੈਂਦਾ ਹੈ।

ਸੇਬੇਸਟਿਅਨ ਬੁਸਟੀਲੋ AWS ਵਿਖੇ ਇੱਕ ਹੱਲ ਆਰਕੀਟੈਕਟ ਹੈ। ਉਹ ਜਨਰੇਟਿਵ AI ਅਤੇ ਕੰਪਿਊਟ ਐਕਸੀਲੇਟਰਾਂ ਲਈ ਡੂੰਘੇ ਜਨੂੰਨ ਨਾਲ AI/ML ਤਕਨਾਲੋਜੀਆਂ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਤ ਕਰਦਾ ਹੈ। AWS 'ਤੇ, ਉਹ ਗ੍ਰਾਹਕਾਂ ਨੂੰ ਜਨਰੇਟਿਵ AI ਦੁਆਰਾ ਵਪਾਰਕ ਮੁੱਲ ਨੂੰ ਅਨਲੌਕ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਜਦੋਂ ਉਹ ਕੰਮ 'ਤੇ ਨਹੀਂ ਹੁੰਦਾ, ਤਾਂ ਉਹ ਵਿਸ਼ੇਸ਼ ਕੌਫੀ ਦਾ ਇੱਕ ਸੰਪੂਰਣ ਕੱਪ ਬਣਾਉਣ ਅਤੇ ਆਪਣੀ ਪਤਨੀ ਨਾਲ ਸੰਸਾਰ ਦੀ ਪੜਚੋਲ ਕਰਨ ਦਾ ਅਨੰਦ ਲੈਂਦਾ ਹੈ।

ਅਰਮਾਂਡੋ ਡਿਆਜ਼ AWS ਵਿਖੇ ਇੱਕ ਹੱਲ ਆਰਕੀਟੈਕਟ ਹੈ। ਉਹ ਜਨਰੇਟਿਵ AI, AI/ML, ਅਤੇ ਡਾਟਾ ਵਿਸ਼ਲੇਸ਼ਣ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਤ ਕਰਦਾ ਹੈ। AWS 'ਤੇ, Armando ਗਾਹਕਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਸਿਸਟਮਾਂ ਵਿੱਚ ਅਤਿ-ਆਧੁਨਿਕ ਜਨਰੇਟਿਵ AI ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਏਕੀਕ੍ਰਿਤ ਕਰਨ, ਨਵੀਨਤਾ ਅਤੇ ਪ੍ਰਤੀਯੋਗੀ ਲਾਭ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਜਦੋਂ ਉਹ ਕੰਮ 'ਤੇ ਨਹੀਂ ਹੁੰਦਾ, ਤਾਂ ਉਹ ਆਪਣੀ ਪਤਨੀ ਅਤੇ ਪਰਿਵਾਰ ਨਾਲ ਸਮਾਂ ਬਿਤਾਉਣ, ਹਾਈਕਿੰਗ ਅਤੇ ਦੁਨੀਆ ਦੀ ਯਾਤਰਾ ਕਰਨ ਦਾ ਅਨੰਦ ਲੈਂਦਾ ਹੈ।

ਡਾ: ਫਾਰੂਕ ਸਾਬਿਰ AWS ਵਿਖੇ ਇੱਕ ਸੀਨੀਅਰ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਅਤੇ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਸਪੈਸ਼ਲਿਸਟ ਸੋਲਿਊਸ਼ਨ ਆਰਕੀਟੈਕਟ ਹੈ। ਉਸਨੇ ਔਸਟਿਨ ਵਿੱਚ ਯੂਨੀਵਰਸਿਟੀ ਆਫ਼ ਟੈਕਸਾਸ ਤੋਂ ਇਲੈਕਟ੍ਰੀਕਲ ਇੰਜੀਨੀਅਰਿੰਗ ਵਿੱਚ ਪੀਐਚਡੀ ਅਤੇ ਐਮਐਸ ਡਿਗਰੀਆਂ ਅਤੇ ਜਾਰਜੀਆ ਇੰਸਟੀਚਿਊਟ ਆਫ਼ ਟੈਕਨਾਲੋਜੀ ਤੋਂ ਕੰਪਿਊਟਰ ਸਾਇੰਸ ਵਿੱਚ ਐਮਐਸ ਦੀ ਡਿਗਰੀ ਪ੍ਰਾਪਤ ਕੀਤੀ ਹੈ। ਉਸ ਕੋਲ 15 ਸਾਲਾਂ ਤੋਂ ਵੱਧ ਕੰਮ ਦਾ ਤਜਰਬਾ ਹੈ ਅਤੇ ਉਹ ਕਾਲਜ ਦੇ ਵਿਦਿਆਰਥੀਆਂ ਨੂੰ ਪੜ੍ਹਾਉਣਾ ਅਤੇ ਸਲਾਹ ਦੇਣਾ ਵੀ ਪਸੰਦ ਕਰਦਾ ਹੈ। AWS 'ਤੇ, ਉਹ ਗਾਹਕਾਂ ਨੂੰ ਡਾਟਾ ਵਿਗਿਆਨ, ਮਸ਼ੀਨ ਸਿਖਲਾਈ, ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ, ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ, ਸੰਖਿਆਤਮਕ ਅਨੁਕੂਲਨ, ਅਤੇ ਸੰਬੰਧਿਤ ਡੋਮੇਨਾਂ ਵਿੱਚ ਉਹਨਾਂ ਦੀਆਂ ਵਪਾਰਕ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਤਿਆਰ ਕਰਨ ਅਤੇ ਹੱਲ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਡੱਲਾਸ, ਟੈਕਸਾਸ ਵਿੱਚ ਅਧਾਰਤ, ਉਹ ਅਤੇ ਉਸਦਾ ਪਰਿਵਾਰ ਸਫ਼ਰ ਕਰਨਾ ਅਤੇ ਲੰਬੀਆਂ ਸੜਕੀ ਯਾਤਰਾਵਾਂ 'ਤੇ ਜਾਣਾ ਪਸੰਦ ਕਰਦੇ ਹਨ।

ਮਾਰਕੋ ਪੁਨੀਓ AWS 'ਤੇ ਗਾਹਕਾਂ ਦੀ ਹਾਈਪਰ-ਸਕੇਲ ਦੀ ਮਦਦ ਕਰਨ ਲਈ ਜਨਰੇਟਿਵ AI ਰਣਨੀਤੀ, ਲਾਗੂ AI ਹੱਲ ਅਤੇ ਖੋਜ ਕਰਨ 'ਤੇ ਕੇਂਦ੍ਰਿਤ ਇੱਕ ਹੱਲ ਆਰਕੀਟੈਕਟ ਹੈ। ਮਾਰਕੋ ਫਿਨਟੈਕ, ਹੈਲਥਕੇਅਰ ਅਤੇ ਲਾਈਫ ਸਾਇੰਸਜ਼, ਸੌਫਟਵੇਅਰ-ਏ-ਏ-ਸਰਵਿਸ, ਅਤੇ ਹਾਲ ਹੀ ਵਿੱਚ, ਦੂਰਸੰਚਾਰ ਉਦਯੋਗਾਂ ਵਿੱਚ ਅਨੁਭਵ ਵਾਲਾ ਇੱਕ ਡਿਜ਼ੀਟਲ ਮੂਲ ਕਲਾਉਡ ਸਲਾਹਕਾਰ ਹੈ। ਉਹ ਮਸ਼ੀਨ ਲਰਨਿੰਗ, ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ, ਅਤੇ ਵਿਲੀਨਤਾ ਅਤੇ ਗ੍ਰਹਿਣ ਕਰਨ ਦੇ ਜਨੂੰਨ ਨਾਲ ਇੱਕ ਯੋਗਤਾ ਪ੍ਰਾਪਤ ਟੈਕਨਾਲੋਜਿਸਟ ਹੈ। ਮਾਰਕੋ ਸੀਏਟਲ, WA ਵਿੱਚ ਅਧਾਰਤ ਹੈ ਅਤੇ ਆਪਣੇ ਖਾਲੀ ਸਮੇਂ ਵਿੱਚ ਲਿਖਣ, ਪੜ੍ਹਨ, ਕਸਰਤ ਕਰਨ ਅਤੇ ਐਪਲੀਕੇਸ਼ਨ ਬਣਾਉਣ ਦਾ ਅਨੰਦ ਲੈਂਦਾ ਹੈ।

ਏਜੇ ਧੀਮੀਨੇ AWS ਵਿਖੇ ਇੱਕ ਹੱਲ ਆਰਕੀਟੈਕਟ ਹੈ। ਉਹ ਜਨਰੇਟਿਵ ਏਆਈ, ਸਰਵਰ ਰਹਿਤ ਕੰਪਿਊਟਿੰਗ ਅਤੇ ਡੇਟਾ ਵਿਸ਼ਲੇਸ਼ਣ ਵਿੱਚ ਮੁਹਾਰਤ ਰੱਖਦਾ ਹੈ। ਉਹ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਟੈਕਨੀਕਲ ਫੀਲਡ ਕਮਿਊਨਿਟੀ ਵਿੱਚ ਇੱਕ ਸਰਗਰਮ ਮੈਂਬਰ/ਸਲਾਹਕਾਰ ਹੈ ਅਤੇ ਉਸਨੇ ਵੱਖ-ਵੱਖ AI/ML ਵਿਸ਼ਿਆਂ 'ਤੇ ਕਈ ਵਿਗਿਆਨਕ ਪੇਪਰ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤੇ ਹਨ। ਉਹ ਗਾਹਕਾਂ ਨਾਲ ਕੰਮ ਕਰਦਾ ਹੈ, ਸਟਾਰਟ-ਅੱਪ ਤੋਂ ਲੈ ਕੇ ਐਂਟਰਪ੍ਰਾਈਜ਼ਾਂ ਤੱਕ, AWSome ਜਨਰੇਟਿਵ AI ਹੱਲ ਵਿਕਸਿਤ ਕਰਨ ਲਈ। ਉਹ ਵਿਸ਼ੇਸ਼ ਤੌਰ 'ਤੇ ਉੱਨਤ ਡੇਟਾ ਵਿਸ਼ਲੇਸ਼ਣ ਲਈ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਦਾ ਲਾਭ ਉਠਾਉਣ ਅਤੇ ਅਸਲ-ਸੰਸਾਰ ਦੀਆਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਹੱਲ ਕਰਨ ਵਾਲੀਆਂ ਵਿਹਾਰਕ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਖੋਜ ਕਰਨ ਬਾਰੇ ਵਿਸ਼ੇਸ਼ ਤੌਰ 'ਤੇ ਭਾਵੁਕ ਹੈ। ਕੰਮ ਤੋਂ ਬਾਹਰ, AJ ਯਾਤਰਾ ਦਾ ਅਨੰਦ ਲੈਂਦਾ ਹੈ, ਅਤੇ ਵਰਤਮਾਨ ਵਿੱਚ ਦੁਨੀਆ ਦੇ ਹਰ ਦੇਸ਼ ਦਾ ਦੌਰਾ ਕਰਨ ਦੇ ਟੀਚੇ ਨਾਲ 53 ਦੇਸ਼ਾਂ ਵਿੱਚ ਹੈ।

ਸਪਾਟ_ਮਿਗ

ਨਵੀਨਤਮ ਖੁਫੀਆ ਜਾਣਕਾਰੀ

ਸਪਾਟ_ਮਿਗ