ജനറേറ്റീവ് ഡാറ്റ ഇന്റലിജൻസ്

Amazon SageMaker-ലെ വിപുലമായ RAG പാറ്റേണുകൾ | ആമസോൺ വെബ് സേവനങ്ങൾ

തീയതി:

ഇന്ന്, എല്ലാ വ്യവസായങ്ങളിലെയും ഉപഭോക്താക്കൾ—അത് സാമ്പത്തിക സേവനങ്ങൾ, ആരോഗ്യ സംരക്ഷണം, ലൈഫ് സയൻസ്, യാത്രയും ആതിഥ്യവും, മാധ്യമങ്ങളും വിനോദവും, ടെലികമ്മ്യൂണിക്കേഷൻ, ഒരു സേവനമെന്ന നിലയിൽ സോഫ്റ്റ്‌വെയർ (SaaS), കൂടാതെ കുത്തക മോഡൽ ദാതാക്കൾ പോലും—വലിയ ഭാഷാ മോഡലുകൾ (LLMs) ഉപയോഗിക്കുന്നു. ചോദ്യവും ഉത്തരവും (ക്യുഎൻഎ) ചാറ്റ്ബോട്ടുകൾ, സെർച്ച് എഞ്ചിനുകൾ, വിജ്ഞാന അടിത്തറകൾ എന്നിവ പോലുള്ള ആപ്ലിക്കേഷനുകൾ നിർമ്മിക്കുക. ഇവ ജനറേറ്റീവ് AI നിലവിലുള്ള ബിസിനസ്സ് പ്രക്രിയകൾ ഓട്ടോമേറ്റ് ചെയ്യാൻ മാത്രമല്ല, ഈ ആപ്ലിക്കേഷനുകൾ ഉപയോഗിക്കുന്ന ഉപഭോക്താക്കൾക്ക് അനുഭവം പരിവർത്തനം ചെയ്യാനും ആപ്ലിക്കേഷനുകൾ ഉപയോഗിക്കുന്നു. പോലുള്ള LLM-കൾ ഉപയോഗിച്ച് നടത്തിയ പുരോഗതികൾക്കൊപ്പം Mixtral-8x7B നിർദ്ദേശം, പോലുള്ള വാസ്തുവിദ്യകളുടെ ഡെറിവേറ്റീവ് വിദഗ്ധരുടെ മിശ്രിതം (MoE), ഉപഭോക്താക്കൾ തുടർച്ചയായി ക്ലോസ്ഡ് ഓപ്പൺ സോഴ്സ് മോഡലുകൾ ഫലപ്രദമായി ഉപയോഗിക്കാൻ അനുവദിക്കുമ്പോൾ ജനറേറ്റീവ് AI ആപ്ലിക്കേഷനുകളുടെ പ്രകടനവും കൃത്യതയും മെച്ചപ്പെടുത്തുന്നതിനുള്ള വഴികൾ തേടുന്നു.

ഒരു LLM-ൻ്റെ ഔട്ട്‌പുട്ടിൻ്റെ കൃത്യതയും പ്രകടനവും മെച്ചപ്പെടുത്തുന്നതിന് സാധാരണയായി നിരവധി ടെക്‌നിക്കുകൾ ഉപയോഗിക്കുന്നു, അതായത് ഫൈൻ-ട്യൂണിംഗ് പരാമീറ്റർ കാര്യക്ഷമമായ ഫൈൻ ട്യൂണിംഗ് (PEFT), ഹ്യൂമൻ ഫീഡ്‌ബാക്കിൽ നിന്നുള്ള ശക്തിപ്പെടുത്തൽ പഠനം (RLHF), ഒപ്പം പ്രകടനം അറിവ് വാറ്റിയെടുക്കൽ. എന്നിരുന്നാലും, ജനറേറ്റീവ് AI ആപ്ലിക്കേഷനുകൾ നിർമ്മിക്കുമ്പോൾ, നിങ്ങൾക്ക് ബാഹ്യമായ അറിവിൻ്റെ ചലനാത്മകമായ സംയോജനത്തിന് അനുവദിക്കുന്ന ഒരു ബദൽ പരിഹാരം ഉപയോഗിക്കാം കൂടാതെ നിങ്ങളുടെ നിലവിലുള്ള അടിസ്ഥാന മോഡൽ മികച്ചതാക്കാതെ തന്നെ ജനറേഷനായി ഉപയോഗിക്കുന്ന വിവരങ്ങൾ നിയന്ത്രിക്കാൻ നിങ്ങളെ അനുവദിക്കുന്നു. ഇവിടെയാണ് റിട്രീവൽ ഓഗ്മെൻ്റഡ് ജനറേഷൻ (RAG) വരുന്നത്, പ്രത്യേകിച്ചും ഞങ്ങൾ ചർച്ച ചെയ്ത കൂടുതൽ ചെലവേറിയതും കരുത്തുറ്റതുമായ ഫൈൻ-ട്യൂണിംഗ് ബദലുകൾക്ക് വിരുദ്ധമായി ജനറേറ്റീവ് AI ആപ്ലിക്കേഷനുകൾക്കായി. നിങ്ങളുടെ ദൈനംദിന ടാസ്‌ക്കുകളിൽ സങ്കീർണ്ണമായ RAG ആപ്ലിക്കേഷനുകൾ നടപ്പിലാക്കുകയാണെങ്കിൽ, കൃത്യമല്ലാത്ത വീണ്ടെടുക്കൽ, ഡോക്യുമെൻ്റുകളുടെ വലുപ്പവും സങ്കീർണ്ണതയും വർദ്ധിപ്പിക്കൽ, സന്ദർഭത്തിൻ്റെ ഓവർഫ്ലോ എന്നിങ്ങനെയുള്ള പൊതുവായ വെല്ലുവിളികൾ നിങ്ങൾക്ക് നേരിടേണ്ടി വന്നേക്കാം. .

നിലവിലുള്ള ജനറേറ്റീവ് AI ആപ്ലിക്കേഷനുകൾ മെച്ചപ്പെടുത്തുന്നതിന് ഡെവലപ്പർമാരെ പ്രാപ്തരാക്കുന്നതിന് സന്ദർഭോചിതമായ കംപ്രഷൻ പോലുള്ള സാങ്കേതികതകൾക്ക് പുറമേ, LangChain ഉപയോഗിച്ചുള്ള പ്രതികരണ കൃത്യത മെച്ചപ്പെടുത്തുന്നതിനുള്ള RAG പാറ്റേണുകളും പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ പോലുള്ള ഉപകരണങ്ങളും ഈ പോസ്റ്റ് ചർച്ച ചെയ്യുന്നു.

പരിഹാര അവലോകനം

ഈ പോസ്റ്റിൽ, പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ ടൂളും സാന്ദർഭിക കംപ്രഷൻ ടെക്നിക്കും ഉപയോഗിച്ച് ആമസോൺ സേജ് മേക്കർ നോട്ട്ബുക്കിൽ ഒരു RAG QnA സിസ്റ്റം കാര്യക്ഷമമായി നിർമ്മിക്കുന്നതിന് BGE ലാർജ് എൻ എംബഡിംഗ് മോഡലുമായി ചേർന്ന് Mixtral-8x7B ഇൻസ്ട്രക്റ്റ് ടെക്സ്റ്റ് ജനറേഷൻ ഉപയോഗിക്കുന്നത് ഞങ്ങൾ പ്രകടമാക്കുന്നു. ഇനിപ്പറയുന്ന ഡയഗ്രം ഈ പരിഹാരത്തിൻ്റെ വാസ്തുവിദ്യയെ ചിത്രീകരിക്കുന്നു.

ഉപയോഗിച്ച് ഏതാനും ക്ലിക്കുകളിലൂടെ നിങ്ങൾക്ക് ഈ പരിഹാരം വിന്യസിക്കാൻ കഴിയും ആമസോൺ സേജ് മേക്കർ ജമ്പ്സ്റ്റാർട്ട്, ഉള്ളടക്ക രചന, കോഡ് സൃഷ്‌ടിക്കൽ, ചോദ്യോത്തരം, കോപ്പിറൈറ്റിംഗ്, സംഗ്രഹം, വർഗ്ഗീകരണം, വിവരങ്ങൾ വീണ്ടെടുക്കൽ തുടങ്ങിയ വിവിധ ഉപയോഗ കേസുകൾക്കായി അത്യാധുനിക അടിസ്ഥാന മോഡലുകൾ വാഗ്ദാനം ചെയ്യുന്ന പൂർണ്ണമായി നിയന്ത്രിക്കപ്പെടുന്ന പ്ലാറ്റ്‌ഫോം. മെഷീൻ ലേണിംഗ് (ML) ആപ്ലിക്കേഷനുകളുടെ വികസനവും വിന്യാസവും ത്വരിതപ്പെടുത്തിക്കൊണ്ട് നിങ്ങൾക്ക് വേഗത്തിലും എളുപ്പത്തിലും വിന്യസിക്കാൻ കഴിയുന്ന പ്രീ-ട്രെയിൻഡ് മോഡലുകളുടെ ഒരു ശേഖരം ഇത് നൽകുന്നു. SageMaker JumpStart-ൻ്റെ പ്രധാന ഘടകങ്ങളിലൊന്ന് മോഡൽ ഹബ് ആണ്, ഇത് വിവിധ ജോലികൾക്കായി Mixtral-8x7B പോലുള്ള പ്രീ-ട്രെയിൻഡ് മോഡലുകളുടെ ഒരു വലിയ കാറ്റലോഗ് വാഗ്ദാനം ചെയ്യുന്നു.

Mixtral-8x7B ഒരു MoE ആർക്കിടെക്ചർ ഉപയോഗിക്കുന്നു. ഈ വാസ്തുവിദ്യ ഒരു ന്യൂറൽ നെറ്റ്‌വർക്കിൻ്റെ വിവിധ ഭാഗങ്ങളെ വ്യത്യസ്ത ജോലികളിൽ വൈദഗ്ദ്ധ്യം നേടുന്നതിന് അനുവദിക്കുന്നു, ജോലിഭാരത്തെ ഒന്നിലധികം വിദഗ്ധർക്കിടയിൽ ഫലപ്രദമായി വിഭജിക്കുന്നു. പരമ്പരാഗത വാസ്തുവിദ്യകളെ അപേക്ഷിച്ച് വലിയ മോഡലുകളുടെ കാര്യക്ഷമമായ പരിശീലനവും വിന്യാസവും ഈ സമീപനം സാധ്യമാക്കുന്നു.

MoE ആർക്കിടെക്ചറിൻ്റെ പ്രധാന നേട്ടങ്ങളിലൊന്ന് അതിൻ്റെ സ്കേലബിളിറ്റിയാണ്. ജോലിഭാരം ഒന്നിലധികം വിദഗ്ധരിൽ വിതരണം ചെയ്യുന്നതിലൂടെ, MoE മോഡലുകളെ വലിയ ഡാറ്റാസെറ്റുകളിൽ പരിശീലിപ്പിക്കാനും അതേ വലുപ്പത്തിലുള്ള പരമ്പരാഗത മോഡലുകളേക്കാൾ മികച്ച പ്രകടനം നേടാനും കഴിയും. കൂടാതെ, അനുമാന സമയത്ത് MoE മോഡലുകൾ കൂടുതൽ കാര്യക്ഷമമാകും, കാരണം തന്നിരിക്കുന്ന ഇൻപുട്ടിനായി വിദഗ്ധരുടെ ഒരു ഉപവിഭാഗം മാത്രമേ സജീവമാക്കേണ്ടതുള്ളൂ.

AWS-ലെ Mixtral-8x7B നിർദ്ദേശത്തെക്കുറിച്ചുള്ള കൂടുതൽ വിവരങ്ങൾക്ക്, കാണുക Mixtral-8x7B ഇപ്പോൾ Amazon SageMaker JumpStart-ൽ ലഭ്യമാണ്. Mixtral-8x7B മോഡൽ അനുവദനീയമായ Apache 2.0 ലൈസൻസിന് കീഴിലാണ്, നിയന്ത്രണങ്ങളില്ലാതെ ഉപയോഗിക്കുന്നതിന് ലഭ്യമാക്കിയിരിക്കുന്നത്.

ഈ പോസ്റ്റിൽ, നിങ്ങൾക്ക് എങ്ങനെ ഉപയോഗിക്കാമെന്ന് ഞങ്ങൾ ചർച്ച ചെയ്യുന്നു ലാംഗ്ചെയിൻ ഫലപ്രദവും കൂടുതൽ കാര്യക്ഷമവുമായ RAG ആപ്ലിക്കേഷനുകൾ സൃഷ്ടിക്കാൻ. LLM-കൾ ഉപയോഗിച്ച് ആപ്ലിക്കേഷനുകൾ നിർമ്മിക്കാൻ രൂപകൽപ്പന ചെയ്ത ഒരു ഓപ്പൺ സോഴ്‌സ് പൈത്തൺ ലൈബ്രറിയാണ് LangChain. വിജ്ഞാന അടിത്തറകൾ, വീണ്ടെടുക്കൽ സംവിധാനങ്ങൾ, മറ്റ് AI ടൂളുകൾ എന്നിവ പോലുള്ള മറ്റ് ഘടകങ്ങളുമായി LLM-കൾ സംയോജിപ്പിച്ച് ശക്തവും ഇഷ്ടാനുസൃതമാക്കാവുന്നതുമായ ആപ്ലിക്കേഷനുകൾ സൃഷ്ടിക്കുന്നതിന് ഇത് ഒരു മോഡുലറും വഴക്കമുള്ളതുമായ ചട്ടക്കൂട് നൽകുന്നു.

Mixtral-8x7B ഉപയോഗിച്ച് SageMaker-ൽ ഒരു RAG പൈപ്പ്ലൈൻ നിർമ്മിക്കുന്നതിലൂടെ ഞങ്ങൾ നടക്കുന്നു. ഒരു SageMaker നോട്ട്ബുക്കിൽ RAG ഉപയോഗിച്ച് കാര്യക്ഷമമായ QnA സിസ്റ്റം സൃഷ്ടിക്കാൻ BGE Large En എംബഡിംഗ് മോഡലിനൊപ്പം ഞങ്ങൾ Mixtral-8x7B ഇൻസ്ട്രക്റ്റ് ടെക്സ്റ്റ് ജനറേഷൻ മോഡൽ ഉപയോഗിക്കുന്നു. SageMaker ജമ്പ്‌സ്റ്റാർട്ട് വഴി LLM-കൾ വിന്യസിക്കുന്നത് തെളിയിക്കാൻ ഞങ്ങൾ ml.t3.medium ഉദാഹരണം ഉപയോഗിക്കുന്നു, അത് SageMaker-ജനറേറ്റുചെയ്‌ത API എൻഡ്‌പോയിൻ്റ് വഴി ആക്‌സസ് ചെയ്യാൻ കഴിയും. ഈ സജ്ജീകരണം LangChain ഉപയോഗിച്ച് വിപുലമായ RAG ടെക്നിക്കുകളുടെ പര്യവേക്ഷണം, പരീക്ഷണം, ഒപ്റ്റിമൈസേഷൻ എന്നിവ അനുവദിക്കുന്നു. RAG വർക്ക്ഫ്ലോയിലേക്ക് FAISS എംബഡിംഗ് സ്റ്റോറിൻ്റെ സംയോജനവും ഞങ്ങൾ ചിത്രീകരിക്കുന്നു, സിസ്റ്റത്തിൻ്റെ പ്രകടനം മെച്ചപ്പെടുത്തുന്നതിനായി എംബെഡ്ഡിംഗുകൾ സംഭരിക്കുന്നതിലും വീണ്ടെടുക്കുന്നതിലും അതിൻ്റെ പങ്ക് എടുത്തുകാണിക്കുന്നു.

ഞങ്ങൾ SageMaker നോട്ട്ബുക്കിൻ്റെ ഒരു ഹ്രസ്വ വാക്ക്ത്രൂ നടത്തുന്നു. കൂടുതൽ വിശദമായതും ഘട്ടം ഘട്ടമായുള്ള നിർദ്ദേശങ്ങൾക്കും, കാണുക SageMaker Jumpstart GitHub repo-യിൽ മിക്‌സ്‌ട്രലോടുകൂടിയ വിപുലമായ RAG പാറ്റേണുകൾ.

വിപുലമായ RAG പാറ്റേണുകളുടെ ആവശ്യകത

മനുഷ്യനെപ്പോലെയുള്ള ടെക്‌സ്‌റ്റ് പ്രോസസ്സ് ചെയ്യുന്നതിലും മനസ്സിലാക്കുന്നതിലും സൃഷ്‌ടിക്കുന്നതിലും LLM-കളുടെ നിലവിലെ കഴിവുകൾ മെച്ചപ്പെടുത്തുന്നതിന് വിപുലമായ RAG പാറ്റേണുകൾ അത്യന്താപേക്ഷിതമാണ്. ഡോക്യുമെൻ്റുകളുടെ വലുപ്പവും സങ്കീർണ്ണതയും വർദ്ധിക്കുന്നതിനനുസരിച്ച്, ഒരൊറ്റ എംബെഡിംഗിൽ ഡോക്യുമെൻ്റിൻ്റെ ഒന്നിലധികം വശങ്ങളെ പ്രതിനിധീകരിക്കുന്നത് പ്രത്യേകത നഷ്ടപ്പെടുന്നതിന് ഇടയാക്കും. ഒരു ഡോക്യുമെൻ്റിൻ്റെ പൊതുവായ സാരാംശം പിടിച്ചെടുക്കേണ്ടത് അത്യാവശ്യമാണെങ്കിലും, ഉള്ളിലെ വ്യത്യസ്തമായ ഉപ-സന്ദർഭങ്ങളെ തിരിച്ചറിയുകയും പ്രതിനിധീകരിക്കുകയും ചെയ്യുന്നത് ഒരുപോലെ നിർണായകമാണ്. വലിയ പ്രമാണങ്ങളുമായി പ്രവർത്തിക്കുമ്പോൾ നിങ്ങൾ പലപ്പോഴും അഭിമുഖീകരിക്കുന്ന ഒരു വെല്ലുവിളിയാണിത്. RAG-ലെ മറ്റൊരു വെല്ലുവിളി, വീണ്ടെടുക്കൽ സമയത്ത്, നിങ്ങളുടെ ഡോക്യുമെൻ്റ് സ്റ്റോറേജ് സിസ്റ്റം ഉൾപ്പെടുത്തുമ്പോൾ കൈകാര്യം ചെയ്യുന്ന നിർദ്ദിഷ്ട ചോദ്യങ്ങളെക്കുറിച്ച് നിങ്ങൾക്ക് അറിയില്ല എന്നതാണ്. ഇത് ഒരു ചോദ്യത്തിന് ഏറ്റവും പ്രസക്തമായ വിവരങ്ങൾ ടെക്‌സ്‌റ്റിന് കീഴിൽ അടക്കം ചെയ്‌തേക്കാം (സന്ദർഭ ഓവർഫ്ലോ). പരാജയം ലഘൂകരിക്കാനും നിലവിലുള്ള RAG ആർക്കിടെക്ചർ മെച്ചപ്പെടുത്താനും, വീണ്ടെടുക്കൽ പിശകുകൾ കുറയ്ക്കുന്നതിനും ഉത്തരത്തിൻ്റെ ഗുണനിലവാരം വർദ്ധിപ്പിക്കുന്നതിനും സങ്കീർണ്ണമായ ചോദ്യം കൈകാര്യം ചെയ്യൽ പ്രവർത്തനക്ഷമമാക്കുന്നതിനും നിങ്ങൾക്ക് വിപുലമായ RAG പാറ്റേണുകൾ (പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറും സന്ദർഭോചിതമായ കംപ്രഷനും) ഉപയോഗിക്കാം.

ഈ പോസ്റ്റിൽ ചർച്ച ചെയ്‌തിരിക്കുന്ന ടെക്‌നിക്കുകൾ ഉപയോഗിച്ച്, കൂടുതൽ കൃത്യവും സന്ദർഭോചിതവുമായ അവബോധമുള്ള പ്രതികരണങ്ങൾ നൽകാൻ നിങ്ങളുടെ അപേക്ഷയെ പ്രാപ്‌തമാക്കിക്കൊണ്ട് ബാഹ്യ വിജ്ഞാന വീണ്ടെടുക്കലും സംയോജനവുമായി ബന്ധപ്പെട്ട പ്രധാന വെല്ലുവിളികളെ നിങ്ങൾക്ക് നേരിടാൻ കഴിയും.

ഇനിപ്പറയുന്ന വിഭാഗങ്ങളിൽ, എങ്ങനെയെന്ന് ഞങ്ങൾ പര്യവേക്ഷണം ചെയ്യുന്നു പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറുകൾ ഒപ്പം സന്ദർഭോചിതമായ കംപ്രഷൻ ഞങ്ങൾ ചർച്ച ചെയ്ത ചില പ്രശ്നങ്ങൾ കൈകാര്യം ചെയ്യാൻ നിങ്ങളെ സഹായിക്കും.

പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ

മുമ്പത്തെ വിഭാഗത്തിൽ, വിപുലമായ ഡോക്യുമെൻ്റുകൾ കൈകാര്യം ചെയ്യുമ്പോൾ RAG ആപ്ലിക്കേഷനുകൾ നേരിടുന്ന വെല്ലുവിളികൾ ഞങ്ങൾ ഹൈലൈറ്റ് ചെയ്തു. ഈ വെല്ലുവിളികളെ നേരിടാൻ, പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറുകൾ ഇൻകമിംഗ് ഡോക്യുമെൻ്റുകളെ തരംതിരിക്കുകയും നിയോഗിക്കുകയും ചെയ്യുക മാതൃ പ്രമാണങ്ങൾ. ഈ ഡോക്യുമെൻ്റുകൾ അവയുടെ സമഗ്രമായ സ്വഭാവത്തിന് അംഗീകരിക്കപ്പെട്ടവയാണ്, എന്നാൽ എംബെഡിംഗുകൾക്കായി അവയുടെ യഥാർത്ഥ രൂപത്തിൽ നേരിട്ട് ഉപയോഗിക്കുന്നില്ല. ഒരു മുഴുവൻ ഡോക്യുമെൻ്റും ഒരൊറ്റ എംബെഡിംഗിലേക്ക് കംപ്രസ്സുചെയ്യുന്നതിനുപകരം, പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറുകൾ ഈ പാരൻ്റ് ഡോക്യുമെൻ്റുകളെ വിഭജിക്കുന്നു കുട്ടികളുടെ രേഖകൾ. ഓരോ ചൈൽഡ് ഡോക്യുമെൻ്റും വിശാലമായ പാരൻ്റ് ഡോക്യുമെൻ്റിൽ നിന്ന് വ്യത്യസ്‌ത വശങ്ങളോ വിഷയങ്ങളോ പിടിച്ചെടുക്കുന്നു. ഈ ചൈൽഡ് സെഗ്‌മെൻ്റുകളുടെ ഐഡൻ്റിഫിക്കേഷനുശേഷം, ഓരോന്നിനും വ്യക്തിഗത ഉൾച്ചേർക്കലുകൾ നിയോഗിക്കപ്പെടുന്നു, അവയുടെ നിർദ്ദിഷ്ട തീമാറ്റിക് സാരാംശം പിടിച്ചെടുക്കുന്നു (ഇനിപ്പറയുന്ന ഡയഗ്രം കാണുക). വീണ്ടെടുക്കൽ സമയത്ത്, പാരൻ്റ് ഡോക്യുമെൻ്റ് അഭ്യർത്ഥിക്കുന്നു. ഈ സാങ്കേതികത ടാർഗെറ്റുചെയ്‌തതും എന്നാൽ വിശാലമായതുമായ തിരയൽ കഴിവുകൾ പ്രദാനം ചെയ്യുന്നു, LLM-ന് വിശാലമായ വീക്ഷണം നൽകുന്നു. പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറുകൾ LLM-കൾക്ക് ഇരട്ടി നേട്ടം നൽകുന്നു: കൃത്യവും പ്രസക്തവുമായ വിവരങ്ങൾ വീണ്ടെടുക്കുന്നതിനുള്ള ചൈൽഡ് ഡോക്യുമെൻ്റ് ഉൾച്ചേർക്കലുകളുടെ പ്രത്യേകത, പ്രതികരണം സൃഷ്ടിക്കുന്നതിനുള്ള പാരൻ്റ് ഡോക്യുമെൻ്റുകളുടെ ആഭ്യർത്ഥന, ഇത് LLM-ൻ്റെ ഔട്ട്‌പുട്ടുകളെ ലേയേർഡും സമഗ്രവുമായ സന്ദർഭം കൊണ്ട് സമ്പന്നമാക്കുന്നു.

സന്ദർഭോചിതമായ കംപ്രഷൻ

നേരത്തെ ചർച്ച ചെയ്ത സന്ദർഭ ഓവർഫ്ലോ പ്രശ്നം പരിഹരിക്കാൻ, നിങ്ങൾക്ക് ഉപയോഗിക്കാം സന്ദർഭോചിതമായ കംപ്രഷൻ അന്വേഷണത്തിൻ്റെ സന്ദർഭവുമായി യോജിപ്പിച്ച് വീണ്ടെടുക്കുന്ന പ്രമാണങ്ങൾ കംപ്രസ്സുചെയ്യാനും ഫിൽട്ടർ ചെയ്യാനും, അതിനാൽ പ്രസക്തമായ വിവരങ്ങൾ മാത്രം സൂക്ഷിക്കുകയും പ്രോസസ്സ് ചെയ്യുകയും ചെയ്യുന്നു. പ്രാരംഭ ഡോക്യുമെൻ്റ് ലഭ്യമാക്കുന്നതിനുള്ള ഒരു അടിസ്ഥാന റിട്രീവർ, ഇനിപ്പറയുന്ന ഡയഗ്രാമിൽ ചിത്രീകരിച്ചിരിക്കുന്നതുപോലെ, ഈ പ്രമാണങ്ങൾ അവയുടെ ഉള്ളടക്കം പരിഹരിച്ച് അല്ലെങ്കിൽ പ്രസക്തിയെ അടിസ്ഥാനമാക്കി പൂർണ്ണമായും ഒഴിവാക്കിക്കൊണ്ട് അവയെ ശുദ്ധീകരിക്കുന്നതിനുള്ള ഒരു ഡോക്യുമെൻ്റ് കംപ്രസ്സറിൻ്റെ സംയോജനത്തിലൂടെയാണ് ഇത് നേടുന്നത്. സാന്ദർഭിക കംപ്രഷൻ റിട്രീവർ സുഗമമാക്കുന്ന ഈ സ്ട്രീംലൈൻഡ് സമീപനം, ഒരു കൂട്ടം വിവരങ്ങളിൽ നിന്ന് അത്യാവശ്യമായത് മാത്രം വേർതിരിച്ചെടുക്കാനും ഉപയോഗിക്കാനുമുള്ള ഒരു രീതി നൽകിക്കൊണ്ട് RAG ആപ്ലിക്കേഷൻ കാര്യക്ഷമത വർദ്ധിപ്പിക്കുന്നു. വിവരങ്ങളുടെ അമിതഭാരം, അപ്രസക്തമായ ഡാറ്റാ പ്രോസസ്സിംഗ് എന്നിവയുടെ പ്രശ്‌നത്തെ ഇത് കൈകാര്യം ചെയ്യുന്നു, ഇത് മെച്ചപ്പെട്ട പ്രതികരണ നിലവാരത്തിലേക്കും കൂടുതൽ ചെലവ് കുറഞ്ഞ LLM പ്രവർത്തനങ്ങളിലേക്കും സുഗമമായ മൊത്തത്തിലുള്ള വീണ്ടെടുക്കൽ പ്രക്രിയയിലേക്കും നയിക്കുന്നു. അടിസ്ഥാനപരമായി, ഇത് നിങ്ങളുടെ കയ്യിലുള്ള ചോദ്യത്തിന് അനുയോജ്യമായ വിവരങ്ങൾ നൽകുന്ന ഒരു ഫിൽട്ടറാണ്, മികച്ച പ്രകടനത്തിനും ഉപയോക്തൃ സംതൃപ്തിക്കും വേണ്ടി അവരുടെ RAG ആപ്ലിക്കേഷനുകൾ ഒപ്റ്റിമൈസ് ചെയ്യാൻ ലക്ഷ്യമിടുന്ന ഡെവലപ്പർമാർക്ക് ഇത് വളരെ ആവശ്യമായ ഉപകരണമാക്കി മാറ്റുന്നു.

മുൻവ്യവസ്ഥകൾ

നിങ്ങൾ SageMaker-ൽ പുതിയ ആളാണെങ്കിൽ, റഫർ ചെയ്യുക ആമസോൺ സേജ് മേക്കർ വികസന ഗൈഡ്.

നിങ്ങൾ പരിഹാരം ആരംഭിക്കുന്നതിന് മുമ്പ്, ഒരു AWS അക്കൗണ്ട് സൃഷ്ടിക്കുക. നിങ്ങൾ ഒരു AWS അക്കൗണ്ട് സൃഷ്ടിക്കുമ്പോൾ, അക്കൗണ്ടിലെ എല്ലാ AWS സേവനങ്ങളിലേക്കും ഉറവിടങ്ങളിലേക്കും പൂർണ്ണമായ ആക്‌സസ് ഉള്ള ഒരൊറ്റ സൈൻ-ഓൺ (SSO) ഐഡൻ്റിറ്റി നിങ്ങൾക്ക് ലഭിക്കും. ഈ ഐഡൻ്റിറ്റിയെ AWS അക്കൗണ്ട് എന്ന് വിളിക്കുന്നു റൂട്ട് യൂസർ.

എന്നതിലേക്ക് സൈൻ ഇൻ ചെയ്യുന്നു AWS മാനേജുമെന്റ് കൺസോൾ അക്കൗണ്ട് സൃഷ്‌ടിക്കാൻ നിങ്ങൾ ഉപയോഗിച്ച ഇമെയിൽ വിലാസവും പാസ്‌വേഡും ഉപയോഗിക്കുന്നത് നിങ്ങളുടെ അക്കൗണ്ടിലെ എല്ലാ AWS ഉറവിടങ്ങളിലേക്കും പൂർണ്ണമായ ആക്‌സസ് നൽകുന്നു. ദൈനംദിന ജോലികൾക്കായി, അഡ്‌മിനിസ്‌ട്രേറ്റീവ് ജോലികൾക്ക് പോലും റൂട്ട് ഉപയോക്താവിനെ ഉപയോഗിക്കരുത് എന്ന് ഞങ്ങൾ ശക്തമായി ശുപാർശ ചെയ്യുന്നു.

പകരം, പാലിക്കുക സുരക്ഷ മികച്ച കീഴ്‌വഴക്കങ്ങൾ in AWS ഐഡന്റിറ്റി, ആക്സസ് മാനേജുമെന്റ് (IAM), ഒപ്പം ഒരു അഡ്മിനിസ്ട്രേറ്റീവ് ഉപയോക്താവിനെയും ഗ്രൂപ്പിനെയും സൃഷ്ടിക്കുക. തുടർന്ന് റൂട്ട് ഉപയോക്തൃ ക്രെഡൻഷ്യലുകൾ സുരക്ഷിതമായി ലോക്ക് ചെയ്ത് കുറച്ച് അക്കൗണ്ട്, സർവീസ് മാനേജ്‌മെൻ്റ് ജോലികൾ മാത്രം ചെയ്യാൻ അവ ഉപയോഗിക്കുക.

Mixtral-8x7b മോഡലിന് ml.g5.48x വലിയ ഉദാഹരണം ആവശ്യമാണ്. 100-ലധികം വ്യത്യസ്ത ഓപ്പൺ സോഴ്‌സ്, മൂന്നാം കക്ഷി ഫൗണ്ടേഷൻ മോഡലുകൾ ആക്‌സസ് ചെയ്യാനും വിന്യസിക്കാനും SageMaker JumpStart ഒരു ലളിതമായ മാർഗം നൽകുന്നു. ഇതിനായി SageMaker JumpStart-ൽ നിന്ന് Mixtral-8x7B ഹോസ്റ്റുചെയ്യാൻ ഒരു എൻഡ്‌പോയിൻ്റ് സമാരംഭിക്കുക, എൻഡ്‌പോയിൻ്റ് ഉപയോഗത്തിനായി ml.g5.48x വലിയ ഉദാഹരണം ആക്‌സസ് ചെയ്യുന്നതിന് നിങ്ങൾ ഒരു സേവന ക്വാട്ട വർദ്ധിപ്പിക്കാൻ അഭ്യർത്ഥിക്കേണ്ടി വന്നേക്കാം. നിങ്ങൾക്ക് കഴിയും അഭ്യർത്ഥന സേവന ക്വാട്ട വർദ്ധിക്കുന്നു കൺസോൾ വഴി, AWS കമാൻഡ് ലൈൻ ഇന്റർഫേസ് (AWS CLI), അല്ലെങ്കിൽ ആ അധിക ഉറവിടങ്ങളിലേക്ക് പ്രവേശനം അനുവദിക്കുന്നതിനുള്ള API.

ഒരു SageMaker നോട്ട്ബുക്ക് ഇൻസ്റ്റൻസ് സജ്ജീകരിച്ച് ഡിപൻഡൻസികൾ ഇൻസ്റ്റാൾ ചെയ്യുക

ആരംഭിക്കുന്നതിന്, ഒരു SageMaker നോട്ട്ബുക്ക് ഉദാഹരണം സൃഷ്ടിച്ച് ആവശ്യമായ ഡിപൻഡൻസികൾ ഇൻസ്റ്റാൾ ചെയ്യുക. റഫർ ചെയ്യുക ഗിറ്റ്ഹബ് റെപ്പോ ഒരു വിജയകരമായ സജ്ജീകരണം ഉറപ്പാക്കാൻ. നിങ്ങൾ നോട്ട്ബുക്ക് ഉദാഹരണം സജ്ജീകരിച്ച ശേഷം, നിങ്ങൾക്ക് മോഡൽ വിന്യസിക്കാം.

നിങ്ങൾക്ക് ഇഷ്ടപ്പെട്ട സംയോജിത വികസന പരിതസ്ഥിതിയിൽ (IDE) പ്രാദേശികമായി നോട്ട്ബുക്ക് പ്രവർത്തിപ്പിക്കാം. നിങ്ങൾ ജൂപ്പിറ്റർ നോട്ട്ബുക്ക് ലാബ് ഇൻസ്റ്റാൾ ചെയ്തിട്ടുണ്ടെന്ന് ഉറപ്പാക്കുക.

മോഡൽ വിന്യസിക്കുക

SageMaker JumpStart-ൽ Mixtral-8X7B ഇൻസ്ട്രക്റ്റ് LLM മോഡൽ വിന്യസിക്കുക:

# Import the JumpStartModel class from the SageMaker JumpStart library
from sagemaker.jumpstart.model import JumpStartModel

# Specify the model ID for the HuggingFace Mixtral 8x7b Instruct LLM model
model_id = "huggingface-llm-mixtral-8x7b-instruct"
model = JumpStartModel(model_id=model_id)
llm_predictor = model.deploy()

SageMaker JumpStart-ൽ BGE Large En എംബഡിംഗ് മോഡൽ വിന്യസിക്കുക:

# Specify the model ID for the HuggingFace BGE Large EN Embedding model
model_id = "huggingface-sentencesimilarity-bge-large-en"
text_embedding_model = JumpStartModel(model_id=model_id)
embedding_predictor = text_embedding_model.deploy()

LangChain സജ്ജീകരിക്കുക

ആവശ്യമായ എല്ലാ ലൈബ്രറികളും ഇറക്കുമതി ചെയ്‌ത് Mixtral-8x7B മോഡലും BGE Large En embeddings മോഡലും വിന്യസിച്ച ശേഷം, നിങ്ങൾക്ക് ഇപ്പോൾ LangChain സജ്ജീകരിക്കാം. ഘട്ടം ഘട്ടമായുള്ള നിർദ്ദേശങ്ങൾക്കായി, കാണുക ഗിറ്റ്ഹബ് റെപ്പോ.

ഡാറ്റ തയ്യാറാക്കൽ

ഈ പോസ്റ്റിൽ, QnA നടപ്പിലാക്കുന്നതിനായി ഞങ്ങൾ ഷെയർഹോൾഡർമാർക്കുള്ള ആമസോണിൻ്റെ നിരവധി വർഷത്തെ കത്തുകൾ ഒരു ടെക്സ്റ്റ് കോർപ്പസ് ആയി ഉപയോഗിക്കുന്നു. ഡാറ്റ തയ്യാറാക്കുന്നതിനുള്ള കൂടുതൽ വിശദമായ ഘട്ടങ്ങൾക്ക്, കാണുക ഗിറ്റ്ഹബ് റെപ്പോ.

ചോദ്യത്തിനുള്ള ഉത്തരം

ഡാറ്റ തയ്യാറാക്കിക്കഴിഞ്ഞാൽ, നിങ്ങൾക്ക് LangChain നൽകുന്ന റാപ്പർ ഉപയോഗിക്കാം, അത് വെക്റ്റർ സ്റ്റോറിന് ചുറ്റും പൊതിഞ്ഞ് LLM-നായി ഇൻപുട്ട് എടുക്കുന്നു. ഈ റാപ്പർ ഇനിപ്പറയുന്ന ഘട്ടങ്ങൾ ചെയ്യുന്നു:

  1. ഇൻപുട്ട് ചോദ്യം എടുക്കുക.
  2. ഒരു ചോദ്യം ഉൾച്ചേർക്കൽ സൃഷ്ടിക്കുക.
  3. പ്രസക്തമായ രേഖകൾ കൊണ്ടുവരിക.
  4. പ്രമാണങ്ങളും ചോദ്യവും ഒരു പ്രോംപ്റ്റിൽ ഉൾപ്പെടുത്തുക.
  5. പ്രോംപ്റ്റിനൊപ്പം മോഡൽ അഭ്യർത്ഥിക്കുകയും വായിക്കാൻ കഴിയുന്ന രീതിയിൽ ഉത്തരം സൃഷ്ടിക്കുകയും ചെയ്യുക.

ഇപ്പോൾ വെക്റ്റർ സ്റ്റോർ നിലവിലുണ്ട്, നിങ്ങൾക്ക് ചോദ്യങ്ങൾ ചോദിക്കാൻ തുടങ്ങാം:

prompt_template = """<s>[INST]
{query}
[INST]"""
PROMPT = PromptTemplate(
    template=prompt_template, input_variables=["query"]
)
query = "How has AWS evolved?"
answer = wrapper_store_faiss.query(question=PROMPT.format(query=query), llm=llm)
print(answer)
AWS, or Amazon Web Services, has evolved significantly since its initial launch in 2006. It started as a feature-poor service, offering only one instance size, in one data center, in one region of the world, with Linux operating system instances only. There was no monitoring, load balancing, auto-scaling, or persistent storage at the time. However, AWS had a successful launch and has since grown into a multi-billion-dollar service.

Over the years, AWS has added numerous features and services, with over 3,300 new ones launched in 2022 alone. They have expanded their offerings to include Windows, monitoring, load balancing, auto-scaling, and persistent storage. AWS has also made significant investments in long-term inventions that have changed what's possible in technology infrastructure.

One example of this is their investment in chip development. AWS has also seen a robust new customer pipeline and active migrations, with many companies opting to move to AWS for the agility, innovation, cost-efficiency, and security benefits it offers. AWS has transformed how customers, from start-ups to multinational companies to public sector organizations, manage their technology infrastructure.

റെഗുലർ റിട്രീവർ ചെയിൻ

മുമ്പത്തെ സാഹചര്യത്തിൽ, നിങ്ങളുടെ ചോദ്യത്തിന് സന്ദർഭോചിതമായ ഉത്തരം ലഭിക്കുന്നതിനുള്ള വേഗമേറിയതും ലളിതവുമായ മാർഗ്ഗം ഞങ്ങൾ പര്യവേക്ഷണം ചെയ്തു. ഇപ്പോൾ നമുക്ക് RetrievalQA-യുടെ സഹായത്തോടെ കൂടുതൽ ഇഷ്ടാനുസൃതമാക്കാവുന്ന ഒരു ഓപ്ഷൻ നോക്കാം, അവിടെ ചെയിൻ_ടൈപ്പ് പാരാമീറ്റർ ഉപയോഗിച്ച് പ്രോംപ്റ്റിലേക്ക് എങ്ങനെ ഡോക്യുമെൻ്റുകൾ ചേർക്കണമെന്ന് നിങ്ങൾക്ക് ഇഷ്ടാനുസൃതമാക്കാം. കൂടാതെ, എത്ര പ്രസക്തമായ ഡോക്യുമെൻ്റുകൾ വീണ്ടെടുക്കണം എന്നത് നിയന്ത്രിക്കുന്നതിന്, വ്യത്യസ്ത ഔട്ട്പുട്ടുകൾ കാണുന്നതിന് നിങ്ങൾക്ക് ഇനിപ്പറയുന്ന കോഡിലെ k പാരാമീറ്റർ മാറ്റാവുന്നതാണ്. പല സാഹചര്യങ്ങളിലും, ഉത്തരം സൃഷ്ടിക്കാൻ LLM ഉപയോഗിച്ച ഉറവിട ഡോക്യുമെൻ്റുകൾ ഏതൊക്കെയാണെന്ന് അറിയാൻ നിങ്ങൾ ആഗ്രഹിച്ചേക്കാം. ഉപയോഗിച്ച് നിങ്ങൾക്ക് ആ രേഖകൾ ഔട്ട്പുട്ടിൽ ലഭിക്കും return_source_documents, ഇത് LLM പ്രോംപ്റ്റിൻ്റെ സന്ദർഭത്തിലേക്ക് ചേർത്ത പ്രമാണങ്ങൾ തിരികെ നൽകുന്നു. മോഡലിന് പ്രത്യേകമായേക്കാവുന്ന ഒരു ഇഷ്‌ടാനുസൃത പ്രോംപ്റ്റ് ടെംപ്ലേറ്റ് നൽകാനും RetrievalQA നിങ്ങളെ അനുവദിക്കുന്നു.

from langchain.chains import RetrievalQA

prompt_template = """<s>[INST]
Use the following pieces of context to provide a concise answer to the question at the end. If you don't know the answer, just say that you don't know, don't try to make up an answer.

{context}

Question: {question}

[INST]"""
PROMPT = PromptTemplate(
    template=prompt_template, input_variables=["context", "question"]
)

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=vectorstore_faiss.as_retriever(
        search_type="similarity", search_kwargs={"k": 3}
    ),
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

നമുക്ക് ഒരു ചോദ്യം ചോദിക്കാം:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS (Amazon Web Services) evolved from an initially unprofitable investment to an $85B annual revenue run rate business with strong profitability, offering a wide range of services and features, and becoming a significant part of Amazon's portfolio. Despite facing skepticism and short-term headwinds, AWS continued to innovate, attract new customers, and migrate active customers, offering benefits such as agility, innovation, cost-efficiency, and security. AWS also expanded its long-term investments, including chip development, to provide new capabilities and change what's possible for its customers.

പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ ചെയിൻ

ൻ്റെ സഹായത്തോടെ കൂടുതൽ വിപുലമായ RAG ഓപ്ഷൻ നോക്കാം പേരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ. ഡോക്യുമെൻ്റ് വീണ്ടെടുക്കലുമായി പ്രവർത്തിക്കുമ്പോൾ, കൃത്യമായ എംബെഡിംഗുകൾക്കായി ഒരു ഡോക്യുമെൻ്റിൻ്റെ ചെറിയ കഷണങ്ങൾ സംഭരിക്കുന്നതിനും കൂടുതൽ സന്ദർഭം സംരക്ഷിക്കുന്നതിനായി വലിയ ഡോക്യുമെൻ്റുകൾക്കും ഇടയിൽ നിങ്ങൾക്ക് ഒരു ട്രേഡ്-ഓഫ് നേരിടേണ്ടി വന്നേക്കാം. ഡാറ്റയുടെ ചെറിയ ഭാഗങ്ങൾ വിഭജിച്ച് സംഭരിച്ചുകൊണ്ട് പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ ആ ബാലൻസ് നേടുന്നു.

ഞങ്ങൾ ഒരു ഉപയോഗിക്കുന്നു parent_splitter ഒറിജിനൽ ഡോക്യുമെൻ്റുകളെ പാരൻ്റ് ഡോക്യുമെൻ്റുകൾ എന്ന് വിളിക്കുന്ന വലിയ ഭാഗങ്ങളായി വിഭജിക്കാൻ, എ child_splitter യഥാർത്ഥ പ്രമാണങ്ങളിൽ നിന്ന് ചെറിയ ചൈൽഡ് ഡോക്യുമെൻ്റുകൾ സൃഷ്ടിക്കാൻ:

# This text splitter is used to create the parent documents
parent_splitter = RecursiveCharacterTextSplitter(chunk_size=2000)

# This text splitter is used to create the child documents
# It should create documents smaller than the parent
child_splitter = RecursiveCharacterTextSplitter(chunk_size=400)

# The vectorstore to use to index the child chunks
vectorstore_faiss = FAISS.from_documents(
    child_splitter.split_documents(documents),
    sagemaker_embeddings,
)

ചൈൽഡ് ഡോക്യുമെൻ്റുകൾ എംബെഡിംഗുകൾ ഉപയോഗിച്ച് ഒരു വെക്റ്റർ സ്റ്റോറിൽ സൂചികയിലാക്കുന്നു. സമാനതയെ അടിസ്ഥാനമാക്കി പ്രസക്തമായ കുട്ടികളുടെ രേഖകൾ കാര്യക്ഷമമായി വീണ്ടെടുക്കാൻ ഇത് പ്രാപ്തമാക്കുന്നു. പ്രസക്തമായ വിവരങ്ങൾ വീണ്ടെടുക്കാൻ, പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ ആദ്യം ചൈൽഡ് ഡോക്യുമെൻ്റുകൾ വെക്റ്റർ സ്റ്റോറിൽ നിന്ന് ലഭ്യമാക്കുന്നു. അത് ആ ചൈൽഡ് ഡോക്യുമെൻ്റുകൾക്കായുള്ള പാരൻ്റ് ഐഡികൾ നോക്കുകയും അനുബന്ധ വലിയ പാരൻ്റ് ഡോക്യുമെൻ്റുകൾ തിരികെ നൽകുകയും ചെയ്യുന്നു.

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

നമുക്ക് ഒരു ചോദ്യം ചോദിക്കാം:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS (Amazon Web Services) started with a feature-poor initial launch of the Elastic Compute Cloud (EC2) service in 2006, providing only one instance size, in one data center, in one region of the world, with Linux operating system instances only, and without many key features like monitoring, load balancing, auto-scaling, or persistent storage. However, AWS's success allowed them to quickly iterate and add the missing capabilities, eventually expanding to offer various flavors, sizes, and optimizations of compute, storage, and networking, as well as developing their own chips (Graviton) to push price and performance further. AWS's iterative innovation process required significant investments in financial and people resources over 20 years, often well in advance of when it would pay out, to meet customer needs and improve long-term customer experiences, loyalty, and returns for shareholders.

സന്ദർഭോചിതമായ കംപ്രഷൻ ചെയിൻ

വിളിക്കപ്പെടുന്ന മറ്റൊരു വിപുലമായ RAG ഓപ്ഷൻ നോക്കാം സന്ദർഭോചിതമായ കംപ്രഷൻ. വീണ്ടെടുക്കലിലെ ഒരു വെല്ലുവിളി, സാധാരണയായി നിങ്ങൾ സിസ്റ്റത്തിലേക്ക് ഡാറ്റ ഉൾപ്പെടുത്തുമ്പോൾ നിങ്ങളുടെ ഡോക്യുമെൻ്റ് സ്റ്റോറേജ് സിസ്റ്റം അഭിമുഖീകരിക്കുന്ന നിർദ്ദിഷ്ട ചോദ്യങ്ങൾ ഞങ്ങൾക്കറിയില്ല എന്നതാണ്. ഇതിനർത്ഥം, ഒരു അന്വേഷണത്തിന് ഏറ്റവും പ്രസക്തമായ വിവരങ്ങൾ, അപ്രസക്തമായ ധാരാളം ടെക്‌സ്‌റ്റുകളുള്ള ഒരു ഡോക്യുമെൻ്റിൽ അടക്കം ചെയ്‌തേക്കാം എന്നാണ്. നിങ്ങളുടെ അപേക്ഷയിലൂടെ ആ പൂർണ്ണ പ്രമാണം കൈമാറുന്നത് കൂടുതൽ ചെലവേറിയ LLM കോളുകളിലേക്കും മോശം പ്രതികരണങ്ങളിലേക്കും നയിച്ചേക്കാം.

ഒരു ഡോക്യുമെൻ്റ് സ്റ്റോറേജ് സിസ്റ്റത്തിൽ നിന്ന് പ്രസക്തമായ വിവരങ്ങൾ വീണ്ടെടുക്കുന്നതിനുള്ള വെല്ലുവിളിയെ സന്ദർഭോചിതമായ കംപ്രഷൻ റിട്രീവർ അഭിസംബോധന ചെയ്യുന്നു, അവിടെ പ്രസക്തമായ ഡാറ്റ ധാരാളം ടെക്‌സ്‌റ്റുകൾ അടങ്ങിയ ഡോക്യുമെൻ്റുകൾക്കുള്ളിൽ അടക്കം ചെയ്‌തേക്കാം. നൽകിയിരിക്കുന്ന അന്വേഷണ സന്ദർഭത്തെ അടിസ്ഥാനമാക്കി വീണ്ടെടുത്ത പ്രമാണങ്ങൾ കംപ്രസ്സുചെയ്‌ത് ഫിൽട്ടർ ചെയ്യുന്നതിലൂടെ, ഏറ്റവും പ്രസക്തമായ വിവരങ്ങൾ മാത്രമേ തിരികെ നൽകൂ.

സന്ദർഭോചിതമായ കംപ്രഷൻ റിട്രീവർ ഉപയോഗിക്കുന്നതിന്, നിങ്ങൾക്ക് ഇത് ആവശ്യമാണ്:

  • ഒരു ബേസ് റിട്രീവർ - അന്വേഷണത്തെ അടിസ്ഥാനമാക്കി സ്റ്റോറേജ് സിസ്റ്റത്തിൽ നിന്ന് പ്രമാണങ്ങൾ ലഭ്യമാക്കുന്ന പ്രാരംഭ റിട്രീവറാണിത്
  • ഒരു ഡോക്യുമെൻ്റ് കംപ്രസർ - ഈ ഘടകം തുടക്കത്തിൽ വീണ്ടെടുത്ത ഡോക്യുമെൻ്റുകൾ എടുത്ത് വ്യക്തിഗത ഡോക്യുമെൻ്റുകളുടെ ഉള്ളടക്കം കുറയ്ക്കുകയോ അല്ലെങ്കിൽ അപ്രസക്തമായ പ്രമാണങ്ങൾ മൊത്തത്തിൽ ഒഴിവാക്കുകയോ ചെയ്തുകൊണ്ട്, പ്രസക്തി നിർണ്ണയിക്കാൻ അന്വേഷണ സന്ദർഭം ഉപയോഗിച്ച് അവയെ ചുരുക്കുന്നു.

ഒരു LLM ചെയിൻ എക്സ്ട്രാക്റ്റർ ഉപയോഗിച്ച് സന്ദർഭോചിതമായ കംപ്രഷൻ ചേർക്കുന്നു

ആദ്യം, നിങ്ങളുടെ ബേസ് റിട്രീവർ ഒരു ഉപയോഗിച്ച് പൊതിയുക ContextualCompressionRetriever. നിങ്ങൾ ഒരു ചേർക്കും LLMCchainExtractor, ഇത് ആദ്യം തിരികെ നൽകിയ ഡോക്യുമെൻ്റുകൾ ആവർത്തിക്കുകയും ഓരോന്നിൽ നിന്നും അന്വേഷണത്തിന് പ്രസക്തമായ ഉള്ളടക്കം മാത്രം വേർതിരിച്ചെടുക്കുകയും ചെയ്യും.

from langchain.retrievers import ContextualCompressionRetrieverfrom langchain.retrievers.document_compressors import LLMChainExtractor

text_splitter = RecursiveCharacterTextSplitter(
    # Set a really small chunk size, just to show.
    chunk_size=1000,
    chunk_overlap=100,
)

docs = text_splitter.split_documents(documents)
retriever = FAISS.from_documents(
    docs,
    sagemaker_embeddings,
).as_retriever()

compressor = LLMChainExtractor.from_llm(llm)
compression_retriever = ContextualCompressionRetriever(
    base_compressor=compressor, base_retriever=retriever
)

compressed_docs = compression_retriever.get_relevant_documents(
    "How was Amazon impacted by COVID-19?"
)

ഉപയോഗിച്ച് ചെയിൻ ആരംഭിക്കുക ContextualCompressionRetriever ഒരു കൂടെ LLMChainExtractor വഴി പ്രോംപ്റ്റ് കടന്നുപോകുക chain_type_kwargs വാദം.

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=compression_retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

നമുക്ക് ഒരു ചോദ്യം ചോദിക്കാം:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS evolved by starting as a small project inside Amazon, requiring significant capital investment and facing skepticism from both inside and outside the company. However, AWS had a head start on potential competitors and believed in the value it could bring to customers and Amazon. AWS made a long-term commitment to continue investing, resulting in over 3,300 new features and services launched in 2022. AWS has transformed how customers manage their technology infrastructure and has become an $85B annual revenue run rate business with strong profitability. AWS has also continuously improved its offerings, such as enhancing EC2 with additional features and services after its initial launch.

ഒരു LLM ചെയിൻ ഫിൽട്ടർ ഉപയോഗിച്ച് പ്രമാണങ്ങൾ ഫിൽട്ടർ ചെയ്യുക

ദി LLMchainFilter ഡോക്യുമെൻ്റ് ഉള്ളടക്കത്തിൽ കൃത്രിമം കാണിക്കാതെ, ആദ്യം വീണ്ടെടുത്ത ഡോക്യുമെൻ്റുകളിൽ ഏതൊക്കെ ഫിൽട്ടർ ചെയ്യണം, ഏതൊക്കെ തിരികെ നൽകണം എന്ന് തീരുമാനിക്കാൻ LLM ചെയിൻ ഉപയോഗിക്കുന്ന അൽപ്പം ലളിതവും എന്നാൽ കൂടുതൽ കരുത്തുറ്റതുമായ കംപ്രസ്സറാണ് ഇത്:

from langchain.retrievers.document_compressors import LLMChainFilter

_filter = LLMChainFilter.from_llm(llm)
compression_retriever = ContextualCompressionRetriever(
    base_compressor=_filter, base_retriever=retriever
)

compressed_docs = compression_retriever.get_relevant_documents(
    "How was Amazon impacted by COVID-19?"
)
print(compressed_docs)

ഉപയോഗിച്ച് ചെയിൻ ആരംഭിക്കുക ContextualCompressionRetriever ഒരു കൂടെ LLMChainFilter വഴി പ്രോംപ്റ്റ് കടന്നുപോകുക chain_type_kwargs വാദം.

qa = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=compression_retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": PROMPT}
)

നമുക്ക് ഒരു ചോദ്യം ചോദിക്കാം:

query = "How did AWS evolve?"
result = qa({"query": query})
print(result['result'])
AWS (Amazon Web Services) evolved by initially launching feature-poor but iterating quickly based on customer feedback to add necessary capabilities. This approach allowed AWS to launch EC2 in 2006 with limited features and then continuously add new functionalities, such as additional instance sizes, data centers, regions, operating system options, monitoring tools, load balancing, auto-scaling, and persistent storage. Over time, AWS transformed from a feature-poor service to a multi-billion-dollar business by focusing on customer needs, agility, innovation, cost-efficiency, and security. AWS now has an $85B annual revenue run rate and offers over 3,300 new features and services each year, catering to a wide range of customers from start-ups to multinational companies and public sector organizations.

ഫലങ്ങൾ താരതമ്യം ചെയ്യുക

സാങ്കേതികതയെ അടിസ്ഥാനമാക്കിയുള്ള വ്യത്യസ്ത ചോദ്യങ്ങളിൽ നിന്നുള്ള ഫലങ്ങൾ ഇനിപ്പറയുന്ന പട്ടിക താരതമ്യം ചെയ്യുന്നു.

സന്വദായം ചോദ്യം 1 ചോദ്യം 2 താരതമ്യം
AWS എങ്ങനെയാണ് വികസിച്ചത്? എന്തുകൊണ്ടാണ് ആമസോൺ വിജയിക്കുന്നത്?
റെഗുലർ റിട്രീവർ ചെയിൻ ഔട്ട്പുട്ട് AWS (Amazon Web Services) തുടക്കത്തിൽ ലാഭകരമല്ലാത്ത നിക്ഷേപത്തിൽ നിന്ന് $85B വാർഷിക വരുമാന റൺ റേറ്റ് ബിസിനസ്സായി വികസിച്ചു, ശക്തമായ ലാഭവും, വിപുലമായ സേവനങ്ങളും സവിശേഷതകളും വാഗ്ദാനം ചെയ്യുന്നു, കൂടാതെ ആമസോണിൻ്റെ പോർട്ട്‌ഫോളിയോയുടെ ഒരു പ്രധാന ഭാഗമാകുകയും ചെയ്തു. സംശയങ്ങളും ഹ്രസ്വകാല തലകറക്കങ്ങളും നേരിടേണ്ടി വന്നിട്ടും, AWS നവീകരണം, പുതിയ ഉപഭോക്താക്കളെ ആകർഷിക്കുക, സജീവമായ ഉപഭോക്താക്കളെ മൈഗ്രേറ്റ് ചെയ്യുക, ചടുലത, നവീകരണം, ചെലവ്-കാര്യക്ഷമത, സുരക്ഷ തുടങ്ങിയ ആനുകൂല്യങ്ങൾ വാഗ്ദാനം ചെയ്യുന്നത് തുടർന്നു. പുതിയ കഴിവുകൾ നൽകുന്നതിനും ഉപഭോക്താക്കൾക്ക് സാധ്യമായ കാര്യങ്ങൾ മാറ്റുന്നതിനുമായി ചിപ്പ് വികസനം ഉൾപ്പെടെയുള്ള ദീർഘകാല നിക്ഷേപങ്ങളും AWS വിപുലീകരിച്ചു. ടെക്‌നോളജി ഇൻഫ്രാസ്ട്രക്ചർ സേവനങ്ങൾ, ഡിജിറ്റൽ റീഡിംഗ് ഉപകരണങ്ങൾ, വോയ്‌സ്-ഡ്രൈവ് പേഴ്‌സണൽ അസിസ്റ്റൻ്റുകൾ, മൂന്നാം കക്ഷി മാർക്കറ്റ് പ്ലേസ് പോലുള്ള പുതിയ ബിസിനസ്സ് മോഡലുകൾ എന്നിങ്ങനെയുള്ള പുതിയ മേഖലകളിലേക്കുള്ള തുടർച്ചയായ നവീകരണവും വിപുലീകരണവും കാരണം ആമസോൺ വിജയിച്ചു. അതിൻ്റെ പൂർത്തീകരണത്തിൻ്റെയും ഗതാഗത ശൃംഖലയുടെയും ദ്രുതഗതിയിലുള്ള വിപുലീകരണത്തിൽ കാണുന്നതുപോലെ, പ്രവർത്തനങ്ങൾ വേഗത്തിൽ സ്കെയിൽ ചെയ്യാനുള്ള അതിൻ്റെ കഴിവും അതിൻ്റെ വിജയത്തിന് സംഭാവന ചെയ്യുന്നു. കൂടാതെ, ആമസോണിൻ്റെ ഒപ്റ്റിമൈസേഷനിലും അതിൻ്റെ പ്രക്രിയകളിലെ കാര്യക്ഷമത നേട്ടത്തിലും ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നത് ഉൽപ്പാദനക്ഷമത മെച്ചപ്പെടുത്തുന്നതിനും ചെലവ് കുറയ്ക്കുന്നതിനും കാരണമായി. ആമസോൺ ബിസിനസ്സിൻ്റെ ഉദാഹരണം, വിവിധ മേഖലകളിൽ ഇ-കൊമേഴ്‌സ്, ലോജിസ്റ്റിക്‌സ് ശക്തികൾ പ്രയോജനപ്പെടുത്താനുള്ള കമ്പനിയുടെ കഴിവ് എടുത്തുകാണിക്കുന്നു. റെഗുലർ റിട്രീവർ ശൃംഖലയിൽ നിന്നുള്ള പ്രതികരണങ്ങളെ അടിസ്ഥാനമാക്കി, അത് ദീർഘമായ ഉത്തരങ്ങൾ നൽകുന്നുണ്ടെങ്കിലും, അത് സന്ദർഭ ഓവർഫ്ലോയിൽ നിന്ന് കഷ്ടപ്പെടുന്നതും നൽകിയ ചോദ്യത്തോട് പ്രതികരിക്കുന്നതുമായി ബന്ധപ്പെട്ട് കോർപ്പസിൽ നിന്നുള്ള കാര്യമായ വിശദാംശങ്ങളൊന്നും പരാമർശിക്കുന്നതിൽ പരാജയപ്പെടുന്നതും ഞങ്ങൾ ശ്രദ്ധിക്കുന്നു. പതിവ് വീണ്ടെടുക്കൽ ശൃംഖലയ്ക്ക് ആഴത്തിലുള്ളതോ സന്ദർഭോചിതമായ ഉൾക്കാഴ്ചയോ ഉപയോഗിച്ച് സൂക്ഷ്മതകൾ ക്യാപ്‌ചർ ചെയ്യാൻ കഴിയില്ല, ഡോക്യുമെൻ്റിൻ്റെ നിർണായക വശങ്ങൾ നഷ്‌ടപ്പെടാൻ സാധ്യതയുണ്ട്.
പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ ഔട്ട്പുട്ട് AWS (Amazon Web Services) ആരംഭിച്ചത് 2-ൽ ഇലാസ്റ്റിക് കമ്പ്യൂട്ട് ക്ലൗഡ് (EC2006) സേവനത്തിൻ്റെ ഫീച്ചർ-മോശമായ പ്രാരംഭ സമാരംഭത്തോടെയാണ്, ഒരു ഡാറ്റാ സെൻ്ററിൽ, ലോകത്തിൻ്റെ ഒരു പ്രദേശത്ത്, ലിനക്സ് ഓപ്പറേറ്റിംഗ് സിസ്റ്റം സംഭവങ്ങൾ മാത്രം ഉപയോഗിച്ച് ഒരു ഇൻസ്റ്റൻസ് സൈസ് മാത്രം നൽകുന്നു. , കൂടാതെ നിരീക്ഷണം, ലോഡ് ബാലൻസിങ്, യാന്ത്രിക-സ്കെയിലിംഗ് അല്ലെങ്കിൽ സ്ഥിരമായ സംഭരണം പോലുള്ള നിരവധി പ്രധാന സവിശേഷതകൾ ഇല്ലാതെ. എന്നിരുന്നാലും, AWS-ൻ്റെ വിജയം, നഷ്ടപ്പെട്ട കഴിവുകൾ വേഗത്തിൽ ആവർത്തിക്കാനും ചേർക്കാനും അവരെ അനുവദിച്ചു, ഒടുവിൽ കമ്പ്യൂട്ട്, സ്റ്റോറേജ്, നെറ്റ്‌വർക്കിംഗ് എന്നിവയുടെ വിവിധ സുഗന്ധങ്ങൾ, വലുപ്പങ്ങൾ, ഒപ്റ്റിമൈസേഷനുകൾ എന്നിവ നൽകാനും അതുപോലെ തന്നെ വിലയും പ്രകടനവും വർദ്ധിപ്പിക്കുന്നതിന് അവരുടെ സ്വന്തം ചിപ്പുകൾ (ഗ്രാവിറ്റൺ) വികസിപ്പിക്കാനും വികസിപ്പിച്ചു. . ഉപഭോക്തൃ ആവശ്യങ്ങൾ നിറവേറ്റുന്നതിനും ദീർഘകാല ഉപഭോക്തൃ അനുഭവങ്ങൾ, ലോയൽറ്റി, ഷെയർഹോൾഡർമാർക്കുള്ള ആദായം എന്നിവ മെച്ചപ്പെടുത്തുന്നതിനും, AWS-ൻ്റെ ആവർത്തന നവീകരണ പ്രക്രിയയ്ക്ക് 20 വർഷത്തിലേറെയായി സാമ്പത്തിക, ജനകീയ വിഭവങ്ങളിൽ കാര്യമായ നിക്ഷേപം ആവശ്യമാണ്. നിരന്തരം നവീകരിക്കാനും മാറിക്കൊണ്ടിരിക്കുന്ന വിപണി സാഹചര്യങ്ങളുമായി പൊരുത്തപ്പെടാനും വിവിധ വിപണി വിഭാഗങ്ങളിലെ ഉപഭോക്തൃ ആവശ്യങ്ങൾ നിറവേറ്റാനുമുള്ള കഴിവ് കാരണം ആമസോൺ വിജയിക്കുന്നു. ബിസിനസ് ഉപഭോക്താക്കൾക്ക് തിരഞ്ഞെടുക്കൽ, മൂല്യം, സൗകര്യങ്ങൾ എന്നിവ നൽകിക്കൊണ്ട് വാർഷിക മൊത്ത വിൽപ്പനയിൽ ഏകദേശം $35B എന്ന നിലയിൽ വളർന്ന ആമസോൺ ബിസിനസിൻ്റെ വിജയത്തിൽ ഇത് വ്യക്തമാണ്. ഇ-കൊമേഴ്‌സ്, ലോജിസ്റ്റിക് കഴിവുകൾ എന്നിവയിലെ ആമസോണിൻ്റെ നിക്ഷേപങ്ങൾ, ബൈ വിത്ത് പ്രൈം പോലുള്ള സേവനങ്ങൾ സൃഷ്ടിക്കുന്നതിനും പ്രാപ്‌തമാക്കി, ഇത് നേരിട്ട് ഉപഭോക്തൃ വെബ്‌സൈറ്റുകളുള്ള വ്യാപാരികളെ കാഴ്ചകളിൽ നിന്ന് വാങ്ങലുകളിലേക്ക് പരിവർത്തനം ചെയ്യാൻ സഹായിക്കുന്നു. പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവർ, AWS-ൻ്റെ വളർച്ചാ തന്ത്രത്തിൻ്റെ പ്രത്യേകതകളിലേക്ക് ആഴത്തിൽ പരിശോധിക്കുന്നു, ഉപഭോക്തൃ ഫീഡ്‌ബാക്കിനെ അടിസ്ഥാനമാക്കി പുതിയ ഫീച്ചറുകൾ ചേർക്കുന്നതിനുള്ള ആവർത്തന പ്രക്രിയയും ഫീച്ചർ-മോശമായ പ്രാരംഭ ലോഞ്ചിൽ നിന്ന് ഒരു പ്രബലമായ മാർക്കറ്റ് സ്ഥാനത്തേക്കുള്ള വിശദമായ യാത്രയും ഉൾപ്പെടെ, സന്ദർഭോചിതമായ പ്രതികരണം നൽകുന്നു. . സാങ്കേതിക കണ്ടുപിടുത്തങ്ങളും വിപണി തന്ത്രവും മുതൽ സംഘടനാ കാര്യക്ഷമതയും ഉപഭോക്തൃ ശ്രദ്ധയും വരെയുള്ള വിവിധ വശങ്ങൾ പ്രതികരണങ്ങൾ ഉൾക്കൊള്ളുന്നു, ഉദാഹരണങ്ങൾക്കൊപ്പം വിജയത്തിന് സംഭാവന ചെയ്യുന്ന ഘടകങ്ങളുടെ സമഗ്രമായ വീക്ഷണം നൽകുന്നു. പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറിൻ്റെ ടാർഗെറ്റുചെയ്‌തതും എന്നാൽ വിശാലമായതുമായ തിരയൽ കഴിവുകളാണ് ഇതിന് കാരണം.
LLM ചെയിൻ എക്സ്ട്രാക്റ്റർ: സന്ദർഭോചിതമായ കംപ്രഷൻ ഔട്ട്പുട്ട് ആമസോണിനുള്ളിൽ ഒരു ചെറിയ പ്രോജക്റ്റായി ആരംഭിച്ച് AWS വികസിച്ചു, ഗണ്യമായ മൂലധന നിക്ഷേപം ആവശ്യമാണ്, കൂടാതെ കമ്പനിക്ക് അകത്തും പുറത്തും നിന്നുള്ള സംശയങ്ങൾ അഭിമുഖീകരിക്കുന്നു. എന്നിരുന്നാലും, AWS ന് സാധ്യതയുള്ള എതിരാളികളിൽ ഒരു തുടക്കം ഉണ്ടായിരുന്നു, മാത്രമല്ല അത് ഉപഭോക്താക്കളിലേക്കും ആമസോണിലേക്കും കൊണ്ടുവരാൻ കഴിയുന്ന മൂല്യത്തിൽ വിശ്വസിച്ചു. നിക്ഷേപം തുടരാൻ AWS ദീർഘകാല പ്രതിജ്ഞാബദ്ധത ഉണ്ടാക്കി, അതിൻ്റെ ഫലമായി 3,300-ലധികം പുതിയ ഫീച്ചറുകളും സേവനങ്ങളും 2022-ൽ സമാരംഭിച്ചു. ഉപഭോക്താക്കൾ അവരുടെ ടെക്നോളജി ഇൻഫ്രാസ്ട്രക്ചർ കൈകാര്യം ചെയ്യുന്ന രീതിയെ AWS മാറ്റിമറിക്കുകയും ശക്തമായ ലാഭക്ഷമതയുള്ള $85B വാർഷിക വരുമാന റൺ റേറ്റ് ബിസിനസായി മാറുകയും ചെയ്തു. പ്രാരംഭ സമാരംഭത്തിന് ശേഷം അധിക ഫീച്ചറുകളും സേവനങ്ങളും ഉപയോഗിച്ച് EC2 മെച്ചപ്പെടുത്തുന്നത് പോലുള്ള ഓഫറുകളും AWS തുടർച്ചയായി മെച്ചപ്പെടുത്തിയിട്ടുണ്ട്. നൽകിയിരിക്കുന്ന സന്ദർഭത്തെ അടിസ്ഥാനമാക്കി, ആമസോണിൻ്റെ വിജയത്തിന് കാരണം ഒരു പുസ്തക വിൽപ്പന പ്ലാറ്റ്‌ഫോമിൽ നിന്ന് ഒരു ആഗോള വിപണിയിലേക്ക് ഊർജസ്വലമായ മൂന്നാം കക്ഷി സെല്ലർ ഇക്കോസിസ്റ്റം, AWS-ലെ ആദ്യകാല നിക്ഷേപം, Kindle, Alexa എന്നിവ അവതരിപ്പിക്കുന്നതിലെ നൂതനത്വം, ഗണ്യമായ വളർച്ച എന്നിവയാണ്. 2019 മുതൽ 2022 വരെയുള്ള വാർഷിക വരുമാനത്തിൽ. ഈ വളർച്ച പൂർത്തീകരണ കേന്ദ്രത്തിൻ്റെ വിപുലീകരണത്തിലേക്കും അവസാന മൈൽ ഗതാഗത ശൃംഖല സൃഷ്ടിക്കുന്നതിലേക്കും ഉൽപ്പാദനക്ഷമതയ്ക്കും ചെലവ് ചുരുക്കലിനും ഒപ്റ്റിമൈസ് ചെയ്‌ത ഒരു പുതിയ സോർട്ടേഷൻ സെൻ്റർ ശൃംഖല നിർമ്മിക്കുന്നതിലേക്കും നയിച്ചു. LLM ചെയിൻ എക്‌സ്‌ട്രാക്റ്റർ പ്രധാന പോയിൻ്റുകൾ സമഗ്രമായി മറയ്ക്കുന്നതിനും അനാവശ്യ ഡെപ്ത് ഒഴിവാക്കുന്നതിനും ഇടയിൽ ഒരു ബാലൻസ് നിലനിർത്തുന്നു. ഇത് അന്വേഷണത്തിൻ്റെ സന്ദർഭവുമായി ചലനാത്മകമായി ക്രമീകരിക്കുന്നു, അതിനാൽ ഔട്ട്പുട്ട് നേരിട്ട് പ്രസക്തവും സമഗ്രവുമാണ്.
LLM ചെയിൻ ഫിൽട്ടർ: സന്ദർഭോചിതമായ കംപ്രഷൻ ഔട്ട്പുട്ട് AWS (ആമസോൺ വെബ് സേവനങ്ങൾ) തുടക്കത്തിൽ ഫീച്ചർ-മോർ ലോഞ്ച് ചെയ്തുകൊണ്ട് വികസിച്ചു, എന്നാൽ ആവശ്യമായ കഴിവുകൾ ചേർക്കുന്നതിന് ഉപഭോക്തൃ ഫീഡ്‌ബാക്കിനെ അടിസ്ഥാനമാക്കി വേഗത്തിൽ ആവർത്തിക്കുന്നു. ഈ സമീപനം AWS-നെ പരിമിതമായ ഫീച്ചറുകളോടെ 2-ൽ EC2006 സമാരംഭിക്കുന്നതിനും തുടർന്ന് അധിക സന്ദർഭ വലുപ്പങ്ങൾ, ഡാറ്റാ സെൻ്ററുകൾ, പ്രദേശങ്ങൾ, ഓപ്പറേറ്റിംഗ് സിസ്റ്റം ഓപ്ഷനുകൾ, മോണിറ്ററിംഗ് ടൂളുകൾ, ലോഡ് ബാലൻസിംഗ്, ഓട്ടോ-സ്കെയിലിംഗ്, പെർസിസ്റ്റൻ്റ് സ്റ്റോറേജ് എന്നിങ്ങനെയുള്ള പുതിയ പ്രവർത്തനങ്ങൾ തുടർച്ചയായി ചേർക്കുന്നതിനും അനുവദിച്ചു. കാലക്രമേണ, ഉപഭോക്തൃ ആവശ്യങ്ങൾ, ചടുലത, നവീകരണം, ചെലവ്-കാര്യക്ഷമത, സുരക്ഷ എന്നിവയിൽ ശ്രദ്ധ കേന്ദ്രീകരിച്ചുകൊണ്ട് AWS ഒരു ഫീച്ചർ-മോർ സർവീസിൽ നിന്ന് മൾട്ടി-ബില്യൺ ഡോളർ ബിസിനസ്സായി രൂപാന്തരപ്പെട്ടു. AWS-ന് ഇപ്പോൾ $85B വാർഷിക വരുമാന റൺ റേറ്റ് ഉണ്ട് കൂടാതെ ഓരോ വർഷവും 3,300-ലധികം പുതിയ ഫീച്ചറുകളും സേവനങ്ങളും വാഗ്ദാനം ചെയ്യുന്നു, സ്റ്റാർട്ട്-അപ്പുകൾ മുതൽ ബഹുരാഷ്ട്ര കമ്പനികൾ, പൊതുമേഖലാ സ്ഥാപനങ്ങൾ വരെയുള്ള നിരവധി ഉപഭോക്താക്കൾക്ക് ഇത് നൽകുന്നു. നൂതനമായ ബിസിനസ്സ് മോഡലുകൾ, തുടർച്ചയായ സാങ്കേതിക മുന്നേറ്റങ്ങൾ, തന്ത്രപരമായ സംഘടനാ മാറ്റങ്ങൾ എന്നിവ കാരണം ആമസോൺ വിജയിച്ചു. വിവിധ ഉൽപ്പന്നങ്ങൾക്കും സേവനങ്ങൾക്കുമായി ഒരു ഇ-കൊമേഴ്‌സ് പ്ലാറ്റ്‌ഫോം, ഒരു മൂന്നാം കക്ഷി മാർക്കറ്റ് പ്ലേസ്, ക്ലൗഡ് ഇൻഫ്രാസ്ട്രക്ചർ സേവനങ്ങൾ (AWS), കിൻഡിൽ ഇ-റീഡർ, അലക്‌സാ വോയ്‌സ്-ഡ്രൈവൺ പേഴ്‌സണൽ അസിസ്റ്റൻ്റ് എന്നിങ്ങനെയുള്ള പുതിയ ആശയങ്ങൾ അവതരിപ്പിച്ചുകൊണ്ട് പരമ്പരാഗത വ്യവസായങ്ങളെ കമ്പനി തുടർച്ചയായി തടസ്സപ്പെടുത്തി. . കൂടാതെ, ആമസോൺ അതിൻ്റെ കാര്യക്ഷമത മെച്ചപ്പെടുത്തുന്നതിനായി ഘടനാപരമായ മാറ്റങ്ങൾ വരുത്തിയിട്ടുണ്ട്, ചെലവും ഡെലിവറി സമയവും കുറയ്ക്കുന്നതിന് യുഎസ് ഫുൾഫിൽമെൻ്റ് നെറ്റ്‌വർക്ക് പുനഃസംഘടിപ്പിക്കുക, അതിൻ്റെ വിജയത്തിന് കൂടുതൽ സംഭാവന നൽകുക. LLM ചെയിൻ എക്‌സ്‌ട്രാക്‌റ്ററിന് സമാനമായി, LLM ചെയിൻ ഫിൽട്ടർ, പ്രധാന പോയിൻ്റുകൾ ഉൾക്കൊള്ളിച്ചിട്ടുണ്ടെങ്കിലും, സംക്ഷിപ്‌തവും സന്ദർഭോചിതവുമായ ഉത്തരങ്ങൾക്കായി തിരയുന്ന ഉപഭോക്താക്കൾക്ക് ഔട്ട്‌പുട്ട് കാര്യക്ഷമമാണെന്ന് ഉറപ്പാക്കുന്നു.

ഈ വ്യത്യസ്‌ത സങ്കേതങ്ങൾ താരതമ്യം ചെയ്യുമ്പോൾ, ലളിതമായ സേവനത്തിൽ നിന്ന് സങ്കീർണ്ണമായ, മൾട്ടി-ബില്യൺ ഡോളർ എൻ്റിറ്റിയിലേക്കുള്ള AWS-ൻ്റെ പരിവർത്തനം വിശദീകരിക്കുക, അല്ലെങ്കിൽ ആമസോണിൻ്റെ തന്ത്രപരമായ വിജയങ്ങൾ വിശദീകരിക്കുക തുടങ്ങിയ സന്ദർഭങ്ങളിൽ, റെഗുലർ റിട്രീവർ ശൃംഖലയ്‌ക്ക് കൂടുതൽ സങ്കീർണ്ണമായ സാങ്കേതിക വിദ്യകൾ വാഗ്ദാനം ചെയ്യുന്ന കൃത്യത കുറവാണെന്ന് നമുക്ക് കാണാൻ കഴിയും. കുറച്ച് ടാർഗെറ്റുചെയ്‌ത വിവരങ്ങളിലേക്ക് നയിക്കുന്നു. ചർച്ച ചെയ്ത നൂതന സാങ്കേതിക വിദ്യകൾക്കിടയിൽ വളരെ കുറച്ച് വ്യത്യാസങ്ങൾ മാത്രമേ കാണാനാകൂ എങ്കിലും, അവ സാധാരണ റിട്രീവർ ശൃംഖലകളേക്കാൾ വളരെ വിവരദായകമാണ്.

ഹെൽത്ത്‌കെയർ, ടെലികമ്മ്യൂണിക്കേഷൻസ്, ഫിനാൻഷ്യൽ സർവീസുകൾ തുടങ്ങിയ വ്യവസായങ്ങളിലെ ഉപഭോക്താക്കൾക്ക്, അവരുടെ ആപ്ലിക്കേഷനുകളിൽ RAG നടപ്പിലാക്കാൻ ആഗ്രഹിക്കുന്ന, കൃത്യമായ റിട്രീവർ ശൃംഖലയുടെ പരിമിതികൾ, ആവർത്തനം ഒഴിവാക്കുക, വിവരങ്ങൾ ഫലപ്രദമായി കംപ്രസ് ചെയ്യുക എന്നിവ ഈ ആവശ്യങ്ങൾ നിറവേറ്റുന്നതിന് അനുയോജ്യമല്ല. കൂടുതൽ വിപുലമായ പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറിലേക്കും സന്ദർഭോചിതമായ കംപ്രഷൻ ടെക്നിക്കുകളിലേക്കും. വില-പ്രകടനം മെച്ചപ്പെടുത്താൻ സഹായിക്കുമ്പോൾ തന്നെ നിങ്ങൾക്ക് ആവശ്യമായ സാന്ദ്രമായ, സ്വാധീനമുള്ള ഉൾക്കാഴ്ചകളിലേക്ക് വലിയ അളവിലുള്ള വിവരങ്ങൾ വാറ്റിയെടുക്കാൻ ഈ സാങ്കേതിക വിദ്യകൾക്ക് കഴിയും.

ക്ലീനപ്പ്

നിങ്ങൾ നോട്ട്ബുക്ക് പ്രവർത്തിപ്പിച്ചുകഴിഞ്ഞാൽ, ഉപയോഗത്തിലുള്ള വിഭവങ്ങളുടെ ചാർജുകൾ ഒഴിവാക്കാൻ നിങ്ങൾ സൃഷ്ടിച്ച ഉറവിടങ്ങൾ ഇല്ലാതാക്കുക:

# Delete resources
llm_predictor.delete_model()
llm_predictor.delete_endpoint()
embedding_predictor.delete_model()
embedding_predictor.delete_endpoint()

തീരുമാനം

ഈ പോസ്റ്റിൽ, വിവരങ്ങൾ പ്രോസസ്സ് ചെയ്യുന്നതിനും സൃഷ്ടിക്കുന്നതിനുമുള്ള LLM-കളുടെ കഴിവ് വർദ്ധിപ്പിക്കുന്നതിന് പാരൻ്റ് ഡോക്യുമെൻ്റ് റിട്രീവറും സന്ദർഭോചിതമായ കംപ്രഷൻ ചെയിൻ ടെക്നിക്കുകളും നടപ്പിലാക്കാൻ നിങ്ങളെ അനുവദിക്കുന്ന ഒരു പരിഹാരം ഞങ്ങൾ അവതരിപ്പിച്ചു. SageMaker JumpStart-ൽ ലഭ്യമായ Mixtral-8x7B Instruct, BGE Large En മോഡലുകൾ എന്നിവ ഉപയോഗിച്ച് ഞങ്ങൾ ഈ നൂതന RAG ടെക്നിക്കുകൾ പരീക്ഷിച്ചു. എംബെഡിംഗുകൾക്കും ഡോക്യുമെൻ്റ് ചങ്കുകൾക്കുമായി സ്ഥിരമായ സംഭരണവും എൻ്റർപ്രൈസ് ഡാറ്റ സ്റ്റോറുകളുമായുള്ള സംയോജനവും ഞങ്ങൾ പര്യവേക്ഷണം ചെയ്തു.

ഞങ്ങൾ നിർവഹിച്ച സാങ്കേതിക വിദ്യകൾ LLM മോഡലുകൾ ആക്സസ് ചെയ്യുന്നതും ബാഹ്യമായ അറിവ് ഉൾക്കൊള്ളുന്നതും മാത്രമല്ല, അവയുടെ ഔട്ട്പുട്ടുകളുടെ ഗുണനിലവാരവും പ്രസക്തിയും കാര്യക്ഷമതയും ഗണ്യമായി മെച്ചപ്പെടുത്തുകയും ചെയ്യുന്നു. വലിയ ടെക്‌സ്‌റ്റ് കോർപ്പറയിൽ നിന്നുള്ള വീണ്ടെടുക്കലും ഭാഷാ ഉൽപ്പാദന ശേഷികളും സംയോജിപ്പിക്കുന്നതിലൂടെ, ഈ നൂതന RAG ടെക്‌നിക്കുകൾ LLM-കളെ കൂടുതൽ വസ്തുതാപരവും യോജിച്ചതും സന്ദർഭത്തിന് അനുയോജ്യമായതുമായ പ്രതികരണങ്ങൾ സൃഷ്ടിക്കാൻ പ്രാപ്‌തമാക്കുന്നു.

SageMaker JumpStart ഈ പരിഹാരത്തിൻ്റെ കേന്ദ്രമാണ്. SageMaker JumpStart ഉപയോഗിച്ച്, നിങ്ങൾക്ക് തുറന്നതും അടഞ്ഞതുമായ സോഴ്‌സ് മോഡലുകളുടെ വിപുലമായ ശേഖരത്തിലേക്ക് പ്രവേശനം ലഭിക്കും, ML-ൽ ആരംഭിക്കുന്ന പ്രക്രിയ കാര്യക്ഷമമാക്കുകയും ദ്രുത പരീക്ഷണങ്ങളും വിന്യാസവും പ്രാപ്‌തമാക്കുകയും ചെയ്യുന്നു. ഈ പരിഹാരം വിന്യസിക്കാൻ ആരംഭിക്കുന്നതിന്, ലെ നോട്ട്ബുക്കിലേക്ക് നാവിഗേറ്റ് ചെയ്യുക ഗിറ്റ്ഹബ് റെപ്പോ.


രചയിതാക്കളെക്കുറിച്ച്

നിതിൻ വിജയേശ്വരൻ AWS-ൽ ഒരു സൊല്യൂഷൻ ആർക്കിടെക്റ്റാണ്. ജനറേറ്റീവ് AI, AWS AI ആക്സിലറേറ്ററുകൾ എന്നിവയാണ് അദ്ദേഹത്തിൻ്റെ ശ്രദ്ധാകേന്ദ്രം. കമ്പ്യൂട്ടർ സയൻസിലും ബയോ ഇൻഫോർമാറ്റിക്‌സിലും ബിരുദം നേടിയിട്ടുണ്ട്. ഒന്നിലധികം മുന്നണികളിൽ AWS ഉപഭോക്താക്കളെ പ്രാപ്തരാക്കുന്നതിനും ജനറേറ്റീവ് AI സ്വീകരിക്കുന്നത് ത്വരിതപ്പെടുത്തുന്നതിനും Niithiyn Generative AI GTM ടീമുമായി ചേർന്ന് പ്രവർത്തിക്കുന്നു. ഡാളസ് മാവെറിക്‌സിൻ്റെ കടുത്ത ആരാധകനായ അദ്ദേഹം സ്‌നീക്കറുകൾ ശേഖരിക്കുന്നതിൽ ആസ്വദിക്കുന്നു.

സെബാസ്റ്റ്യൻ ബസ്റ്റിലോ AWS-ൽ ഒരു സൊല്യൂഷൻ ആർക്കിടെക്റ്റാണ്. ജനറേറ്റീവ് AI, കമ്പ്യൂട്ട് ആക്സിലറേറ്ററുകൾ എന്നിവയിൽ അഗാധമായ അഭിനിവേശത്തോടെ അദ്ദേഹം AI/ML സാങ്കേതികവിദ്യകളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നു. AWS-ൽ, ജനറേറ്റീവ് AI വഴി ബിസിനസ്സ് മൂല്യം അൺലോക്ക് ചെയ്യാൻ അദ്ദേഹം ഉപഭോക്താക്കളെ സഹായിക്കുന്നു. അവൻ ജോലിസ്ഥലത്ത് ഇല്ലാത്തപ്പോൾ, ഒരു കപ്പ് സ്പെഷ്യാലിറ്റി കോഫി ഉണ്ടാക്കുന്നതും ഭാര്യയോടൊപ്പം ലോകം പര്യവേക്ഷണം ചെയ്യുന്നതും അവൻ ആസ്വദിക്കുന്നു.

അർമാൻഡോ ഡയസ് AWS-ൽ ഒരു സൊല്യൂഷൻ ആർക്കിടെക്റ്റാണ്. ജനറേറ്റീവ് AI, AI/ML, ഡാറ്റ അനലിറ്റിക്സ് എന്നിവയിൽ അദ്ദേഹം ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നു. AWS-ൽ, അർമാണ്ടോ ഉപഭോക്താക്കളെ അവരുടെ സിസ്റ്റങ്ങളിലേക്ക് അത്യാധുനിക ജനറേറ്റീവ് AI കഴിവുകൾ സമന്വയിപ്പിക്കാൻ സഹായിക്കുന്നു, നൂതനത്വവും മത്സര നേട്ടവും പ്രോത്സാഹിപ്പിക്കുന്നു. അവൻ ജോലിസ്ഥലത്ത് ഇല്ലാത്തപ്പോൾ, അവൻ തൻ്റെ ഭാര്യയോടും കുടുംബത്തോടും സമയം ചെലവഴിക്കുകയും കാൽനടയാത്ര നടത്തുകയും ലോകം ചുറ്റി സഞ്ചരിക്കുകയും ചെയ്യുന്നു.

ഫാറൂഖ് സാബിർ ഡോ AWS-ലെ ഒരു സീനിയർ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ആൻഡ് മെഷീൻ ലേണിംഗ് സ്പെഷ്യലിസ്റ്റ് സൊല്യൂഷൻസ് ആർക്കിടെക്റ്റാണ്. ഓസ്റ്റിനിലെ ടെക്സസ് യൂണിവേഴ്സിറ്റിയിൽ നിന്ന് ഇലക്ട്രിക്കൽ എഞ്ചിനീയറിംഗിൽ പിഎച്ച്ഡിയും എംഎസ് ബിരുദവും ജോർജിയ ഇൻസ്റ്റിറ്റ്യൂട്ട് ഓഫ് ടെക്നോളജിയിൽ നിന്ന് കമ്പ്യൂട്ടർ സയൻസിൽ എംഎസ് ബിരുദവും നേടിയിട്ടുണ്ട്. അദ്ദേഹത്തിന് 15 വർഷത്തിലേറെ പ്രവൃത്തി പരിചയമുണ്ട്, കൂടാതെ കോളേജ് വിദ്യാർത്ഥികളെ പഠിപ്പിക്കാനും ഉപദേശിക്കാനും ഇഷ്ടപ്പെടുന്നു. AWS-ൽ, ഡാറ്റാ സയൻസ്, മെഷീൻ ലേണിംഗ്, കമ്പ്യൂട്ടർ വിഷൻ, ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ്, ന്യൂമറിക്കൽ ഒപ്റ്റിമൈസേഷൻ, അനുബന്ധ ഡൊമെയ്‌നുകൾ എന്നിവയിൽ ഉപഭോക്താക്കളെ അവരുടെ ബിസിനസ് പ്രശ്‌നങ്ങൾ രൂപപ്പെടുത്താനും പരിഹരിക്കാനും അദ്ദേഹം സഹായിക്കുന്നു. ടെക്സസിലെ ഡാളസ് ആസ്ഥാനമാക്കി, അദ്ദേഹവും കുടുംബവും യാത്ര ചെയ്യാനും ദീർഘദൂര യാത്രകൾ നടത്താനും ഇഷ്ടപ്പെടുന്നു.

മാർക്കോ പുനിയോ ജനറേറ്റീവ് AI തന്ത്രം, പ്രയോഗിച്ച AI സൊല്യൂഷനുകൾ, AWS-ൽ ഉപഭോക്താക്കളെ ഹൈപ്പർ സ്കെയിൽ സഹായിക്കുന്നതിന് ഗവേഷണം എന്നിവയിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്ന ഒരു സൊല്യൂഷൻ ആർക്കിടെക്റ്റാണ്. ഫിൻടെക്, ഹെൽത്ത്‌കെയർ & ലൈഫ് സയൻസസ്, സോഫ്റ്റ്‌വെയർ-എ-സേവനം, കൂടാതെ ഏറ്റവും സമീപകാലത്ത് ടെലികമ്മ്യൂണിക്കേഷൻ വ്യവസായങ്ങളിൽ അനുഭവപരിചയമുള്ള ഒരു ഡിജിറ്റൽ നേറ്റീവ് ക്ലൗഡ് അഡ്വൈസറാണ് മാർക്കോ. മെഷീൻ ലേണിംഗ്, ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ്, ലയനങ്ങളും ഏറ്റെടുക്കലുകളും എന്നിവയിൽ അഭിനിവേശമുള്ള ഒരു യോഗ്യതയുള്ള സാങ്കേതിക വിദഗ്ധനാണ് അദ്ദേഹം. WAയിലെ സിയാറ്റിൽ ആസ്ഥാനമായ മാർക്കോ തൻ്റെ ഒഴിവുസമയങ്ങളിൽ എഴുതുന്നതും വായിക്കുന്നതും വ്യായാമം ചെയ്യുന്നതും ആപ്ലിക്കേഷനുകൾ നിർമ്മിക്കുന്നതും ആസ്വദിക്കുന്നു.

എജെ ദിമിൻ AWS-ൽ ഒരു സൊല്യൂഷൻ ആർക്കിടെക്റ്റാണ്. ജനറേറ്റീവ് AI, സെർവർലെസ് കമ്പ്യൂട്ടിംഗ്, ഡാറ്റ അനലിറ്റിക്സ് എന്നിവയിൽ അദ്ദേഹം വൈദഗ്ദ്ധ്യം നേടിയിട്ടുണ്ട്. മെഷീൻ ലേണിംഗ് ടെക്‌നിക്കൽ ഫീൽഡ് കമ്മ്യൂണിറ്റിയിലെ സജീവ അംഗം/ഉപദേശകനായ അദ്ദേഹം വിവിധ AI/ML വിഷയങ്ങളിൽ നിരവധി ശാസ്ത്ര പ്രബന്ധങ്ങൾ പ്രസിദ്ധീകരിച്ചിട്ടുണ്ട്. AWSome ജനറേറ്റീവ് AI സൊല്യൂഷനുകൾ വികസിപ്പിക്കുന്നതിന് സ്റ്റാർട്ട്-അപ്പുകൾ മുതൽ സംരംഭങ്ങൾ വരെയുള്ള ഉപഭോക്താക്കളുമായി അദ്ദേഹം പ്രവർത്തിക്കുന്നു. വിപുലമായ ഡാറ്റാ അനലിറ്റിക്‌സിനായി വലിയ ഭാഷാ മോഡലുകൾ പ്രയോജനപ്പെടുത്തുന്നതിലും യഥാർത്ഥ ലോക വെല്ലുവിളികളെ അഭിമുഖീകരിക്കുന്ന പ്രായോഗിക ആപ്ലിക്കേഷനുകൾ പര്യവേക്ഷണം ചെയ്യുന്നതിലും അദ്ദേഹത്തിന് പ്രത്യേക താൽപ്പര്യമുണ്ട്. ജോലിക്ക് പുറത്ത്, എജെ യാത്രകൾ ആസ്വദിക്കുന്നു, ലോകത്തിലെ എല്ലാ രാജ്യങ്ങളും സന്ദർശിക്കുക എന്ന ലക്ഷ്യത്തോടെ നിലവിൽ 53 രാജ്യങ്ങളിലുണ്ട്.

സ്പോട്ട്_ഐഎംജി

ഏറ്റവും പുതിയ ഇന്റലിജൻസ്

സ്പോട്ട്_ഐഎംജി

ഞങ്ങളുമായി ചാറ്റുചെയ്യുക

ഹേയ്, അവിടെയുണ്ടോ! എനിക്ക് നിങ്ങളെ എങ്ങനെ സഹായിക്കാനാകും?