जनरेटिव डेटा इंटेलिजेंस

अमेज़ॅन बेडरॉक - भाग 2 | पर होस्ट किए गए मल्टीमॉडल फाउंडेशन मॉडल का उपयोग करके अपने स्लाइड डेक से बात करें अमेज़न वेब सेवाएँ

दिनांक:

In भाग 1 इस श्रृंखला में, हमने एक समाधान प्रस्तुत किया जिसमें इसका उपयोग किया गया अमेज़ॅन टाइटन मल्टीमॉडल एंबेडिंग स्लाइड डेक से अलग-अलग स्लाइडों को एम्बेडिंग में बदलने के लिए मॉडल। हमने एम्बेडिंग को एक वेक्टर डेटाबेस में संग्रहीत किया और फिर इसका उपयोग किया बड़े भाषा-और-दृष्टि सहायक (LLaVA 1.5-7बी) वेक्टर डेटाबेस से प्राप्त सबसे समान स्लाइड के आधार पर उपयोगकर्ता के प्रश्नों के लिए पाठ प्रतिक्रिया उत्पन्न करने के लिए मॉडल। हमने AWS सेवाओं का उपयोग किया, जिनमें शामिल हैं अमेज़ॅन बेडरॉक, अमेज़न SageMaker, तथा Amazon OpenSearch सर्वर रहित इस समाधान में.

इस पोस्ट में, हम एक अलग दृष्टिकोण प्रदर्शित करते हैं। हम उपयोग करते हैं एंथ्रोपिक क्लाउड 3 सॉनेट स्लाइड डेक में प्रत्येक स्लाइड के लिए पाठ विवरण उत्पन्न करने के लिए मॉडल। फिर इन विवरणों को का उपयोग करके टेक्स्ट एम्बेडिंग में परिवर्तित किया जाता है अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल और एक वेक्टर डेटाबेस में संग्रहीत। फिर हम वेक्टर डेटाबेस से प्राप्त सबसे प्रासंगिक पाठ विवरण के आधार पर उपयोगकर्ता के प्रश्नों के उत्तर उत्पन्न करने के लिए क्लाउड 3 सॉनेट मॉडल का उपयोग करते हैं।

आप अपने डेटासेट के लिए दोनों दृष्टिकोणों का परीक्षण कर सकते हैं और परिणामों का मूल्यांकन करके देख सकते हैं कि कौन सा दृष्टिकोण आपको सर्वोत्तम परिणाम देता है। इस श्रृंखला के भाग 3 में, हम दोनों विधियों के परिणामों का मूल्यांकन करते हैं।

समाधान अवलोकन

समाधान स्लाइड डेक के पाठ और दृश्य तत्वों में निहित जानकारी का उपयोग करके प्रश्नों के उत्तर देने के लिए एक कार्यान्वयन प्रदान करता है। डिज़ाइन रिट्रीवल ऑगमेंटेड जेनरेशन (आरएजी) की अवधारणा पर निर्भर करता है। परंपरागत रूप से, आरएजी पाठ्य डेटा से जुड़ा हुआ है जिसे बड़े भाषा मॉडल (एलएलएम) द्वारा संसाधित किया जा सकता है। इस श्रृंखला में, हम छवियों को भी शामिल करने के लिए RAG का विस्तार करते हैं। यह पाठ के साथ-साथ तालिकाओं और ग्राफ़ जैसे दृश्य तत्वों से प्रासंगिक रूप से प्रासंगिक सामग्री निकालने के लिए एक शक्तिशाली खोज क्षमता प्रदान करता है।

इस समाधान में निम्नलिखित घटक शामिल हैं:

  • अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग एक टेक्स्ट एंबेडिंग मॉडल है जो एकल शब्दों, वाक्यांशों या यहां तक ​​कि बड़े दस्तावेज़ों सहित प्राकृतिक भाषा के टेक्स्ट को संख्यात्मक प्रतिनिधित्व में परिवर्तित करता है, जिसका उपयोग सिमेंटिक समानता के आधार पर खोज, वैयक्तिकरण और क्लस्टरिंग जैसे बिजली उपयोग के मामलों में किया जा सकता है।
  • क्लाउड 3 सॉनेट एंथ्रोपिक के अत्याधुनिक मॉडलों की अगली पीढ़ी है। सॉनेट एक बहुमुखी उपकरण है जो जटिल तर्क और विश्लेषण से लेकर त्वरित आउटपुट तक, साथ ही बड़ी मात्रा में जानकारी में कुशल खोज और पुनर्प्राप्ति तक कार्यों की एक विस्तृत श्रृंखला को संभाल सकता है।
  • ओपनसर्च सर्वरलेस अमेज़ॅन ओपनसर्च सेवा के लिए एक ऑन-डिमांड सर्वरलेस कॉन्फ़िगरेशन है। हम अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल द्वारा उत्पन्न एंबेडिंग को संग्रहीत करने के लिए एक वेक्टर डेटाबेस के रूप में ओपनसर्च सर्वरलेस का उपयोग करते हैं। ओपनसर्च सर्वरलेस संग्रह में बनाया गया एक इंडेक्स हमारे आरएजी समाधान के लिए वेक्टर स्टोर के रूप में कार्य करता है।
  • Amazon OpenSearch अंतर्ग्रहण (ओएसआई) एक पूरी तरह से प्रबंधित, सर्वर रहित डेटा संग्राहक है जो ओपनसर्च सेवा डोमेन और ओपनसर्च सर्वर रहित संग्रह में डेटा वितरित करता है। इस पोस्ट में, हम ओपनसर्च सर्वरलेस वेक्टर स्टोर पर डेटा पहुंचाने के लिए ओएसआई पाइपलाइन एपीआई का उपयोग करते हैं।

समाधान डिज़ाइन में दो भाग होते हैं: अंतर्ग्रहण और उपयोगकर्ता सहभागिता। अंतर्ग्रहण के दौरान, हम प्रत्येक स्लाइड को एक छवि में परिवर्तित करके, प्रत्येक छवि के लिए विवरण और टेक्स्ट एम्बेडिंग उत्पन्न करके इनपुट स्लाइड डेक को संसाधित करते हैं। फिर हम प्रत्येक स्लाइड के लिए एम्बेडिंग और टेक्स्ट विवरण के साथ वेक्टर डेटा स्टोर भरते हैं। ये चरण उपयोगकर्ता इंटरैक्शन चरणों से पहले पूरे किए जाते हैं।

उपयोगकर्ता इंटरैक्शन चरण में, उपयोगकर्ता का एक प्रश्न टेक्स्ट एम्बेडिंग में परिवर्तित हो जाता है। एक स्लाइड के अनुरूप पाठ विवरण खोजने के लिए वेक्टर डेटाबेस पर एक समानता खोज चलाई जाती है जिसमें संभावित रूप से उपयोगकर्ता के प्रश्न के उत्तर हो सकते हैं। फिर हम क्वेरी का उत्तर उत्पन्न करने के लिए क्लाउड 3 सॉनेट मॉडल को स्लाइड विवरण और उपयोगकर्ता प्रश्न प्रदान करते हैं। इस पोस्ट के लिए सभी कोड उपलब्ध हैं GitHub रेपो।

निम्नलिखित चित्र अंतर्ग्रहण वास्तुकला को दर्शाता है।

वर्कफ़्लो में निम्नलिखित चरण होते हैं:

  1. स्लाइडों को JPG प्रारूप में छवि फ़ाइलों (प्रति स्लाइड एक) में परिवर्तित किया जाता है और पाठ विवरण उत्पन्न करने के लिए क्लाउड 3 सॉनेट मॉडल में पास किया जाता है।
  2. एम्बेडिंग उत्पन्न करने के लिए डेटा को अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल पर भेजा जाता है। इस श्रृंखला में, हम स्लाइड डेक का उपयोग करते हैं एडब्ल्यूएस ट्रेनियम और एडब्ल्यूएस इनफेरेंटिया का उपयोग करके स्थिर प्रसार को प्रशिक्षित और तैनात करें समाधान प्रदर्शित करने के लिए जून 2023 में टोरंटो में AWS शिखर सम्मेलन से। नमूना डेक में 31 स्लाइड हैं, इसलिए हम वेक्टर एम्बेडिंग के 31 सेट तैयार करते हैं, प्रत्येक 1536 आयामों के साथ। हम OpenSearch की शक्तिशाली खोज क्षमताओं का उपयोग करके समृद्ध खोज क्वेरी करने के लिए अतिरिक्त मेटाडेटा फ़ील्ड जोड़ते हैं।
  3. एम्बेडिंग को एपीआई कॉल का उपयोग करके ओएसआई पाइपलाइन में डाला जाता है।
  4. OSI पाइपलाइन डेटा को दस्तावेज़ के रूप में OpenSearch सर्वर रहित इंडेक्स में समाहित करती है। सूचकांक को इस पाइपलाइन के लिए सिंक के रूप में कॉन्फ़िगर किया गया है और ओपनसर्च सर्वर रहित संग्रह के हिस्से के रूप में बनाया गया है।

निम्नलिखित चित्र उपयोगकर्ता इंटरैक्शन आर्किटेक्चर को दर्शाता है।

वर्कफ़्लो में निम्नलिखित चरण होते हैं:

  1. एक उपयोगकर्ता अंतर्ग्रहण किए गए स्लाइड डेक से संबंधित एक प्रश्न सबमिट करता है।
  2. उपयोगकर्ता इनपुट को अमेज़ॅन बेडरॉक का उपयोग करके एक्सेस किए गए अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल का उपयोग करके एम्बेडिंग में परिवर्तित किया जाता है। इन एम्बेडिंग का उपयोग करके एक ओपनसर्च सेवा वेक्टर खोज की जाती है। हम उपयोगकर्ता क्वेरी से मेल खाने वाले सबसे प्रासंगिक एम्बेडिंग को पुनः प्राप्त करने के लिए k-निकटतम पड़ोसी (k-NN) खोज करते हैं।
  3. ओपनसर्च सर्वरलेस से प्रतिक्रिया के मेटाडेटा में सबसे प्रासंगिक स्लाइड के अनुरूप छवि और विवरण का पथ शामिल है।
  4. उपयोगकर्ता के प्रश्न और छवि विवरण को मिलाकर एक संकेत बनाया जाता है। अमेज़ॅन बेडरॉक पर होस्ट किए गए क्लॉड 3 सॉनेट को संकेत प्रदान किया गया है।
  5. इस अनुमान का परिणाम उपयोगकर्ता को लौटा दिया जाता है।

हम निम्नलिखित अनुभागों में दोनों चरणों के चरणों पर चर्चा करते हैं, और आउटपुट के बारे में विवरण शामिल करते हैं।

.. पूर्वापेक्षाएँ

इस पोस्ट में दिए गए समाधान को लागू करने के लिए, आपके पास एक होना चाहिए AWS खाता और एफएम, अमेज़ॅन बेडरॉक, सेजमेकर और ओपनसर्च सेवा से परिचित होना।

यह समाधान अमेज़ॅन बेडरॉक पर होस्ट किए गए क्लाउड 3 सॉनेट और अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल का उपयोग करता है। पर नेविगेट करके सुनिश्चित करें कि ये मॉडल उपयोग के लिए सक्षम हैं मॉडल पहुंच अमेज़न बेडरॉक कंसोल पर पेज।

यदि मॉडल सक्षम हैं, तो पहुंच स्थिति बताएँगे प्रवेश करने की अनुमति है.

यदि मॉडल उपलब्ध नहीं हैं, तो चुनकर पहुंच सक्षम करें मॉडल पहुंच प्रबंधित करें, मॉडलों का चयन करना, और चुनना मॉडल पहुंच का अनुरोध करें. मॉडल तुरंत उपयोग के लिए सक्षम हैं।

समाधान स्टैक बनाने के लिए AWS CloudFormation का उपयोग करें

समाधान स्टैक बनाने के लिए आप AWS CloudFormation का उपयोग कर सकते हैं। यदि आपने उसी AWS खाते में भाग 1 के लिए समाधान बनाया है, तो इस स्टैक को बनाने से पहले उसे हटाना सुनिश्चित करें।

AWS क्षेत्र संपर्क
us-east-1
us-west-2

स्टैक के सफलतापूर्वक बन जाने के बाद, AWS CloudFormation कंसोल पर स्टैक के आउटपुट टैब पर नेविगेट करें और इसके लिए मान नोट करें MultimodalCollectionEndpoint और OpenSearchPipelineEndpoint. आप इन्हें अगले चरणों में उपयोग करें.

CloudFormation टेम्पलेट निम्नलिखित संसाधन बनाता है:

  • IAM भूमिकाएं - निम्नलिखित AWS पहचान और अभिगम प्रबंधन (IAM) भूमिकाएँ बनाई जाती हैं। जैसा कि चर्चा में है, न्यूनतम-विशेषाधिकार वाली अनुमतियाँ लागू करने के लिए इन भूमिकाओं को अद्यतन करें सुरक्षा सर्वोत्तम अभ्यास.
    • SMExecutionRole साथ में अमेज़न सरल भंडारण सेवा (अमेज़ॅन एस3), सेजमेकर, ओपनसर्च सर्विस, और अमेज़ॅन बेडरॉक पूर्ण पहुंच।
    • OSPipelineExecutionRole S3 बकेट और OSI क्रियाओं तक पहुंच के साथ।
  • सेजमेकर नोटबुक - इस पोस्ट के सभी कोड इस नोटबुक का उपयोग करके चलाए जाते हैं।
  • OpenSearch सर्वर रहित संग्रह - यह एम्बेडिंग को संग्रहीत करने और पुनर्प्राप्त करने के लिए वेक्टर डेटाबेस है।
  • ओएसआई पाइपलाइन - यह ओपनसर्च सर्वरलेस में डेटा अंतर्ग्रहण के लिए पाइपलाइन है।
  • S3 बाल्टी - इस पोस्ट का सारा डेटा इस बकेट में संग्रहीत है।

क्लाउडफॉर्मेशन टेम्प्लेट ओएसआई पाइपलाइन को स्रोत के रूप में HTTP और सिंक के रूप में ओपनसर्च सर्वरलेस इंडेक्स के साथ कॉन्फ़िगर करने के लिए आवश्यक पाइपलाइन कॉन्फ़िगरेशन सेट करता है। सेजमेकर नोटबुक 2_data_ingestion.ipynb का उपयोग करके पाइपलाइन में डेटा डालने का तरीका प्रदर्शित करता है अनुरोधों HTTP लाइब्रेरी.

CloudFormation टेम्पलेट भी बनाता है नेटवर्क, एन्क्रिप्शन और डेटा प्राप्त करना आपके OpenSearch सर्वर रहित संग्रह के लिए आवश्यक नीतियां। न्यूनतम-विशेषाधिकार अनुमतियाँ लागू करने के लिए इन नीतियों को अद्यतन करें।

क्लाउडफॉर्मेशन टेम्पलेट नाम और ओपनसर्च सर्विस इंडेक्स नाम सेजमेकर नोटबुक में संदर्भित हैं 3_rag_inference.ipynb. यदि आप डिफ़ॉल्ट नाम बदलते हैं, तो सुनिश्चित करें कि आपने उन्हें नोटबुक में अपडेट कर दिया है।

समाधान का परीक्षण करें

क्लाउडफ़ॉर्मेशन स्टैक बनाने के बाद, आप समाधान का परीक्षण कर सकते हैं। निम्नलिखित चरणों को पूरा करें:

  1. SageMaker कंसोल पर, चुनें नोटबुक नेविगेशन फलक में
  2. चुनते हैं MultimodalNotebookInstance और चुनें ज्यूपिटरलैब खोलें।
  3. In फ़ाइल ब्राउज़र, नोटबुक और सहायक फ़ाइलें देखने के लिए नोटबुक फ़ोल्डर में जाएँ।

नोटबुकों को उनके चलने के क्रम में क्रमांकित किया जाता है। प्रत्येक नोटबुक में निर्देश और टिप्पणियाँ उस नोटबुक द्वारा किए गए कार्यों का वर्णन करती हैं। हम इन नोटबुक्स को एक-एक करके चलाते हैं।

  1. चुनें 1_data_prep.ipynb इसे JupyterLab में खोलने के लिए।
  2. पर रन मेनू, चुनें सभी सेल चलाएं इस नोटबुक में कोड चलाने के लिए.

यह नोटबुक सार्वजनिक रूप से उपलब्ध डाउनलोड होगी सरकाने का पटाव, प्रत्येक स्लाइड को JPG फ़ाइल स्वरूप में परिवर्तित करें, और इन्हें S3 बकेट में अपलोड करें।

  1. चुनें 2_data_ingestion.ipynb इसे JupyterLab में खोलने के लिए।
  2. पर रन मेनू, चुनें सभी सेल चलाएं इस नोटबुक में कोड चलाने के लिए.

इस नोटबुक में, आप OpenSearch सर्वर रहित संग्रह में एक इंडेक्स बनाते हैं। यह इंडेक्स स्लाइड डेक के लिए एम्बेडिंग डेटा संग्रहीत करता है। निम्नलिखित कोड देखें:

session = boto3.Session()
credentials = session.get_credentials()
auth = AWSV4SignerAuth(credentials, g.AWS_REGION, g.OS_SERVICE)

os_client = OpenSearch(
  hosts = [{'host': host, 'port': 443}],
  http_auth = auth,
  use_ssl = True,
  verify_certs = True,
  connection_class = RequestsHttpConnection,
  pool_maxsize = 20
)

index_body = """
{
  "settings": {
    "index.knn": true
  },
  "mappings": {
    "properties": {
      "vector_embedding": {
        "type": "knn_vector",
        "dimension": 1536,
        "method": {
          "name": "hnsw",
          "engine": "nmslib",
          "parameters": {}
        }
      },
      "image_path": {
        "type": "text"
      },
      "slide_text": {
        "type": "text"
      },
      "slide_number": {
        "type": "text"
      },
      "metadata": { 
        "properties" :
          {
            "filename" : {
              "type" : "text"
            },
            "desc":{
              "type": "text"
            }
          }
      }
    }
  }
}
"""
index_body = json.loads(index_body)
try:
  response = os_client.indices.create(index_name, body=index_body)
  logger.info(f"response received for the create index -> {response}")
except Exception as e:
  logger.error(f"error in creating index={index_name}, exception={e}")

आप पिछली नोटबुक में बनाई गई JPG छवियों को वेक्टर एम्बेडिंग में बदलने के लिए क्लाउड 3 सॉनेट और अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल का उपयोग करते हैं। ये एम्बेडिंग और अतिरिक्त मेटाडेटा (जैसे S3 पथ और छवि फ़ाइल का विवरण) एम्बेडिंग के साथ इंडेक्स में संग्रहीत होते हैं। निम्नलिखित कोड स्निपेट दिखाता है कि क्लाउड 3 सॉनेट छवि विवरण कैसे उत्पन्न करता है:

def get_img_desc(image_file_path: str, prompt: str):
    # read the file, MAX image size supported is 2048 * 2048 pixels
    with open(image_file_path, "rb") as image_file:
        input_image_b64 = image_file.read().decode('utf-8')
  
    body = json.dumps(
        {
            "anthropic_version": "bedrock-2023-05-31",
            "max_tokens": 1000,
            "messages": [
                {
                    "role": "user",
                    "content": [
                        {
                            "type": "image",
                            "source": {
                                "type": "base64",
                                "media_type": "image/jpeg",
                                "data": input_image_b64
                            },
                        },
                        {"type": "text", "text": prompt},
                    ],
                }
            ],
        }
    )
    
    response = bedrock.invoke_model(
        modelId=g.CLAUDE_MODEL_ID,
        body=body
    )

    resp_body = json.loads(response['body'].read().decode("utf-8"))
    resp_text = resp_body['content'][0]['text'].replace('"', "'")

    return resp_text

वेक्टर एम्बेडिंग उत्पन्न करने के लिए छवि विवरण अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल को पास कर दिए गए हैं। ये एम्बेडिंग और अतिरिक्त मेटाडेटा (जैसे S3 पथ और छवि फ़ाइल का विवरण) एम्बेडिंग के साथ इंडेक्स में संग्रहीत होते हैं। निम्नलिखित कोड स्निपेट अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग मॉडल पर कॉल दिखाता है:

def get_text_embedding(bedrock: botocore.client, prompt_data: str) -> np.ndarray:
    body = json.dumps({
        "inputText": prompt_data,
    })    
    try:
        response = bedrock.invoke_model(
            body=body, modelId=g.TITAN_MODEL_ID, accept=g.ACCEPT_ENCODING, contentType=g.CONTENT_ENCODING
        )
        response_body = json.loads(response['body'].read())
        embedding = response_body.get('embedding')
    except Exception as e:
        logger.error(f"exception={e}")
        embedding = None

    return embedding

ओएसआई पाइपलाइन पर एपीआई कॉल करके डेटा को ओपनसर्च सर्वरलेस इंडेक्स में डाला जाता है। निम्नलिखित कोड स्निपेट अनुरोध HTTP लाइब्रेरी का उपयोग करके की गई कॉल दिखाता है:

data = json.dumps([{
    "image_path": input_image_s3, 
    "slide_text": resp_text, 
    "slide_number": slide_number, 
    "metadata": {
        "filename": obj_name, 
        "desc": "" 
    }, 
    "vector_embedding": embedding
}])

r = requests.request(
    method='POST', 
    url=osi_endpoint, 
    data=data,
    auth=AWSSigV4('osis'))

  1. चुनें 3_rag_inference.ipynb इसे JupyterLab में खोलने के लिए।
  2. पर रन मेनू, चुनें सभी सेल चलाएं इस नोटबुक में कोड चलाने के लिए.

यह नोटबुक आरएजी समाधान को लागू करता है: आप उपयोगकर्ता के प्रश्न को एम्बेडिंग में परिवर्तित करते हैं, वेक्टर डेटाबेस से एक समान छवि विवरण ढूंढते हैं, और उपयोगकर्ता के प्रश्न का उत्तर उत्पन्न करने के लिए क्लाउड 3 सॉनेट को पुनर्प्राप्त विवरण प्रदान करते हैं। आप निम्नलिखित प्रॉम्प्ट टेम्पलेट का उपयोग करें:

  llm_prompt: str = """

  Human: Use the summary to provide a concise answer to the question to the best of your abilities. If you cannot answer the question from the context then say I do not know, do not make up an answer.
  <question>
  {question}
  </question>

  <summary>
  {summary}
  </summary>

  Assistant:"""

निम्नलिखित कोड स्निपेट RAG वर्कफ़्लो प्रदान करता है:

def get_llm_response(bedrock: botocore.client, question: str, summary: str) -> str:
    prompt = llm_prompt.format(question=question, summary=summary)
    
    body = json.dumps(
    {
        "anthropic_version": "bedrock-2023-05-31",
        "max_tokens": 1000,
        "messages": [
            {
                "role": "user",
                "content": [
                    {"type": "text", "text": prompt},
                ],
            }
        ],
    })
        
    try:
        response = bedrock.invoke_model(
        modelId=g.CLAUDE_MODEL_ID,
        body=body)

        response_body = json.loads(response['body'].read().decode("utf-8"))
        llm_response = response_body['content'][0]['text'].replace('"', "'")
        
    except Exception as e:
        logger.error(f"exception while slide_text={summary[:10]}, exception={e}")
        llm_response = None

    return llm_response


# create prompt and convert to embeddings question: str = "How does Inf2 compare in performance to comparable EC2 instances? I need numbers." text_embedding = get_text_embedding(bedrock, question) # vector db search vector_db_response: Dict = find_similar_data(text_embeddings) # download image for local notebook display s3_img_path = vector_db_response.get('hits', {}).get('hits')[0].get('_source').get('image_path') logger.info(f"going to answer the question="{question}" using the image "{s3_img_path}"") !aws s3 cp {s3_img_path} . local_img_path = os.path.basename(s3_img_path) display(filename=local_img_path) # Ask Claude 3 Sonnet slide_text = vector_db_response.get('hits', {}).get('hits')[0].get('_source').get('slide_text') llm_response = get_llm_response(bedrock, question, slide_text) print(llm_response)

परिणाम

निम्नलिखित तालिका में हमारे कार्यान्वयन द्वारा उत्पन्न कुछ उपयोगकर्ता प्रश्न और प्रतिक्रियाएँ शामिल हैं। सवाल कॉलम उपयोगकर्ता के प्रश्न को कैप्चर करता है, और उत्तर कॉलम क्लाउड 3 सॉनेट द्वारा उत्पन्न पाठ्य प्रतिक्रिया है। छवि कॉलम ओपनसर्च सर्वरलेस वेक्टर खोज द्वारा लौटाए गए के-एनएन स्लाइड मैच को दिखाता है।

मल्टीमॉडल आरएजी परिणाम

सवाल उत्तर छवि
प्रदर्शन में Inf2 की तुलना तुलनीय EC2 उदाहरणों से कैसे की जाती है? मुझे नंबर चाहिए. सारांश में दी गई जानकारी के आधार पर, अन्य उदाहरणों की तुलना में Amazon EC2 Inf2 उदाहरणों के लिए दिए गए प्रमुख प्रदर्शन तुलना नंबर हैं: 1. 4x तक उच्च थ्रूपुट। 2. 10x तक कम विलंबता। सारांश Inf2 उदाहरणों की तुलना अन्य EC2 उदाहरण प्रकारों से करने वाली विशिष्ट संख्याएँ प्रदान नहीं करता है। हालाँकि, यह जेनरेटिव AI मॉडल चलाने के लिए तुलनीय उदाहरणों की तुलना में Inf2 उदाहरणों के मुख्य प्रदर्शन लाभ के रूप में थ्रूपुट और विलंबता सुधार पर प्रकाश डालता है।
एआई/एमएल फ्लाईव्हील के अनुसार, एडब्ल्यूएस एआई/एमएल सेवाएं क्या प्रदान करती हैं? सारांश के आधार पर, AWS AI/ML सेवाएँ क्षमताओं की एक श्रृंखला प्रदान करती हैं जो AI/ML फ्लाईव्हील को ईंधन देती हैं। इस फ्लाईव्हील में नए और बेहतर एल्गोरिदम विकसित करने, अधिक उपयोग-मामलों और अनुप्रयोगों को सक्षम करने, व्यापक रूप से अपनाने और मांग को बढ़ाने में नवाचार शामिल है, जिसके परिणामस्वरूप अधिक नवाचार को चलाने के लिए अनुसंधान और अनुकूलन में और अधिक निवेश होता है। एडब्ल्यूएस एआई/एमएल सेवाएं कृत्रिम बुद्धिमत्ता और मशीन लर्निंग के क्षेत्र में नवाचार, अनुप्रयोग विकास, अपनाने और पुनर्निवेश के इस निरंतर चक्र का समर्थन करने के लिए उपकरण, संसाधन और बुनियादी ढांचे की पेशकश करती प्रतीत होती हैं।
GPT-2 की तुलना में GPT-3 में कितने अधिक पैरामीटर हैं? GPT-2 और GPT-3 के पैरामीटर आकार के बीच संख्यात्मक अंतर क्या है? सारांश में दी गई जानकारी के अनुसार, 3 से GPT-2020 में 175B (175 बिलियन) पैरामीटर थे, जबकि 2 से GPT-2019 में 1.5B (1.5 बिलियन) पैरामीटर थे। इसलिए, GPT-2 और GPT-3 के पैरामीटर आकार के बीच संख्यात्मक अंतर 173.5 बिलियन पैरामीटर है। GPT-3 में GPT-115 की तुलना में लगभग 2 गुना अधिक पैरामीटर हैं।
कण भौतिकी में क्वार्क क्या हैं? दुर्भाग्य से, दिए गए सारांश में कण भौतिकी में क्वार्क के बारे में कोई जानकारी नहीं है। सारांश प्राकृतिक भाषा प्रसंस्करण और जेनरेटिव एआई प्रौद्योगिकियों की प्रगति से संबंधित एक छवि का वर्णन करता है, लेकिन इसमें कण भौतिकी या क्वार्क की अवधारणा के बारे में कुछ भी उल्लेख नहीं किया गया है।

अपनी अनुक्रमणिका को क्वेरी करें

आप अपने सूचकांक और अंतर्ग्रहण डेटा पर त्वरित परीक्षण चलाने के लिए ओपनसर्च एपीआई के साथ इंटरैक्ट करने के लिए ओपनसर्च डैशबोर्ड का उपयोग कर सकते हैं।

साफ - सफाई

भविष्य में शुल्क लगने से बचने के लिए संसाधनों को हटा दें। आप AWS CloudFormation कंसोल का उपयोग करके स्टैक को हटाकर ऐसा कर सकते हैं।

निष्कर्ष

उद्यम हर समय नई सामग्री उत्पन्न करते हैं, और स्लाइड डेक संगठन के भीतर और बाहरी रूप से ग्राहकों के साथ या सम्मेलनों में जानकारी साझा करने और प्रसारित करने का एक सामान्य तरीका है। समय के साथ, समृद्ध जानकारी इन स्लाइड डेक में ग्राफ़ और तालिकाओं जैसी गैर-पाठ पद्धतियों में दबी और छिपी रह सकती है।

आप नई जानकारी खोजने या स्लाइड डेक में सामग्री पर नए दृष्टिकोण को उजागर करने के लिए इस समाधान और अमेज़ॅन टाइटन टेक्स्ट एंबेडिंग और क्लाउड 3 सॉनेट जैसे मल्टीमॉडल एफएम की शक्ति का उपयोग कर सकते हैं। आप अमेज़ॅन बेडरॉक पर उपलब्ध विभिन्न क्लाउड मॉडल को अपडेट करके आज़मा सकते हैं CLAUDE_MODEL_ID में globals.py फ़ाइल.

यह तीन भाग वाली श्रृंखला का भाग 2 है। हमने भाग 1 में अमेज़ॅन टाइटन मल्टीमॉडल एंबेडिंग और एलएलएवीए मॉडल का उपयोग किया। भाग 3 में, हम भाग 1 और भाग 2 के दृष्टिकोणों की तुलना करेंगे।

इस कोड के अंश इसके अंतर्गत जारी किए जाते हैं अपाचे 2.0 लाइसेंस।


लेखक के बारे में

अमित अरोड़ा Amazon Web Services में एक AI और ML स्पेशलिस्ट आर्किटेक्ट है, जो उद्यम ग्राहकों को अपने नवाचारों को तेजी से बढ़ाने के लिए क्लाउड-आधारित मशीन लर्निंग सेवाओं का उपयोग करने में मदद करता है। वह वाशिंगटन डीसी में जॉर्जटाउन यूनिवर्सिटी में एमएस डेटा साइंस एंड एनालिटिक्स प्रोग्राम में सहायक व्याख्याता भी हैं

मंजू प्रसाद अमेज़ॅन वेब सर्विसेज में एक वरिष्ठ समाधान वास्तुकार हैं। वह एआई/एमएल सहित विभिन्न तकनीकी डोमेन में तकनीकी मार्गदर्शन प्रदान करने पर ध्यान केंद्रित करती है। AWS में शामिल होने से पहले, उन्होंने वित्तीय सेवा क्षेत्र की कंपनियों और एक स्टार्टअप के लिए समाधान डिज़ाइन और निर्माण किया। उन्हें ज्ञान साझा करने और उभरती प्रतिभाओं में रुचि बढ़ाने का शौक है।

अर्चना इनापुडी AWS में एक वरिष्ठ समाधान वास्तुकार हैं, जो एक रणनीतिक ग्राहक का समर्थन करते हैं। रणनीतिक तकनीकी पहलों का नेतृत्व करने के लिए उनके पास एक दशक से अधिक की क्रॉस-इंडस्ट्री विशेषज्ञता है। अर्चना AWS में AI/ML तकनीकी क्षेत्र समुदाय की एक महत्वाकांक्षी सदस्य हैं। AWS में शामिल होने से पहले, अर्चना ने एक हेल्थकेयर कंपनी में पारंपरिक साइल्ड डेटा स्रोतों से Hadoop में प्रवास का नेतृत्व किया। वह विकास में तेजी लाने, ग्राहकों को मूल्य प्रदान करने और व्यावसायिक परिणाम प्राप्त करने के लिए प्रौद्योगिकी का उपयोग करने को लेकर उत्साहित हैं।

अंतरा रायसा अमेज़ॅन वेब सर्विसेज में एक एआई और एमएल सॉल्यूशंस आर्किटेक्ट है, जो डलास, टेक्सास में स्थित रणनीतिक ग्राहकों का समर्थन करता है। उनके पास AWS में बड़े उद्यम भागीदारों के साथ काम करने का पिछला अनुभव भी है, जहां उन्होंने डिजिटल-केंद्रित ग्राहकों के लिए पार्टनर सक्सेस सॉल्यूशंस आर्किटेक्ट के रूप में काम किया था।

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी