Generative Data Intelligence

Βελτιώστε την τεχνητή νοημοσύνη συνομιλίας με προηγμένες τεχνικές δρομολόγησης με το Amazon Bedrock | Υπηρεσίες Ιστού της Amazon

Ημερομηνία:

Οι βοηθοί συνομιλίας τεχνητής νοημοσύνης (AI) έχουν σχεδιαστεί για να παρέχουν ακριβείς απαντήσεις σε πραγματικό χρόνο μέσω της έξυπνης δρομολόγησης των ερωτημάτων στις πιο κατάλληλες λειτουργίες AI. Με υπηρεσίες τεχνητής νοημοσύνης που δημιουργούνται από AWS όπως Θεμέλιο του Αμαζονίου, οι προγραμματιστές μπορούν να δημιουργήσουν συστήματα που διαχειρίζονται με εξειδίκευση και ανταποκρίνονται στα αιτήματα των χρηστών. Το Amazon Bedrock είναι μια πλήρως διαχειριζόμενη υπηρεσία που προσφέρει μια επιλογή από μοντέλα θεμελίωσης υψηλής απόδοσης (FM) από κορυφαίες εταιρείες τεχνητής νοημοσύνης όπως AI21 Labs, Anthropic, Cohere, Meta, Stability AI και Amazon χρησιμοποιώντας ένα μόνο API, μαζί με ένα ευρύ σύνολο δυνατότητες που χρειάζεστε για να δημιουργήσετε παραγωγικές εφαρμογές τεχνητής νοημοσύνης με ασφάλεια, απόρρητο και υπεύθυνη τεχνητή νοημοσύνη.

Αυτή η ανάρτηση αξιολογεί δύο βασικές προσεγγίσεις για την ανάπτυξη βοηθών τεχνητής νοημοσύνης: τη χρήση διαχειριζόμενων υπηρεσιών όπως π.χ Πράκτορες για το Amazon Bedrock, και χρησιμοποιώντας τεχνολογίες ανοιχτού κώδικα όπως LangChain. Εξερευνούμε τα πλεονεκτήματα και τις προκλήσεις του καθενός, ώστε να μπορείτε να επιλέξετε την καταλληλότερη διαδρομή για τις ανάγκες σας.

Τι είναι ο βοηθός AI;

Ο βοηθός AI είναι ένα έξυπνο σύστημα που κατανοεί ερωτήματα φυσικής γλώσσας και αλληλεπιδρά με διάφορα εργαλεία, πηγές δεδομένων και API για την εκτέλεση εργασιών ή την ανάκτηση πληροφοριών για λογαριασμό του χρήστη. Οι αποτελεσματικοί βοηθοί τεχνητής νοημοσύνης διαθέτουν τις ακόλουθες βασικές δυνατότητες:

  • Επεξεργασία φυσικής γλώσσας (NLP) και ροή συνομιλίας
  • Ενσωμάτωση γνωσιακής βάσης και σημασιολογικές αναζητήσεις για την κατανόηση και ανάκτηση σχετικών πληροφοριών με βάση τις αποχρώσεις του πλαισίου συνομιλίας
  • Εκτέλεση εργασιών, όπως ερωτήματα βάσης δεδομένων και προσαρμοσμένες AWS Lambda λειτουργίες
  • Χειρισμός εξειδικευμένων συνομιλιών και αιτημάτων χρηστών

Δείχνουμε τα οφέλη των βοηθών τεχνητής νοημοσύνης χρησιμοποιώντας τη διαχείριση συσκευών Internet of Things (IoT) ως παράδειγμα. Σε αυτήν την περίπτωση χρήσης, η τεχνητή νοημοσύνη μπορεί να βοηθήσει τους τεχνικούς να διαχειρίζονται αποτελεσματικά τα μηχανήματα με εντολές που ανακτούν δεδομένα ή αυτοματοποιούν εργασίες, απλοποιώντας τις λειτουργίες στην κατασκευή.

Agents for Amazon Bedrock προσέγγιση

Πράκτορες για το Amazon Bedrock σας επιτρέπει να δημιουργείτε εφαρμογές τεχνητής νοημοσύνης που δημιουργούνται, οι οποίες μπορούν να εκτελούν εργασίες πολλαπλών βημάτων στα συστήματα και τις πηγές δεδομένων μιας εταιρείας. Προσφέρει τις ακόλουθες βασικές δυνατότητες:

  • Αυτόματη δημιουργία προτροπής από οδηγίες, λεπτομέρειες API και πληροφορίες πηγής δεδομένων, εξοικονομώντας εβδομάδες άμεσης προσπάθειας μηχανικής
  • Ανάκτηση Augmented Generation (RAG) για ασφαλή σύνδεση πρακτόρων με πηγές δεδομένων μιας εταιρείας και παροχή σχετικών απαντήσεων
  • Ενορχήστρωση και εκτέλεση εργασιών πολλαπλών βημάτων αναλύοντας τα αιτήματα σε λογικές ακολουθίες και καλώντας τα απαραίτητα API
  • Ορατότητα του συλλογισμού του πράκτορα μέσω ενός ίχνους αλυσίδας σκέψης (CoT), επιτρέποντας την αντιμετώπιση προβλημάτων και την καθοδήγηση της συμπεριφοράς του μοντέλου
  • Προτάσεις μηχανικής για την τροποποίηση του προτύπου προτροπής που δημιουργείται αυτόματα για βελτιωμένο έλεγχο των πρακτόρων

Μπορείτε να χρησιμοποιήσετε το Agents για το Amazon Bedrock και Βάσεις γνώσεων για το Amazon Bedrock να δημιουργήσει και να αναπτύξει βοηθούς AI για περίπλοκες περιπτώσεις χρήσης δρομολόγησης. Παρέχουν στρατηγικό πλεονέκτημα για προγραμματιστές και οργανισμούς απλοποιώντας τη διαχείριση της υποδομής, ενισχύοντας την επεκτασιμότητα, βελτιώνοντας την ασφάλεια και μειώνοντας την αδιαφοροποίητη ανύψωση βαρέων βαρών. Επιτρέπουν επίσης απλούστερο κώδικα επιπέδου εφαρμογής επειδή η λογική δρομολόγησης, η διανυσματοποίηση και η μνήμη διαχειρίζονται πλήρως.

Επισκόπηση λύσεων

Αυτή η λύση εισάγει έναν βοηθό συνομιλίας AI προσαρμοσμένο για τη διαχείριση και τις λειτουργίες συσκευών IoT κατά τη χρήση του Claude v2.1 της Anthropic στο Amazon Bedrock. Η βασική λειτουργικότητα του βοηθού AI διέπεται από ένα ολοκληρωμένο σύνολο οδηγιών, γνωστών ως α προτροπή συστήματος, το οποίο οριοθετεί τις δυνατότητές του και τους τομείς εξειδίκευσής του. Αυτή η καθοδήγηση διασφαλίζει ότι ο βοηθός AI μπορεί να χειριστεί ένα ευρύ φάσμα εργασιών, από τη διαχείριση πληροφοριών συσκευής έως την εκτέλεση λειτουργικών εντολών.

"""The following is the system prompt that outlines the full scope of the AI assistant's capabilities:
You are an IoT Ops agent that handles the following activities:
- Looking up IoT device information
- Checking IoT operating metrics (historical data)
- Performing actions on a device-by-device ID
- Answering general questions
You can check device information (Device ID, Features, Technical Specifications, Installation Guide, Maintenance and Troubleshooting, Safety Guidelines, Warranty, and Support) from the "IotDeviceSpecs" knowledge base.
Additionally, you can access device historical data or device metrics. The device metrics are stored in an Athena DB named "iot_ops_glue_db" in a table named "iot_device_metrics". 
The table schema includes fields for oil level, temperature, pressure, received_at timestamp, and device_id.
The available actions you can perform on the devices include start, shutdown, and reboot."""

Εξοπλισμένος με αυτές τις δυνατότητες, όπως περιγράφεται λεπτομερώς στην προτροπή του συστήματος, ο βοηθός τεχνητής νοημοσύνης ακολουθεί μια δομημένη ροή εργασιών για την αντιμετώπιση των ερωτήσεων των χρηστών. Το παρακάτω σχήμα παρέχει μια οπτική αναπαράσταση αυτής της ροής εργασίας, απεικονίζοντας κάθε βήμα από την αρχική αλληλεπίδραση του χρήστη έως την τελική απόκριση.

μια οπτική αναπαράσταση αυτής της ροής εργασίας, που απεικονίζει κάθε βήμα από την αρχική αλληλεπίδραση του χρήστη έως την τελική απόκριση.

Η ροή εργασίας αποτελείται από τα ακόλουθα βήματα:

  1. Η διαδικασία ξεκινά όταν ένας χρήστης ζητά από τον βοηθό να εκτελέσει μια εργασία. για παράδειγμα, ζητώντας τα μέγιστα σημεία δεδομένων για μια συγκεκριμένη συσκευή IoT device_xxx. Αυτή η εισαγωγή κειμένου καταγράφεται και αποστέλλεται στον βοηθό τεχνητής νοημοσύνης.
  2. Ο βοηθός AI ερμηνεύει την εισαγωγή κειμένου του χρήστη. Χρησιμοποιεί το παρεχόμενο ιστορικό συνομιλιών, ομάδες ενεργειών και βάσεις γνώσεων για να κατανοήσει το πλαίσιο και να καθορίσει τις απαραίτητες εργασίες.
  3. Αφού αναλυθεί και κατανοηθεί η πρόθεση του χρήστη, ο βοηθός τεχνητής νοημοσύνης ορίζει εργασίες. Αυτό βασίζεται στις οδηγίες που ερμηνεύονται από τον βοηθό σύμφωνα με την προτροπή του συστήματος και τα στοιχεία του χρήστη.
  4. Στη συνέχεια, οι εργασίες εκτελούνται μέσω μιας σειράς κλήσεων API. Αυτό γίνεται χρησιμοποιώντας Αντιδρώ προτροπή, η οποία αναλύει την εργασία σε μια σειρά βημάτων που επεξεργάζονται διαδοχικά:
    1. Για ελέγχους μετρήσεων συσκευής, χρησιμοποιούμε το check-device-metrics ομάδα δράσης, η οποία περιλαμβάνει μια κλήση API στις συναρτήσεις Lambda που στη συνέχεια κάνουν ερώτημα Αμαζόν Αθηνά για τα ζητούμενα δεδομένα.
    2. Για άμεσες ενέργειες συσκευής όπως εκκίνηση, διακοπή ή επανεκκίνηση, χρησιμοποιούμε το action-on-device ομάδα δράσης, η οποία καλεί μια συνάρτηση Λάμδα. Αυτή η λειτουργία ξεκινά μια διαδικασία που στέλνει εντολές στη συσκευή IoT. Για αυτήν την ανάρτηση, η συνάρτηση Lambda στέλνει ειδοποιήσεις χρησιμοποιώντας Απλή υπηρεσία email της Amazon (Amazon SES).
    3. Χρησιμοποιούμε Γνωσιακές Βάσεις για το Amazon Bedrock για να ανακτήσουμε από ιστορικά δεδομένα που είναι αποθηκευμένα ως ενσωματώσεις στο Amazon OpenSearch Service διανυσματική βάση δεδομένων.
  5. Μετά την ολοκλήρωση των εργασιών, η τελική απάντηση δημιουργείται από το Amazon Bedrock FM και μεταφέρεται πίσω στον χρήστη.
  6. Το Agents for Amazon Bedrock αποθηκεύει αυτόματα πληροφορίες χρησιμοποιώντας μια κατάσταση συνεδρίας για να διατηρήσει την ίδια συνομιλία. Η κατάσταση διαγράφεται αφού παρέλθει ένα ρυθμιζόμενο χρονικό όριο αδράνειας.

Τεχνική επισκόπηση

Το παρακάτω διάγραμμα απεικονίζει την αρχιτεκτονική για την ανάπτυξη ενός βοηθού AI με τους Agents για το Amazon Bedrock.

Διάγραμμα αρχιτεκτονικής για την ανάπτυξη ενός βοηθού AI με τους Agents για το Amazon Bedrock.

Αποτελείται από τα ακόλουθα βασικά στοιχεία:

  • Διασύνδεση συνομιλίας – Η διεπαφή συνομιλίας χρησιμοποιεί το Streamlit, μια βιβλιοθήκη Python ανοιχτού κώδικα που απλοποιεί τη δημιουργία προσαρμοσμένων, οπτικά ελκυστικών εφαρμογών ιστού για μηχανική μάθηση (ML) και επιστήμη δεδομένων. Φιλοξενείται στις Υπηρεσία ελαστικών εμπορευματοκιβωτίων Amazon (Amazon ECS) με AWS Fargate, και η πρόσβαση σε αυτό γίνεται χρησιμοποιώντας ένα Application Load Balancer. Μπορείτε να χρησιμοποιήσετε το Fargate με το Amazon ECS για εκτέλεση δοχεία χωρίς να χρειάζεται να διαχειρίζεστε διακομιστές, συμπλέγματα ή εικονικές μηχανές.
  • Πράκτορες για το Amazon Bedrock – Το Agents for Amazon Bedrock ολοκληρώνει τα ερωτήματα των χρηστών μέσω μιας σειράς συλλογιστικών βημάτων και αντίστοιχων ενεργειών που βασίζονται σε Προτροπή ReAct:
    • Βάσεις γνώσεων για το Amazon Bedrock – Το Knowledge Bases for Amazon Bedrock παρέχει πλήρως διαχειριζόμενη ΚΟΥΡΕΛΙ για να παρέχει στον βοηθό AI πρόσβαση στα δεδομένα σας. Στην περίπτωση χρήσης μας, ανεβάσαμε τις προδιαγραφές της συσκευής σε ένα Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3) κάδος. Χρησιμεύει ως πηγή δεδομένων στη βάση γνώσεων.
    • Ομάδες δράσης – Αυτά είναι καθορισμένα σχήματα API που καλούν συγκεκριμένες λειτουργίες Lambda για αλληλεπίδραση με συσκευές IoT και άλλες υπηρεσίες AWS.
    • Anthropic Claude v2.1 στο Amazon Bedrock – Αυτό το μοντέλο ερμηνεύει τα ερωτήματα των χρηστών και ενορχηστρώνει τη ροή των εργασιών.
    • Amazon Titan Embeddings – Αυτό το μοντέλο χρησιμεύει ως μοντέλο ενσωμάτωσης κειμένου, μετατρέποντας το κείμενο της φυσικής γλώσσας—από μεμονωμένες λέξεις σε σύνθετα έγγραφα—σε αριθμητικά διανύσματα. Αυτό επιτρέπει δυνατότητες διανυσματικής αναζήτησης, επιτρέποντας στο σύστημα να αντιστοιχίζει σημασιολογικά ερωτήματα χρήστη με τις πιο σχετικές καταχωρήσεις βάσης γνώσεων για αποτελεσματική αναζήτηση.

Η λύση είναι ενσωματωμένη με υπηρεσίες AWS όπως το Lambda για την εκτέλεση κώδικα σε απόκριση σε κλήσεις API, το Athena για τα σύνολα δεδομένων ερωτημάτων, την υπηρεσία OpenSearch για αναζήτηση μέσω βάσεων γνώσης και το Amazon S3 για αποθήκευση. Αυτές οι υπηρεσίες συνεργάζονται για να παρέχουν μια απρόσκοπτη εμπειρία για τη διαχείριση λειτουργιών συσκευών IoT μέσω εντολών φυσικής γλώσσας.

Oφέλη

Αυτή η λύση προσφέρει τα ακόλουθα οφέλη:

  • Πολυπλοκότητα υλοποίησης:
    • Απαιτούνται λιγότερες γραμμές κώδικα, επειδή το Agents for Amazon Bedrock αφαιρεί μεγάλο μέρος της υποκείμενης πολυπλοκότητας, μειώνοντας την προσπάθεια ανάπτυξης
    • Η διαχείριση διανυσματικών βάσεων δεδομένων όπως η Υπηρεσία OpenSearch είναι απλοποιημένη, επειδή οι Βάσεις Γνώσης για το Amazon Bedrock χειρίζονται τη διανυσματική και αποθήκευση
    • Η ενσωμάτωση με διάφορες υπηρεσίες AWS είναι πιο βελτιωμένη μέσω προκαθορισμένων ομάδων δράσης
  • Εμπειρία προγραμματιστή:
    • Η κονσόλα Amazon Bedrock παρέχει μια φιλική προς το χρήστη διεπαφή για άμεση ανάπτυξη, δοκιμή και ανάλυση βασικών αιτιών (RCA), βελτιώνοντας τη συνολική εμπειρία προγραμματιστή
  • Ευελιξία και ευελιξία:
    • Το Agents for Amazon Bedrock επιτρέπει απρόσκοπτες αναβαθμίσεις σε νεότερα FM (όπως το Claude 3.0) όταν αυτά γίνουν διαθέσιμα, ώστε η λύση σας να παραμένει ενημερωμένη με τις πιο πρόσφατες εξελίξεις
    • Οι ποσοστώσεις και οι περιορισμοί υπηρεσιών διαχειρίζονται από το AWS, μειώνοντας τα γενικά έξοδα της υποδομής παρακολούθησης και κλιμάκωσης
  • Ασφάλεια:
    • Το Amazon Bedrock είναι μια πλήρως διαχειριζόμενη υπηρεσία, που τηρεί τα αυστηρά πρότυπα ασφάλειας και συμμόρφωσης της AWS, απλοποιώντας ενδεχομένως τις οργανωτικές αξιολογήσεις ασφάλειας

Αν και το Agents for Amazon Bedrock προσφέρει μια βελτιωμένη και διαχειριζόμενη λύση για τη δημιουργία εφαρμογών τεχνητής νοημοσύνης συνομιλίας, ορισμένοι οργανισμοί μπορεί να προτιμούν μια προσέγγιση ανοιχτού κώδικα. Σε τέτοιες περιπτώσεις, μπορείτε να χρησιμοποιήσετε πλαίσια όπως το LangChain, τα οποία θα συζητήσουμε στην επόμενη ενότητα.

Δυναμική προσέγγιση δρομολόγησης LangChain

Το LangChain είναι ένα πλαίσιο ανοιχτού κώδικα που απλοποιεί τη δημιουργία τεχνητής νοημοσύνης συνομιλίας επιτρέποντας την ενσωμάτωση μεγάλων μοντέλων γλώσσας (LLM) και δυνατοτήτων δυναμικής δρομολόγησης. Με τη γλώσσα έκφρασης LangChain (LCEL), οι προγραμματιστές μπορούν να ορίσουν το δρομολόγηση, το οποίο σας επιτρέπει να δημιουργήσετε μη ντετερμινιστικές αλυσίδες όπου η έξοδος ενός προηγούμενου βήματος καθορίζει το επόμενο βήμα. Η δρομολόγηση βοηθά στην παροχή δομής και συνέπειας στις αλληλεπιδράσεις με τα LLM.

Για αυτήν την ανάρτηση, χρησιμοποιούμε το ίδιο παράδειγμα με τον βοηθό AI για τη διαχείριση συσκευών IoT. Ωστόσο, η κύρια διαφορά είναι ότι πρέπει να χειριζόμαστε τις προτροπές του συστήματος ξεχωριστά και να αντιμετωπίζουμε κάθε αλυσίδα ως ξεχωριστή οντότητα. Η αλυσίδα δρομολόγησης αποφασίζει την αλυσίδα προορισμού με βάση την είσοδο του χρήστη. Η απόφαση λαμβάνεται με την υποστήριξη ενός LLM περνώντας το μήνυμα προτροπής συστήματος, το ιστορικό συνομιλιών και την ερώτηση του χρήστη.

Επισκόπηση λύσεων

Το παρακάτω διάγραμμα απεικονίζει τη ροή εργασίας της λύσης δυναμικής δρομολόγησης.

Ροή εργασιών δυναμικής λύσης δρομολόγησης με το LangChain

Η ροή εργασίας αποτελείται από τα ακόλουθα βήματα:

  1. Ο χρήστης υποβάλλει μια ερώτηση στον βοηθό AI. Για παράδειγμα, "Ποιες είναι οι μέγιστες μετρήσεις για τη συσκευή 1009;"
  2. Ένα LLM αξιολογεί κάθε ερώτηση μαζί με το ιστορικό συνομιλίας από την ίδια συνεδρία για να προσδιορίσει τη φύση της και σε ποια θεματική περιοχή εμπίπτει (όπως SQL, δράση, αναζήτηση ή SME). Το LLM ταξινομεί την είσοδο και η αλυσίδα δρομολόγησης LCEL παίρνει αυτήν την είσοδο.
  3. Η αλυσίδα δρομολογητή επιλέγει την αλυσίδα προορισμού με βάση την είσοδο και το LLM παρέχεται με την ακόλουθη προτροπή συστήματος:
"""Given the user question below, classify it as one of the candidate prompts. You may want to modify the input considering the chat history and the context of the question. 
Sometimes the user may just assume that you have the context of the conversation and may not provide a clear input. Hence, you are being provided with the chat history for more context. 
Respond with only a Markdown code snippet containing a JSON object formatted EXACTLY as specified below. 
Do not provide an explanation to your classification beside the Markdown, I just need to know your decision on which destination and next_inputs
<candidate prompt>
physics: Good for answering questions about physics
sql: sql: Good for querying sql from AWS Athena. User input may look like: get me max or min for device x?
lambdachain: Good to execute actions with Amazon Lambda like shutting down a device or turning off an engine User input can be like, shutdown device x, or terminate process y, etc.
rag: Good to search knowledgebase and retrieve information about devices and other related information. User question can be like: what do you know about device x?
default: if the input is not well suited for any of the candidate prompts above. this could be used to carry on the conversation and respond to queries like provide a summary of the conversation
</candidate prompt>"""

Το LLM αξιολογεί την ερώτηση του χρήστη μαζί με το ιστορικό συνομιλίας για να καθορίσει τη φύση του ερωτήματος και σε ποια θεματική περιοχή εμπίπτει. Στη συνέχεια, το LLM ταξινομεί την είσοδο και εξάγει μια απάντηση JSON στην ακόλουθη μορφή:

<Markdown>
```json
{{
"destination": string  name of the prompt to use
"next_inputs": string  a potentially modified version of the original input
}}
```

Η αλυσίδα δρομολογητή χρησιμοποιεί αυτήν την απόκριση JSON για να καλέσει την αντίστοιχη αλυσίδα προορισμού. Υπάρχουν τέσσερις αλυσίδες προορισμού για συγκεκριμένο θέμα, η καθεμία με τη δική της προτροπή συστήματος:

  1. Τα ερωτήματα που σχετίζονται με την SQL αποστέλλονται στην αλυσίδα προορισμού SQL για αλληλεπιδράσεις με βάση δεδομένων. Μπορείτε να χρησιμοποιήσετε το LCEL για την κατασκευή του Αλυσίδα SQL.
  2. Οι ερωτήσεις προσανατολισμένες στη δράση επικαλούνται την προσαρμοσμένη αλυσίδα προορισμού Lambda για την εκτέλεση λειτουργιών. Με το LCEL, μπορείτε να ορίσετε το δικό σας προσαρμοσμένη λειτουργία; στην περίπτωσή μας, είναι μια συνάρτηση που εκτελεί μια προκαθορισμένη συνάρτηση Lambda για την αποστολή ενός email με αναλυμένο αναγνωριστικό συσκευής. Παράδειγμα εισαγωγής χρήστη μπορεί να είναι "Τερματισμός συσκευής 1009".
  3. Οι έρευνες εστιασμένες στην αναζήτηση προχωρούν στο ΚΟΥΡΕΛΙ αλυσίδα προορισμού για ανάκτηση πληροφοριών.
  4. Οι ερωτήσεις που σχετίζονται με τις ΜΜΕ πηγαίνουν στην αλυσίδα προορισμού ΜΜΕ/ειδικών για εξειδικευμένες πληροφορίες.
  5. Κάθε αλυσίδα προορισμού λαμβάνει την είσοδο και εκτελεί τα απαραίτητα μοντέλα ή λειτουργίες:
    1. Η αλυσίδα SQL χρησιμοποιεί το Athena για την εκτέλεση ερωτημάτων.
    2. Η αλυσίδα RAG χρησιμοποιεί την Υπηρεσία OpenSearch για σημασιολογική αναζήτηση.
    3. Η προσαρμοσμένη αλυσίδα Lambda εκτελεί λειτουργίες Lambda για ενέργειες.
    4. Η αλυσίδα ΜΜΕ/ειδών παρέχει πληροφορίες χρησιμοποιώντας το μοντέλο Amazon Bedrock.
  6. Οι απαντήσεις από κάθε αλυσίδα προορισμού διατυπώνονται σε συνεκτικές πληροφορίες από το LLM. Στη συνέχεια, αυτές οι πληροφορίες παραδίδονται στον χρήστη, ολοκληρώνοντας τον κύκλο ερωτημάτων.
  7. Η είσοδος και οι απαντήσεις του χρήστη αποθηκεύονται στο Amazon DynamoDB για την παροχή πλαισίου στο LLM για την τρέχουσα συνεδρία και από προηγούμενες αλληλεπιδράσεις. Η διάρκεια των διαρκών πληροφοριών στο DynamoDB ελέγχεται από την εφαρμογή.

Τεχνική επισκόπηση

Το παρακάτω διάγραμμα απεικονίζει την αρχιτεκτονική της λύσης δυναμικής δρομολόγησης LangChain.

Διάγραμμα αρχιτεκτονικής της λύσης δυναμικής δρομολόγησης LangChain

Η διαδικτυακή εφαρμογή είναι χτισμένη σε Streamlit που φιλοξενείται στο Amazon ECS με Fargate και η πρόσβαση σε αυτήν γίνεται χρησιμοποιώντας ένα Application Load Balancer. Χρησιμοποιούμε το Anthropic's Claude v2.1 στο Amazon Bedrock ως το LLM μας. Η εφαρμογή Ιστού αλληλεπιδρά με το μοντέλο χρησιμοποιώντας βιβλιοθήκες LangChain. Επίσης, αλληλεπιδρά με διάφορες άλλες υπηρεσίες AWS, όπως το OpenSearch Service, το Athena και το DynamoDB για να ικανοποιήσει τις ανάγκες των τελικών χρηστών.

Oφέλη

Αυτή η λύση προσφέρει τα ακόλουθα οφέλη:

  • Πολυπλοκότητα υλοποίησης:
    • Αν και απαιτεί περισσότερο κώδικα και προσαρμοσμένη ανάπτυξη, το LangChain παρέχει μεγαλύτερη ευελιξία και έλεγχο στη λογική δρομολόγησης και ενσωμάτωση με διάφορα στοιχεία.
    • Η διαχείριση διανυσματικών βάσεων δεδομένων όπως η Υπηρεσία OpenSearch απαιτεί πρόσθετες προσπάθειες ρύθμισης και διαμόρφωσης. Η διαδικασία διανυσματοποίησης υλοποιείται σε κώδικα.
    • Η ενσωμάτωση με υπηρεσίες AWS ενδέχεται να περιλαμβάνει περισσότερο προσαρμοσμένο κώδικα και διαμόρφωση.
  • Εμπειρία προγραμματιστή:
    • Η προσέγγιση που βασίζεται στην Python και η εκτεταμένη τεκμηρίωση της LangChain μπορεί να είναι ελκυστικές για προγραμματιστές που είναι ήδη εξοικειωμένοι με την Python και τα εργαλεία ανοιχτού κώδικα.
    • Η έγκαιρη ανάπτυξη και εντοπισμός σφαλμάτων ενδέχεται να απαιτούν περισσότερη μη αυτόματη προσπάθεια σε σύγκριση με τη χρήση της κονσόλας Amazon Bedrock.
  • Ευελιξία και ευελιξία:
    • Το LangChain υποστηρίζει ένα ευρύ φάσμα LLM, επιτρέποντάς σας να κάνετε εναλλαγή μεταξύ διαφορετικών μοντέλων ή παρόχων, ενισχύοντας την ευελιξία.
    • Η φύση ανοιχτού κώδικα του LangChain επιτρέπει βελτιώσεις και προσαρμογές με γνώμονα την κοινότητα.
  • Ασφάλεια:
    • Ως πλαίσιο ανοιχτού κώδικα, το LangChain ενδέχεται να απαιτεί πιο αυστηρούς ελέγχους ασφαλείας και ελέγχους εντός των οργανισμών, προσθέτοντας ενδεχομένως γενικά έξοδα.

Συμπέρασμα

Οι βοηθοί συνομιλίας AI είναι μετασχηματιστικά εργαλεία για τον εξορθολογισμό των λειτουργιών και τη βελτίωση των εμπειριών των χρηστών. Αυτή η ανάρτηση διερεύνησε δύο ισχυρές προσεγγίσεις που χρησιμοποιούν υπηρεσίες AWS: τους διαχειριζόμενους Agents για το Amazon Bedrock και την ευέλικτη, ανοιχτού κώδικα δυναμική δρομολόγηση LangChain. Η επιλογή μεταξύ αυτών των προσεγγίσεων εξαρτάται από τις απαιτήσεις του οργανισμού σας, τις προτιμήσεις ανάπτυξης και το επιθυμητό επίπεδο προσαρμογής. Ανεξάρτητα από την πορεία που ακολουθήσατε, το AWS σάς δίνει τη δυνατότητα να δημιουργήσετε έξυπνους βοηθούς τεχνητής νοημοσύνης που φέρνουν επανάσταση στις αλληλεπιδράσεις επιχειρήσεων και πελατών

Βρείτε τον κωδικό λύσης και τα στοιχεία ανάπτυξης στο δικό μας Αποθετήριο GitHub, όπου μπορείτε να ακολουθήσετε τα λεπτομερή βήματα για κάθε προσέγγιση συνομιλίας AI.


Σχετικά με τους Συγγραφείς

Αμέερ Χακμέ είναι αρχιτέκτονας λύσεων AWS με έδρα την Πενσυλβάνια. Συνεργάζεται με τους Ανεξάρτητους Προμηθευτές Λογισμικού (ISV) στη βορειοανατολική περιοχή, βοηθώντας τους στο σχεδιασμό και την κατασκευή επεκτάσιμων και σύγχρονων πλατφορμών στο AWS Cloud. Εμπειρογνώμονας στο AI/ML και τη γενετική τεχνητή νοημοσύνη, ο Ameer βοηθά τους πελάτες να ξεκλειδώσουν τις δυνατότητες αυτών των τεχνολογιών αιχμής. Στον ελεύθερο χρόνο του, απολαμβάνει να οδηγεί τη μοτοσικλέτα του και να περνά ποιοτικό χρόνο με την οικογένειά του.

Σάρον Λι είναι αρχιτέκτονας λύσεων AI/ML στην Amazon Web Services με έδρα τη Βοστώνη, με πάθος να σχεδιάζει και να δημιουργεί Generative AI εφαρμογές στο AWS. Συνεργάζεται με πελάτες για να αξιοποιήσει τις υπηρεσίες AWS AI/ML για καινοτόμες λύσεις.

Καουσάρ Καμάλ είναι ανώτερος αρχιτέκτονας λύσεων στην Amazon Web Services με πάνω από 15 χρόνια εμπειρία στον αυτοματισμό υποδομής και στον χώρο ασφάλειας. Βοηθά τους πελάτες να σχεδιάσουν και να δημιουργήσουν επεκτάσιμες λύσεις DevSecOps και AI/ML στο Cloud.

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?