ភាពវៃឆ្លាតទិន្នន័យជំនាន់

បង្កើនការសន្ទនា AI ជាមួយនឹងបច្ចេកទេសនាំផ្លូវកម្រិតខ្ពស់ជាមួយ Amazon Bedrock | សេវាកម្មគេហទំព័រ Amazon

កាលបរិច្ឆេទ:

ជំនួយការបញ្ញាសិប្បនិមិត្ត (AI) សម្រាប់ការសន្ទនាត្រូវបានបង្កើតឡើងដើម្បីផ្តល់នូវការឆ្លើយតបតាមពេលវេលាជាក់ស្តែង និងច្បាស់លាស់តាមរយៈការបញ្ជូនសំណួរឆ្លាតវៃទៅកាន់មុខងារ AI ដែលសមស្របបំផុត។ ជាមួយនឹងសេវាកម្ម AI បង្កើតរបស់ AWS ដូចជា ក្រុមហ៊ុន Amazon Bedrockអ្នកអភិវឌ្ឍន៍អាចបង្កើតប្រព័ន្ធដែលគ្រប់គ្រងដោយជំនាញ និងឆ្លើយតបទៅនឹងសំណើរបស់អ្នកប្រើប្រាស់។ Amazon Bedrock គឺជាសេវាកម្មគ្រប់គ្រងពេញលេញដែលផ្តល់នូវជម្រើសនៃគំរូគ្រឹះដែលដំណើរការខ្ពស់ (FMs) ពីក្រុមហ៊ុន AI ឈានមុខគេដូចជា AI21 Labs, Anthropic, Cohere, Meta, Stability AI និង Amazon ដោយប្រើ API តែមួយ រួមជាមួយនឹងសំណុំទូលំទូលាយនៃ សមត្ថភាព​ដែល​អ្នក​ត្រូវ​ការ​ដើម្បី​បង្កើត​កម្មវិធី AI ជំនាន់​ថ្មី​ជាមួយ​នឹង​សុវត្ថិភាព ឯកជនភាព និង AI ដែល​ទទួល​ខុស​ត្រូវ។

ប្រកាសនេះវាយតម្លៃវិធីសាស្រ្តចម្បងពីរសម្រាប់ការអភិវឌ្ឍជំនួយការ AI៖ ការប្រើប្រាស់សេវាកម្មគ្រប់គ្រងដូចជា ភ្នាក់ងារសម្រាប់ Amazon Bedrockនិងប្រើប្រាស់បច្ចេកវិទ្យាប្រភពបើកចំហដូចជា LangChain. យើងស្វែងយល់ពីគុណសម្បត្តិ និងបញ្ហាប្រឈមនីមួយៗ ដូច្នេះអ្នកអាចជ្រើសរើសផ្លូវសមស្របបំផុតសម្រាប់តម្រូវការរបស់អ្នក។

តើជំនួយការ AI ជាអ្វី?

ជំនួយការ AI គឺជាប្រព័ន្ធឆ្លាតវៃដែលយល់ពីសំណួរភាសាធម្មជាតិ និងធ្វើអន្តរកម្មជាមួយឧបករណ៍ផ្សេងៗ ប្រភពទិន្នន័យ និង APIs ដើម្បីបំពេញភារកិច្ច ឬទាញយកព័ត៌មានជំនួសអ្នកប្រើប្រាស់។ ជំនួយការ AI ដែលមានប្រសិទ្ធភាពមានសមត្ថភាពសំខាន់ៗដូចខាងក្រោម៖

  • ដំណើរការភាសាធម្មជាតិ (NLP) និងលំហូរសន្ទនា
  • ការរួមបញ្ចូលមូលដ្ឋានចំណេះដឹង និងការស្វែងរកតាមន័យធៀប ដើម្បីយល់ និងទាញយកព័ត៌មានដែលពាក់ព័ន្ធដោយផ្អែកលើខ្លឹមសារនៃការសន្ទនា
  • កំពុងដំណើរការភារកិច្ច ដូចជាសំណួរមូលដ្ឋានទិន្នន័យ និងផ្ទាល់ខ្លួន AWS Lambda មុខងារ
  • ដោះស្រាយការសន្ទនាឯកទេស និងសំណើរបស់អ្នកប្រើប្រាស់

យើងបង្ហាញពីអត្ថប្រយោជន៍នៃជំនួយការ AI ដោយប្រើការគ្រប់គ្រងឧបករណ៍ Internet of Things (IoT) ជាឧទាហរណ៍។ នៅក្នុងករណីនៃការប្រើប្រាស់នេះ AI អាចជួយអ្នកបច្ចេកទេសគ្រប់គ្រងម៉ាស៊ីនប្រកបដោយប្រសិទ្ធភាពជាមួយនឹងពាក្យបញ្ជាដែលទាញយកទិន្នន័យ ឬធ្វើកិច្ចការដោយស្វ័យប្រវត្តិ សម្រួលប្រតិបត្តិការក្នុងការផលិត។

ភ្នាក់ងារសម្រាប់វិធីសាស្រ្ត Amazon Bedrock

ភ្នាក់ងារសម្រាប់ Amazon Bedrock អនុញ្ញាត​ឱ្យ​អ្នក​បង្កើត​កម្មវិធី AI ជំនាន់​ថ្មី​ដែល​អាច​ដំណើរការ​កិច្ចការ​ច្រើន​ជំហាន​នៅ​ទូទាំង​ប្រព័ន្ធ និង​ប្រភព​ទិន្នន័យ​របស់​ក្រុមហ៊ុន។ វាផ្តល់នូវសមត្ថភាពសំខាន់ៗដូចខាងក្រោមៈ

  • ការបង្កើតប្រអប់បញ្ចូលដោយស្វ័យប្រវត្តិពីការណែនាំ ព័ត៌មានលម្អិត API និងព័ត៌មានប្រភពទិន្នន័យ រក្សាទុកសប្តាហ៍នៃការខិតខំប្រឹងប្រែងផ្នែកវិស្វកម្មភ្លាមៗ
  • Retrieval Augmented Generation (RAG) ដើម្បីភ្ជាប់ភ្នាក់ងារដោយសុវត្ថិភាពទៅនឹងប្រភពទិន្នន័យរបស់ក្រុមហ៊ុន និងផ្តល់ការឆ្លើយតបដែលពាក់ព័ន្ធ
  • ការរៀបចំ និងការដំណើរការកិច្ចការច្រើនជំហានដោយបំបែកសំណើទៅជាលំដាប់ឡូជីខល និងការហៅ APIs ចាំបាច់
  • ភាពមើលឃើញចូលទៅក្នុងការវែកញែករបស់ភ្នាក់ងារតាមរយៈខ្សែសង្វាក់នៃការគិត (CoT) ដែលអនុញ្ញាតឱ្យដោះស្រាយបញ្ហា និងការដឹកនាំឥរិយាបថគំរូ
  • ជម្រុញសមត្ថភាពវិស្វកម្មដើម្បីកែប្រែគំរូប្រអប់បញ្ចូលដែលបានបង្កើតដោយស្វ័យប្រវត្តិសម្រាប់ការគ្រប់គ្រងដែលប្រសើរឡើងលើភ្នាក់ងារ

អ្នកអាចប្រើភ្នាក់ងារសម្រាប់ Amazon Bedrock និង មូលដ្ឋានចំណេះដឹងសម្រាប់ Amazon Bedrock បង្កើត និងប្រើប្រាស់ជំនួយការ AI សម្រាប់ករណីប្រើប្រាស់ផ្លូវស្មុគស្មាញ។ ពួកគេផ្តល់អត្ថប្រយោជន៍ជាយុទ្ធសាស្រ្តសម្រាប់អ្នកអភិវឌ្ឍន៍ និងអង្គការនានា ដោយធ្វើឱ្យការគ្រប់គ្រងហេដ្ឋារចនាសម្ព័ន្ធងាយស្រួល បង្កើនទំហំ ធ្វើអោយប្រសើរឡើងនូវសុវត្ថិភាព និងកាត់បន្ថយការលើកទម្ងន់ធ្ងន់ដែលមិនមានលក្ខណៈខុសគ្នា។ ពួកគេក៏អនុញ្ញាតឱ្យមានកូដស្រទាប់កម្មវិធីសាមញ្ញជាងមុនផងដែរ ដោយសារតែតក្កកម្មផ្លូវ ការ វ៉ិចទ័រ និងអង្គចងចាំត្រូវបានគ្រប់គ្រងយ៉ាងពេញលេញ។

ទិដ្ឋភាពទូទៅនៃដំណោះស្រាយ

ដំណោះស្រាយនេះណែនាំជំនួយការ AI សម្រាប់ការសន្ទនាដែលត្រូវបានរចនាឡើងសម្រាប់ការគ្រប់គ្រង និងប្រតិបត្តិការឧបករណ៍ IoT នៅពេលប្រើ Claude v2.1 របស់ Anthropic នៅលើ Amazon Bedrock ។ មុខងារស្នូលរបស់ជំនួយការ AI ត្រូវបានគ្រប់គ្រងដោយសំណុំនៃការណែនាំដ៏ទូលំទូលាយ ដែលត្រូវបានគេស្គាល់ថាជា ការជម្រុញប្រព័ន្ធដែលកំណត់ពីសមត្ថភាព និងផ្នែកជំនាញរបស់ខ្លួន។ ការណែនាំនេះធ្វើឱ្យប្រាកដថា ជំនួយការ AI អាចដោះស្រាយកិច្ចការជាច្រើន ចាប់ពីការគ្រប់គ្រងព័ត៌មានឧបករណ៍ រហូតដល់ដំណើរការពាក្យបញ្ជាប្រតិបត្តិការ។

"""The following is the system prompt that outlines the full scope of the AI assistant's capabilities:
You are an IoT Ops agent that handles the following activities:
- Looking up IoT device information
- Checking IoT operating metrics (historical data)
- Performing actions on a device-by-device ID
- Answering general questions
You can check device information (Device ID, Features, Technical Specifications, Installation Guide, Maintenance and Troubleshooting, Safety Guidelines, Warranty, and Support) from the "IotDeviceSpecs" knowledge base.
Additionally, you can access device historical data or device metrics. The device metrics are stored in an Athena DB named "iot_ops_glue_db" in a table named "iot_device_metrics". 
The table schema includes fields for oil level, temperature, pressure, received_at timestamp, and device_id.
The available actions you can perform on the devices include start, shutdown, and reboot."""

បំពាក់ដោយសមត្ថភាពទាំងនេះ ដូចដែលបានរៀបរាប់លម្អិតនៅក្នុងប្រអប់បញ្ចូលប្រព័ន្ធ ជំនួយការ AI ធ្វើតាមដំណើរការការងារដែលមានរចនាសម្ព័ន្ធដើម្បីដោះស្រាយសំណួរអ្នកប្រើប្រាស់។ រូបខាងក្រោមផ្តល់នូវតំណាងដែលមើលឃើញនៃលំហូរការងារនេះ ដោយបង្ហាញជំហាននីមួយៗពីអន្តរកម្មអ្នកប្រើប្រាស់ដំបូងរហូតដល់ការឆ្លើយតបចុងក្រោយ។

តំណាងដែលមើលឃើញនៃលំហូរការងារនេះ ដោយបង្ហាញជំហាននីមួយៗពីអន្តរកម្មអ្នកប្រើប្រាស់ដំបូងរហូតដល់ការឆ្លើយតបចុងក្រោយ។

ដំណើរការការងារមានជំហានដូចខាងក្រោមៈ

  1. ដំណើរការចាប់ផ្តើមនៅពេលដែលអ្នកប្រើប្រាស់ស្នើសុំជំនួយការដើម្បីបំពេញភារកិច្ចមួយ។ ឧទាហរណ៍ ការស្នើសុំចំណុចទិន្នន័យអតិបរមាសម្រាប់ឧបករណ៍ IoT ជាក់លាក់មួយ។ device_xxx. ការបញ្ចូលអត្ថបទនេះត្រូវបានចាប់យក និងផ្ញើទៅកាន់ជំនួយការ AI ។
  2. ជំនួយការ AI បកស្រាយការបញ្ចូលអត្ថបទរបស់អ្នកប្រើប្រាស់។ វាប្រើប្រវត្តិនៃការសន្ទនា ក្រុមសកម្មភាព និងមូលដ្ឋានចំណេះដឹងដែលបានផ្តល់ ដើម្បីយល់ពីបរិបទ និងកំណត់កិច្ចការចាំបាច់។
  3. បន្ទាប់ពីចេតនារបស់អ្នកប្រើត្រូវបានញែក និងយល់ ជំនួយការ AI កំណត់ភារកិច្ច។ នេះគឺផ្អែកលើការណែនាំដែលត្រូវបានបកស្រាយដោយជំនួយការតាមប្រអប់បញ្ចូលរបស់ប្រព័ន្ធ និងការបញ្ចូលរបស់អ្នកប្រើប្រាស់។
  4. បន្ទាប់មកភារកិច្ចត្រូវបានដំណើរការតាមរយៈការហៅ API ជាបន្តបន្ទាប់។ នេះត្រូវបានធ្វើដោយប្រើ សកម្មភាពឡើងវិញ prompting ដែលបំបែកភារកិច្ចទៅជាស៊េរីនៃជំហានដែលត្រូវបានដំណើរការជាបន្តបន្ទាប់៖
    1. សម្រាប់ការត្រួតពិនិត្យឧបករណ៍វាស់ស្ទង់ យើងប្រើ check-device-metrics ក្រុមសកម្មភាពដែលពាក់ព័ន្ធនឹងការហៅ API ទៅកាន់មុខងារ Lambda ដែលបន្ទាប់មកសួរ អាម៉ាហ្សូនអាថេណា សម្រាប់ទិន្នន័យដែលបានស្នើសុំ។
    2. សម្រាប់សកម្មភាពផ្ទាល់របស់ឧបករណ៍ដូចជា ចាប់ផ្តើម បញ្ឈប់ ឬចាប់ផ្តើមឡើងវិញ យើងប្រើប៊ូតុង action-on-device ក្រុមសកម្មភាពដែលហៅមុខងារ Lambda ។ មុខងារនេះចាប់ផ្តើមដំណើរការដែលផ្ញើពាក្យបញ្ជាទៅកាន់ឧបករណ៍ IoT ។ សម្រាប់ការប្រកាសនេះ មុខងារ Lambda ផ្ញើការជូនដំណឹងដោយប្រើ សេវាកម្មអ៊ីមែលសាមញ្ញរបស់ក្រុមហ៊ុន Amazon (Amazon SES) ។
    3. យើងប្រើ Knowledge Bases សម្រាប់ Amazon Bedrock ដើម្បីទាញយកពីទិន្នន័យប្រវត្តិសាស្រ្តដែលបានរក្សាទុកជាការបង្កប់នៅក្នុង សេវាកម្ម Amazon OpenSearch មូលដ្ឋានទិន្នន័យវ៉ិចទ័រ។
  5. បន្ទាប់ពីកិច្ចការត្រូវបានបញ្ចប់ ការឆ្លើយតបចុងក្រោយត្រូវបានបង្កើតឡើងដោយ Amazon Bedrock FM ហើយបញ្ជូនត្រឡប់ទៅអ្នកប្រើប្រាស់វិញ។
  6. ភ្នាក់ងារសម្រាប់ Amazon Bedrock រក្សាទុកព័ត៌មានដោយស្វ័យប្រវត្តិ ដោយប្រើវគ្គរដ្ឋ ដើម្បីរក្សាការសន្ទនាដដែល។ ស្ថានភាពត្រូវបានលុបបន្ទាប់ពីការអស់ពេលទំនេរដែលអាចកំណត់រចនាសម្ព័ន្ធបានកន្លងផុតទៅ។

ទិដ្ឋភាពបច្ចេកទេស

ដ្យាក្រាមខាងក្រោមបង្ហាញពីស្ថាបត្យកម្មដើម្បីដាក់ពង្រាយជំនួយការ AI ជាមួយភ្នាក់ងារសម្រាប់ Amazon Bedrock ។

ដ្យាក្រាមស្ថាបត្យកម្មដើម្បីដាក់ពង្រាយជំនួយការ AI ជាមួយភ្នាក់ងារសម្រាប់ Amazon Bedrock ។

វាមានសមាសធាតុសំខាន់ៗដូចខាងក្រោមៈ

  • ចំណុចប្រទាក់សន្ទនា - ចំណុចប្រទាក់សន្ទនាប្រើ Streamlit ដែលជាបណ្ណាល័យ Python ប្រភពបើកចំហដែលជួយសម្រួលដល់ការបង្កើតកម្មវិធីគេហទំព័រផ្ទាល់ខ្លួន ទាក់ទាញដោយមើលឃើញសម្រាប់ការរៀនម៉ាស៊ីន (ML) និងវិទ្យាសាស្ត្រទិន្នន័យ។ វាត្រូវបានរៀបចំនៅលើ សេវាកម្មកុងតឺន័រអេល្យូមអេល (Amazon ECS) ជាមួយ អេសអេចហ្វាហ្គេតហើយវាត្រូវបានចូលប្រើដោយប្រើ Application Load Balancer។ អ្នកអាចប្រើ Fargate ជាមួយ Amazon ECS ដើម្បីដំណើរការ ធុង ដោយមិនចាំបាច់គ្រប់គ្រងម៉ាស៊ីនមេ ចង្កោម ឬម៉ាស៊ីននិម្មិត។
  • ភ្នាក់ងារសម្រាប់ Amazon Bedrock - ភ្នាក់ងារសម្រាប់ Amazon Bedrock បំពេញសំណួរអ្នកប្រើប្រាស់តាមរយៈជំហាននៃហេតុផល និងសកម្មភាពដែលត្រូវគ្នាដោយផ្អែកលើ ការជំរុញឱ្យធ្វើសកម្មភាពឡើងវិញ:
    • មូលដ្ឋានចំណេះដឹងសម្រាប់ Amazon Bedrock - មូលដ្ឋានចំណេះដឹងសម្រាប់ Amazon Bedrock ផ្តល់នូវការគ្រប់គ្រងយ៉ាងពេញលេញ រ៉ាក ដើម្បីផ្គត់ផ្គង់ជំនួយការ AI ជាមួយនឹងការចូលប្រើទិន្នន័យរបស់អ្នក។ ក្នុង​ករណី​ប្រើប្រាស់​របស់​យើង យើង​បាន​ផ្ទុក​ឡើង​នូវ​លក្ខណៈ​ពិសេស​របស់​ឧបករណ៍​ទៅ​ក្នុង​ សេវាកម្មផ្ទុកសាមញ្ញរបស់ក្រុមហ៊ុន Amazon (Amazon S3) ដាក់ធុង។ វាបម្រើជាប្រភពទិន្នន័យដល់មូលដ្ឋានចំណេះដឹង។
    • ក្រុមសកម្មភាព - ទាំងនេះគឺជាគ្រោងការណ៍ API ដែលបានកំណត់ដែលហៅមុខងារ Lambda ជាក់លាក់ដើម្បីធ្វើអន្តរកម្មជាមួយឧបករណ៍ IoT និងសេវាកម្ម AWS ផ្សេងទៀត។
    • Anthropic Claude v2.1 នៅលើ Amazon Bedrock - គំរូនេះបកស្រាយសំណួររបស់អ្នកប្រើ និងរៀបចំលំហូរនៃកិច្ចការ។
    • Amazon Titan បង្កប់ - គំរូនេះបម្រើជាគំរូបង្កប់អត្ថបទ បំប្លែងអត្ថបទភាសាធម្មជាតិ—ពីពាក្យតែមួយទៅឯកសារស្មុគស្មាញ—ទៅជាវ៉ិចទ័រជាលេខ។ វាបើកសមត្ថភាពស្វែងរកវ៉ិចទ័រ ដែលអនុញ្ញាតឱ្យប្រព័ន្ធផ្គូផ្គងសំណួររបស់អ្នកប្រើជាន័យធៀបជាមួយនឹងធាតុមូលដ្ឋានចំណេះដឹងដែលពាក់ព័ន្ធបំផុតសម្រាប់ការស្វែងរកប្រកបដោយប្រសិទ្ធភាព។

ដំណោះស្រាយត្រូវបានរួមបញ្ចូលជាមួយសេវាកម្ម AWS ដូចជា Lambda សម្រាប់ដំណើរការកូដក្នុងការឆ្លើយតបទៅនឹងការហៅ API, Athena សម្រាប់សំណួរសំណុំទិន្នន័យ, សេវា OpenSearch សម្រាប់ស្វែងរកតាមរយៈមូលដ្ឋានចំណេះដឹង និង Amazon S3 សម្រាប់ការផ្ទុក។ សេវាកម្មទាំងនេះធ្វើការរួមគ្នាដើម្បីផ្តល់នូវបទពិសោធន៍គ្មានថ្នេរសម្រាប់ការគ្រប់គ្រងប្រតិបត្តិការឧបករណ៍ IoT តាមរយៈពាក្យបញ្ជាភាសាធម្មជាតិ។

អត្ថប្រយោជន៍

ដំណោះស្រាយនេះផ្តល់អត្ថប្រយោជន៍ដូចខាងក្រោមៈ

  • ភាពស្មុគស្មាញនៃការអនុវត្ត៖
    • តម្រូវ​ឱ្យ​មាន​បន្ទាត់​កូដ​តិច​ជាង​នេះ ព្រោះ​ភ្នាក់ងារ​សម្រាប់ Amazon Bedrock ដក​ស្រង់​ចេញ​ពី​ភាព​ស្មុគស្មាញ​ជា​ច្រើន ដែល​កាត់​បន្ថយ​ការ​ខិតខំ​ប្រឹងប្រែង​ក្នុង​ការ​អភិវឌ្ឍ។
    • ការគ្រប់គ្រងមូលដ្ឋានទិន្នន័យវ៉ិចទ័រដូចជា OpenSearch Service មានភាពសាមញ្ញ ពីព្រោះ Knowledge Bases សម្រាប់ Amazon Bedrock គ្រប់គ្រងវ៉ិចទ័រ និងការផ្ទុក
    • ការរួមបញ្ចូលជាមួយសេវាកម្ម AWS ផ្សេងៗត្រូវបានសម្រួលជាងមុនតាមរយៈក្រុមសកម្មភាពដែលបានកំណត់ជាមុន
  • បទពិសោធន៍អ្នកអភិវឌ្ឍន៍៖
    • កុងសូល Amazon Bedrock ផ្តល់នូវចំណុចប្រទាក់ងាយស្រួលប្រើសម្រាប់ការអភិវឌ្ឍន៍ ការធ្វើតេស្ត និងការវិភាគមូលហេតុឫសគល់ (RCA) ដែលបង្កើនបទពិសោធន៍របស់អ្នកអភិវឌ្ឍន៍ទាំងមូល។
  • ភាពរហ័សរហួននិងភាពបត់បែន៖
    • ភ្នាក់ងារសម្រាប់ Amazon Bedrock អនុញ្ញាតឱ្យមានការអាប់ដេតយ៉ាងរលូនទៅកាន់ FMs ថ្មីជាងនេះ (ដូចជា Claude 3.0) នៅពេលដែលពួកវាមានស្រាប់ ដូច្នេះដំណោះស្រាយរបស់អ្នកនៅតែទាន់សម័យជាមួយនឹងភាពជឿនលឿនចុងក្រោយបំផុត។
    • កូតាសេវាកម្ម និងដែនកំណត់ត្រូវបានគ្រប់គ្រងដោយ AWS កាត់បន្ថយការចំណាយលើការត្រួតពិនិត្យ និងធ្វើមាត្រដ្ឋានហេដ្ឋារចនាសម្ព័ន្ធ
  • សុវត្ថិភាព:
    • Amazon Bedrock គឺជាសេវាកម្មដែលគ្រប់គ្រងយ៉ាងពេញលេញ ដោយប្រកាន់ខ្ជាប់នូវស្តង់ដារសុវត្ថិភាព និងអនុលោមភាពដ៏តឹងរ៉ឹងរបស់ AWS ដែលអាចធ្វើអោយការពិនិត្យមើលសុវត្ថិភាពរបស់ស្ថាប័នមានភាពសាមញ្ញ។

ទោះបីជាភ្នាក់ងារសម្រាប់ Amazon Bedrock ផ្តល់នូវដំណោះស្រាយងាយស្រួល និងគ្រប់គ្រងសម្រាប់ការកសាងកម្មវិធី AI សន្ទនាក៏ដោយ អង្គការមួយចំនួនអាចចូលចិត្តវិធីសាស្រ្តប្រភពបើកចំហ។ ក្នុងករណីបែបនេះ អ្នកអាចប្រើក្របខ័ណ្ឌដូចជា LangChain ដែលយើងពិភាក្សានៅក្នុងផ្នែកបន្ទាប់។

វិធីសាស្រ្តកំណត់ទិសដៅថាមវន្ត LangChain

LangChain គឺជាក្របខ័ណ្ឌប្រភពបើកចំហដែលជួយសម្រួលដល់ការកសាង AI ការសន្ទនាដោយអនុញ្ញាតឱ្យមានការរួមបញ្ចូលនៃគំរូភាសាធំ (LLMs) និងសមត្ថភាពបញ្ជូនផ្លូវថាមវន្ត។ ជាមួយ LangChain Expression Language (LCEL) អ្នកអភិវឌ្ឍន៍អាចកំណត់ routingដែលអនុញ្ញាតឱ្យអ្នកបង្កើតខ្សែសង្វាក់មិនកំណត់ដែលលទ្ធផលនៃជំហានមុនកំណត់ជំហានបន្ទាប់។ ការកំណត់ផ្លូវជួយផ្តល់នូវរចនាសម្ព័ន្ធ និងភាពស៊ីសង្វាក់គ្នាក្នុងអន្តរកម្មជាមួយ LLMs ។

សម្រាប់ការប្រកាសនេះ យើងប្រើឧទាហរណ៍ដូចគ្នានឹងជំនួយការ AI សម្រាប់ការគ្រប់គ្រងឧបករណ៍ IoT ។ ទោះជាយ៉ាងណាក៏ដោយ ភាពខុសគ្នាចំបងគឺថាយើងត្រូវដោះស្រាយការជំរុញប្រព័ន្ធដោយឡែកពីគ្នា និងចាត់ទុកខ្សែសង្វាក់នីមួយៗជាអង្គភាពដាច់ដោយឡែកមួយ។ ខ្សែសង្វាក់នាំផ្លូវសម្រេចចិត្តខ្សែសង្វាក់ទិសដៅដោយផ្អែកលើការបញ្ចូលរបស់អ្នកប្រើប្រាស់។ ការសម្រេចចិត្តត្រូវបានធ្វើឡើងដោយមានការគាំទ្រពី LLM ដោយឆ្លងកាត់ប្រអប់បញ្ចូលប្រព័ន្ធ ប្រវត្តិជជែក និងសំណួររបស់អ្នកប្រើប្រាស់។

ទិដ្ឋភាពទូទៅនៃដំណោះស្រាយ

ដ្យាក្រាមខាងក្រោមបង្ហាញអំពីលំហូរការងារនៃដំណោះស្រាយផ្លូវថាមវន្ត។

លំហូរការងារដំណោះស្រាយផ្លូវថាមវន្តជាមួយ LangChain

ដំណើរការការងារមានជំហានដូចខាងក្រោមៈ

  1. អ្នកប្រើប្រាស់បង្ហាញសំណួរទៅកាន់ជំនួយការ AI ។ ឧទាហរណ៍ "តើអ្វីជាម៉ែត្រអតិបរមាសម្រាប់ឧបករណ៍ 1009?"
  2. LLM វាយតម្លៃសំណួរនីមួយៗ រួមជាមួយនឹងប្រវត្តិជជែកពីសម័យដូចគ្នា ដើម្បីកំណត់លក្ខណៈរបស់វា និងប្រធានបទណាដែលវាស្ថិតនៅក្រោម (ដូចជា SQL សកម្មភាព ស្វែងរក ឬ SME)។ LLM ចាត់ថ្នាក់ធាតុបញ្ចូល ហើយខ្សែសង្វាក់កំណត់ផ្លូវ LCEL យកធាតុបញ្ចូលនោះ។
  3. ខ្សែសង្វាក់រ៉ោតទ័រជ្រើសរើសខ្សែសង្វាក់ទិសដៅដោយផ្អែកលើការបញ្ចូល ហើយ LLM ត្រូវបានផ្តល់ជូនជាមួយនឹងប្រអប់បញ្ចូលប្រព័ន្ធដូចខាងក្រោមៈ
"""Given the user question below, classify it as one of the candidate prompts. You may want to modify the input considering the chat history and the context of the question. 
Sometimes the user may just assume that you have the context of the conversation and may not provide a clear input. Hence, you are being provided with the chat history for more context. 
Respond with only a Markdown code snippet containing a JSON object formatted EXACTLY as specified below. 
Do not provide an explanation to your classification beside the Markdown, I just need to know your decision on which destination and next_inputs
<candidate prompt>
physics: Good for answering questions about physics
sql: sql: Good for querying sql from AWS Athena. User input may look like: get me max or min for device x?
lambdachain: Good to execute actions with Amazon Lambda like shutting down a device or turning off an engine User input can be like, shutdown device x, or terminate process y, etc.
rag: Good to search knowledgebase and retrieve information about devices and other related information. User question can be like: what do you know about device x?
default: if the input is not well suited for any of the candidate prompts above. this could be used to carry on the conversation and respond to queries like provide a summary of the conversation
</candidate prompt>"""

LLM វាយតម្លៃសំណួររបស់អ្នកប្រើ រួមជាមួយនឹងប្រវត្តិជជែក ដើម្បីកំណត់លក្ខណៈនៃសំណួរ និងប្រធានបទណាដែលវាស្ថិតនៅក្រោម។ បន្ទាប់មក LLM ចាត់ថ្នាក់ការបញ្ចូល និងបញ្ចេញការឆ្លើយតប JSON ក្នុងទម្រង់ខាងក្រោម៖

<Markdown>
```json
{{
"destination": string  name of the prompt to use
"next_inputs": string  a potentially modified version of the original input
}}
```

ខ្សែសង្វាក់រ៉ោតទ័រប្រើការឆ្លើយតប JSON នេះដើម្បីហៅខ្សែសង្វាក់ទិសដៅដែលត្រូវគ្នា។ មានខ្សែសង្វាក់ទិសដៅជាក់លាក់ចំនួនបួន ដែលនីមួយៗមានប្រព័ន្ធបញ្ចូលរបស់វា៖

  1. សំណួរដែលទាក់ទងនឹង SQL ត្រូវបានផ្ញើទៅកាន់ខ្សែសង្វាក់ទិសដៅ SQL សម្រាប់អន្តរកម្មមូលដ្ឋានទិន្នន័យ។ អ្នកអាចប្រើ LCEL ដើម្បីបង្កើត ខ្សែសង្វាក់ SQL ។
  2. សំណួរតម្រង់ទិសសកម្មភាពហៅខ្សែសង្វាក់ទិសដៅ Lambda ផ្ទាល់ខ្លួនសម្រាប់ប្រតិបត្តិការដែលកំពុងដំណើរការ។ ជាមួយនឹង LCEL អ្នកអាចកំណត់ដោយខ្លួនឯងបាន។ មុខងារផ្ទាល់ខ្លួន; ក្នុងករណីរបស់យើង វាជាមុខងារមួយដើម្បីដំណើរការមុខងារ Lambda ដែលបានកំណត់ជាមុន ដើម្បីផ្ញើអ៊ីមែលដែលមានលេខសម្គាល់ឧបករណ៍ដែលបានញែក។ ឧទាហរណ៍ការបញ្ចូលរបស់អ្នកប្រើអាចជា "បិទឧបករណ៍ 1009" ។
  3. ការស៊ើបអង្កេតដែលផ្តោតលើការស្វែងរកបន្តទៅ រ៉ាក ខ្សែសង្វាក់ទិសដៅសម្រាប់ការទាញយកព័ត៌មាន។
  4. សំណួរទាក់ទងនឹងសហគ្រាសធុនតូច និងមធ្យម សូមចូលទៅកាន់ខ្សែសង្វាក់គោលដៅ SME/អ្នកជំនាញ សម្រាប់ការយល់ដឹងពិសេស។
  5. ខ្សែសង្វាក់ទិសដៅនីមួយៗយកធាតុបញ្ចូល ហើយដំណើរការគំរូ ឬមុខងារចាំបាច់៖
    1. ខ្សែសង្វាក់ SQL ប្រើ Athena សម្រាប់ដំណើរការសំណួរ។
    2. ខ្សែសង្វាក់ RAG ប្រើប្រាស់សេវាកម្ម OpenSearch សម្រាប់ការស្វែងរកតាមន័យធៀប។
    3. ខ្សែសង្វាក់ Lambda ផ្ទាល់ខ្លួនដំណើរការមុខងារ Lambda សម្រាប់សកម្មភាព។
    4. ខ្សែសង្វាក់ SME / អ្នកជំនាញផ្តល់ការយល់ដឹងដោយប្រើគំរូ Amazon Bedrock ។
  6. ការឆ្លើយតបពីខ្សែសង្វាក់ទិសដៅនីមួយៗត្រូវបានបង្កើតទៅជាការយល់ដឹងស៊ីសង្វាក់គ្នាដោយ LLM ។ បន្ទាប់មក ការយល់ដឹងទាំងនេះត្រូវបានបញ្ជូនទៅអ្នកប្រើប្រាស់ ដោយបញ្ចប់វដ្តសំណួរ។
  7. ការបញ្ចូល និងការឆ្លើយតបរបស់អ្នកប្រើប្រាស់ត្រូវបានរក្សាទុកក្នុង ក្រុមហ៊ុន Amazon DynamoDB ដើម្បីផ្តល់បរិបទដល់ LLM សម្រាប់វគ្គបច្ចុប្បន្ន និងពីអន្តរកម្មកន្លងមក។ រយៈពេលនៃព័ត៌មានបន្តនៅក្នុង DynamoDB ត្រូវបានគ្រប់គ្រងដោយកម្មវិធី។

ទិដ្ឋភាពបច្ចេកទេស

ដ្យាក្រាមខាងក្រោមបង្ហាញពីស្ថាបត្យកម្មនៃដំណោះស្រាយការនាំផ្លូវថាមវន្ត LangChain ។

ដ្យាក្រាមស្ថាបត្យកម្មនៃដំណោះស្រាយការនាំផ្លូវថាមវន្ត LangChain

កម្មវិធីបណ្តាញនេះត្រូវបានបង្កើតឡើងនៅលើ Streamlit ដែលបង្ហោះនៅលើ Amazon ECS ជាមួយ Fargate ហើយវាត្រូវបានចូលប្រើដោយប្រើ Application Load Balancer ។ យើងប្រើ Anthropic's Claude v2.1 នៅលើ Amazon Bedrock ជា LLM របស់យើង។ កម្មវិធីបណ្តាញធ្វើអន្តរកម្មជាមួយគំរូដោយប្រើបណ្ណាល័យ LangChain ។ វាក៏មានអន្តរកម្មជាមួយនឹងសេវាកម្ម AWS ផ្សេងៗដូចជា OpenSearch Service, Athena, និង DynamoDB ដើម្បីបំពេញតម្រូវការរបស់អ្នកប្រើប្រាស់ចុងក្រោយ។

អត្ថប្រយោជន៍

ដំណោះស្រាយនេះផ្តល់អត្ថប្រយោជន៍ដូចខាងក្រោមៈ

  • ភាពស្មុគស្មាញនៃការអនុវត្ត៖
    • ទោះបីជាវាទាមទារកូដ និងការអភិវឌ្ឍន៍ផ្ទាល់ខ្លួនក៏ដោយ LangChain ផ្តល់នូវភាពបត់បែន និងការគ្រប់គ្រងកាន់តែច្រើនលើតក្កវិជ្ជាផ្លូវ និងការរួមបញ្ចូលជាមួយសមាសធាតុផ្សេងៗ។
    • ការគ្រប់គ្រងមូលដ្ឋានទិន្នន័យវ៉ិចទ័រដូចជាសេវាកម្ម OpenSearch ទាមទារឱ្យមានការដំឡើងបន្ថែម និងកិច្ចខិតខំប្រឹងប្រែងក្នុងការកំណត់រចនាសម្ព័ន្ធ។ ដំណើរការវ៉ិចទ័រត្រូវបានអនុវត្តនៅក្នុងកូដ។
    • ការរួមបញ្ចូលជាមួយសេវាកម្ម AWS អាចពាក់ព័ន្ធនឹងកូដផ្ទាល់ខ្លួន និងការកំណត់រចនាសម្ព័ន្ធបន្ថែមទៀត។
  • បទពិសោធន៍អ្នកអភិវឌ្ឍន៍៖
    • វិធីសាស្រ្តផ្អែកលើ Python របស់ LangChain និងឯកសារទូលំទូលាយអាចទាក់ទាញអ្នកអភិវឌ្ឍន៍ដែលធ្លាប់ស្គាល់ Python និងឧបករណ៍ប្រភពបើកចំហ។
    • ការអភិវឌ្ឍន៍ និងការបំបាត់កំហុសភ្លាមៗអាចត្រូវការការខិតខំប្រឹងប្រែងដោយដៃបន្ថែមទៀតបើប្រៀបធៀបទៅនឹងការប្រើប្រាស់កុងសូល Amazon Bedrock ។
  • ភាពរហ័សរហួននិងភាពបត់បែន៖
    • LangChain គាំទ្រ LLMs ជាច្រើនដែលអនុញ្ញាតឱ្យអ្នកប្តូររវាងម៉ូដែល ឬអ្នកផ្តល់សេវាផ្សេងៗ ជំរុញភាពបត់បែន។
    • ធម្មជាតិប្រភពបើកចំហរបស់ LangChain អនុញ្ញាតឱ្យមានការកែលម្អ និងការប្ដូរតាមបំណងដែលជំរុញដោយសហគមន៍។
  • សុវត្ថិភាព:
    • ក្នុងនាមជាក្របខ័ណ្ឌប្រភពបើកចំហ LangChain ប្រហែលជាត្រូវការការត្រួតពិនិត្យសុវត្ថិភាព និងការត្រួតពិនិត្យយ៉ាងម៉ត់ចត់បន្ថែមទៀតនៅក្នុងស្ថាប័ន ដែលអាចបន្ថែមការចំណាយលើស។

សន្និដ្ឋាន

ជំនួយការ AI ការសន្ទនាគឺជាឧបករណ៍បំប្លែងសម្រាប់សម្រួលប្រតិបត្តិការ និងបង្កើនបទពិសោធន៍អ្នកប្រើប្រាស់។ ការបង្ហោះនេះបានស្វែងយល់ពីវិធីសាស្រ្តដ៏មានឥទ្ធិពលពីរដោយប្រើប្រាស់សេវាកម្ម AWS: ភ្នាក់ងារគ្រប់គ្រងសម្រាប់ Amazon Bedrock និងប្រភពបើកចំហរដែលអាចបត់បែនបាន LangChain ថាមវន្ត routing ។ ជម្រើសរវាងវិធីសាស្រ្តទាំងនេះពឹងផ្អែកលើតម្រូវការរបស់ស្ថាប័ន ចំណូលចិត្តក្នុងការអភិវឌ្ឍន៍ និងកម្រិតដែលចង់បាន។ ដោយមិនគិតពីផ្លូវដែលត្រូវអនុវត្តនោះ AWS ផ្តល់សិទ្ធិអំណាចឱ្យអ្នកបង្កើតជំនួយការ AI ដ៏ឆ្លាតវៃដែលផ្លាស់ប្តូរទំនាក់ទំនងអាជីវកម្ម និងអតិថិជន

ស្វែងរកលេខកូដដំណោះស្រាយ និងការដាក់ពង្រាយទ្រព្យសម្បត្តិនៅក្នុងរបស់យើង។ ឃ្លាំង GitHubដែលជាកន្លែងដែលអ្នកអាចអនុវត្តតាមជំហានលម្អិតសម្រាប់វិធីសាស្រ្ត AI សន្ទនានីមួយៗ។


អំពីនិពន្ធនេះ

អាមឺរ ហាក់មេ គឺជាស្ថាបត្យករដំណោះស្រាយ AWS ដែលមានមូលដ្ឋាននៅរដ្ឋ Pennsylvania ។ គាត់សហការជាមួយអ្នកលក់កម្មវិធីឯករាជ្យ (ISVs) នៅក្នុងតំបន់ភាគឦសាន ដោយជួយពួកគេក្នុងការរចនា និងបង្កើតវេទិកាដែលអាចធ្វើមាត្រដ្ឋានបាន និងទំនើបនៅលើ AWS Cloud។ អ្នកជំនាញផ្នែក AI/ML និង AI ជំនាន់ថ្មី Ameer ជួយអតិថិជនដោះសោសក្តានុពលនៃបច្ចេកវិទ្យាទំនើបទាំងនេះ។ ក្នុង​ពេល​ទំនេរ គាត់​ចូលចិត្ត​ជិះ​ម៉ូតូ និង​ចំណាយ​ពេល​វេលា​ប្រកបដោយ​គុណភាព​ជាមួយ​គ្រួសារ។

សារ៉ុន លី គឺជាស្ថាបត្យករ AI/ML Solutions នៅ Amazon Web Services ដែលមានមូលដ្ឋាននៅទីក្រុង Boston ជាមួយនឹងចំណង់ចំណូលចិត្តក្នុងការរចនា និងបង្កើតកម្មវិធី Generative AI នៅលើ AWS។ នាងសហការជាមួយអតិថិជនដើម្បីប្រើប្រាស់សេវាកម្ម AWS AI/ML សម្រាប់ដំណោះស្រាយប្រកបដោយភាពច្នៃប្រឌិត។

កៅសា កាម៉ាល់ គឺជាស្ថាបត្យករដំណោះស្រាយជាន់ខ្ពស់នៅ Amazon Web Services ដែលមានបទពិសោធន៍ជាង 15 ឆ្នាំនៅក្នុងប្រព័ន្ធស្វ័យប្រវត្តិកម្មហេដ្ឋារចនាសម្ព័ន្ធ និងកន្លែងសុវត្ថិភាព។ គាត់ជួយអតិថិជនក្នុងការរចនា និងបង្កើតដំណោះស្រាយ DevSecOps និង AI/ML ដែលអាចធ្វើមាត្រដ្ឋានបាននៅក្នុងពពក។

spot_img

បញ្ញាចុងក្រោយ

spot_img

ជជែកជាមួយយើង

សួស្តី! តើខ្ញុំអាចជួយអ្នកដោយរបៀបណា?