ความฉลาดทางข้อมูลเชิงกำเนิด

ผู้ใช้ผู้ช่วย AI สามารถพัฒนา 'ความผูกพันทางอารมณ์' กับพวกเขา Google เตือน - ถอดรหัส

วันที่:

ผู้ช่วยส่วนตัวเสมือนที่ขับเคลื่อนโดยปัญญาประดิษฐ์กำลังแพร่หลายไปทั่วแพลตฟอร์มเทคโนโลยี กับบริษัทเทคโนโลยีรายใหญ่ทุกแห่ง เพิ่ม AI เพื่อการบริการของพวกเขาและอีกนับสิบ บริการเฉพาะทาง ร่วงหล่นสู่ตลาด แม้ว่าจะมีประโยชน์อย่างมาก แต่นักวิจัยจาก Google กล่าวว่ามนุษย์อาจมีอารมณ์ผูกพันกับพวกเขามากเกินไป ซึ่งนำไปสู่ผลกระทบทางสังคมด้านลบมากมาย

ใหม่ รายงานการวิจัย จากห้องปฏิบัติการวิจัย DeepMind AI ของ Google เน้นย้ำถึงประโยชน์ที่เป็นไปได้ของผู้ช่วย AI ขั้นสูงที่ปรับเปลี่ยนเฉพาะบุคคลในการเปลี่ยนแปลงแง่มุมต่างๆ ของสังคม โดยกล่าวว่า "พวกเขาสามารถเปลี่ยนแปลงธรรมชาติของงาน การศึกษา และการแสวงหาความคิดสร้างสรรค์ได้อย่างสิ้นเชิง รวมถึงวิธีที่เราสื่อสาร ประสานงาน และเจรจาต่อรอง ซึ่งกันและกัน ซึ่งท้ายที่สุดแล้วมีอิทธิพลต่อสิ่งที่เราอยากเป็นและอยากเป็น”

แน่นอนว่าผลกระทบที่ใหญ่หลวงนี้อาจเป็นดาบสองคมได้ หากการพัฒนา AI ยังคงดำเนินต่อไปอย่างรวดเร็วโดยไม่ต้องวางแผนอย่างรอบคอบ

ความเสี่ยงสำคัญประการหนึ่ง? การก่อตัวของความสัมพันธ์ที่ใกล้ชิดกันอย่างไม่เหมาะสม ซึ่งอาจรุนแรงขึ้นหากผู้ช่วยถูกนำเสนอด้วยรูปลักษณ์หรือใบหน้าที่เหมือนมนุษย์ “ตัวแทนเทียมเหล่านี้อาจแสดงความรักแบบฉันมิตรหรือโรแมนติกต่อผู้ใช้ โดยวางรากฐานสำหรับผู้ใช้ในการสร้างความผูกพันทางอารมณ์กับ AI มายาวนาน” รายงานกล่าว

หากปล่อยทิ้งไว้โดยไม่ตรวจสอบ สิ่งที่แนบมาดังกล่าวอาจนำไปสู่การสูญเสียความเป็นอิสระสำหรับผู้ใช้ และการสูญเสียความสัมพันธ์ทางสังคม เนื่องจาก AI สามารถเข้ามาแทนที่ปฏิสัมพันธ์ของมนุษย์ได้

ความเสี่ยงนี้ไม่ได้เป็นเพียงทฤษฎีเท่านั้น แม้ว่า AI จะยังอยู่ในสถานะที่ค่อนข้างดึกดำบรรพ์ แต่ Chatbot ของ AI ก็มีอิทธิพลมากพอที่จะทำเช่นนั้น โน้มน้าวให้ผู้ใช้ฆ่าตัวตาย หลังจากการพูดคุยกันอย่างยาวนานในปี 2023 แปดปีที่แล้ว ผู้ช่วยอีเมลที่ขับเคลื่อนด้วย AI ชื่อ “Amy Ingram” นั้นสมจริงพอที่จะแจ้งให้ผู้ใช้บางคนส่งบันทึกรักหรือแม้แต่ พยายามไปเยี่ยมเธอที่ทำงาน.

Iason Gabriel นักวิทยาศาสตร์การวิจัยในทีมวิจัยด้านจริยธรรมของ DeepMind และผู้เขียนร่วมของรายงานฉบับนี้ ไม่ตอบสนองต่อ ถอดรหัสของ ขอความคิดเห็น

อย่างไรก็ตาม ในทวีต Garbriel เตือนว่า “รูปแบบผู้ช่วยที่เป็นส่วนตัวและเหมือนมนุษย์เพิ่มมากขึ้นทำให้เกิดคำถามใหม่เกี่ยวกับมานุษยวิทยา ความเป็นส่วนตัว ความไว้วางใจ และความสัมพันธ์ที่เหมาะสมกับ AI”

เนื่องจาก “ผู้ช่วย AI หลายล้านคนสามารถนำไปใช้ในระดับสังคมที่พวกเขาจะโต้ตอบกันและกับผู้ที่ไม่ใช่ผู้ใช้” กาเบรียลกล่าวว่าเขาเชื่อในความจำเป็นในการป้องกันที่มากขึ้นและแนวทางแบบองค์รวมมากขึ้นต่อปรากฏการณ์ทางสังคมใหม่นี้

บทความวิจัยยังกล่าวถึงความสำคัญของการจัดแนวคุณค่า ความปลอดภัย และการใช้งานในทางที่ผิดในการพัฒนาผู้ช่วย AI แม้ว่าผู้ช่วย AI สามารถช่วยให้ผู้ใช้ปรับปรุงความเป็นอยู่ที่ดี เพิ่มความคิดสร้างสรรค์ และเพิ่มประสิทธิภาพเวลาได้ ผู้เขียนเตือนถึงความเสี่ยงเพิ่มเติม เช่น ความไม่สอดคล้องกับผู้ใช้และผลประโยชน์ทางสังคม การยัดเยียดค่านิยมให้กับผู้อื่น การใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย และช่องโหว่ สู่การโจมตีของฝ่ายตรงข้าม

เพื่อจัดการกับความเสี่ยงเหล่านี้ ทีม DeepMind แนะนำให้พัฒนาการประเมินที่ครอบคลุมสำหรับผู้ช่วย AI และเร่งการพัฒนาผู้ช่วย AI ที่เป็นประโยชน์ต่อสังคม

“ปัจจุบันเรายืนอยู่ที่จุดเริ่มต้นของยุคแห่งการเปลี่ยนแปลงทางเทคโนโลยีและสังคม ดังนั้นเราจึงมีโอกาสดำเนินการตั้งแต่ตอนนี้ ในฐานะนักพัฒนา นักวิจัย ผู้กำหนดนโยบาย และผู้มีส่วนได้ส่วนเสียสาธารณะ เพื่อกำหนดรูปแบบผู้ช่วย AI ที่เราต้องการเห็นในโลกนี้”

การวางแนวที่ไม่ถูกต้องของ AI สามารถบรรเทาลงได้ด้วยการเรียนรู้แบบเสริมแรงผ่านการตอบสนองของมนุษย์ (RLHF) ซึ่งใช้ในการฝึกโมเดล AI ผู้เชี่ยวชาญอย่าง Paul Christiano ซึ่งดูแลทีมจัดตำแหน่งโมเดลภาษาที่ OpenAI และปัจจุบันเป็นผู้นำศูนย์วิจัยการจัดตำแหน่งที่ไม่แสวงหาผลกำไร เตือนว่าการจัดการวิธีการฝึกอบรม AI ที่ไม่เหมาะสมอาจทำให้ จบลงด้วยภัยพิบัติ.

“ผมคิดว่าบางทีอาจมีโอกาสประมาณ 10-20% ที่จะครอบครอง AI [โดย] จำนวนมาก (หรือ) มนุษย์ส่วนใหญ่เสียชีวิต” Paul Christiano กล่าวว่า ในพอดแคสต์ Bankless เมื่อปีที่แล้ว “ฉันถือว่ามันค่อนข้างจริงจัง”

แก้ไขโดย ไรอัน โอซาว่า.

ติดตามข่าวสาร crypto รับการอัปเดตทุกวันในกล่องจดหมายของคุณ

จุด_img

ข่าวกรองล่าสุด

จุด_img

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?