ความฉลาดทางข้อมูลเชิงกำเนิด

อีโมจินี้อาจหมายถึงความเสี่ยงในการฆ่าตัวตายของคุณสูง ตาม AI

วันที่:


ภาพ: CHRISTOPHER MINESES / MASHABLE

นับตั้งแต่ก่อตั้งในปี 2013 บริการสนับสนุนสุขภาพจิตฟรี บรรทัดข้อความวิกฤต ได้มุ่งเน้นไปที่การใช้ข้อมูลและเทคโนโลยีเพื่อช่วยเหลือผู้ที่ขอความช่วยเหลือได้ดียิ่งขึ้น 

Crisis Text Line ต่างจากสายด่วนที่ให้ความช่วยเหลือตามลำดับที่ผู้ใช้โทร ส่งข้อความ หรือส่งข้อความ Crisis Text Line มีอัลกอริทึมที่กำหนดว่าใครต้องการคำปรึกษาอย่างเร่งด่วนที่สุด องค์กรไม่แสวงหากำไรมีความสนใจเป็นพิเศษในการเรียนรู้ว่าอีโมจิและคำศัพท์ใดที่ผู้ส่งข้อความใช้เมื่อมีความเสี่ยงในการฆ่าตัวตายสูง เพื่อที่จะเชื่อมโยงพวกเขากับที่ปรึกษาได้อย่างรวดเร็ว Crisis Text Line เปิดตัวข้อมูลเชิงลึกใหม่เกี่ยวกับรูปแบบเหล่านั้น 

ขึ้นอยู่กับ การวิเคราะห์ จาก 129 ล้านข้อความที่ประมวลผลระหว่างปี 2013 ถึงสิ้นปี 2019 องค์กรไม่แสวงหากำไรพบว่ายาเม็ดอิโมจิหรือ 💊 มีแนวโน้มที่จะจบลงในสถานการณ์ที่คุกคามชีวิตมากกว่าคำว่าฆ่าตัวตาย 4.4 เท่า 

คำอื่น ๆ ที่บ่งบอกถึงอันตรายที่ใกล้เข้ามา ได้แก่ 800mg, acetaminophen, excedrin และ antifreeze; สิ่งเหล่านี้มีโอกาสมากกว่าคำว่าฆ่าตัวตายสองถึงสามเท่าที่เกี่ยวข้องกับการช่วยเหลือผู้ส่งข้อความ ใบหน้าอีโมจิที่ร้องไห้เสียงดังหรือ 😭 ก็มีความเสี่ยงสูงเช่นเดียวกัน โดยทั่วไปแล้ว คำที่กระตุ้นให้เกิดสัญญาณเตือนที่ยิ่งใหญ่ที่สุดแนะนำว่าผู้ส่งข้อความมีวิธีการหรือวางแผนที่จะพยายามฆ่าตัวตายหรืออาจอยู่ในกระบวนการฆ่าตัวตาย 

Crisis Text Line มีรายการคำศัพท์ 100 คำที่มีความเสี่ยงสูงกว่าคำว่าฆ่าตัวตาย คำที่ไม่คาดคิด ได้แก่ แวมไพร์ ซึ่งข้อความใช้เพื่ออธิบายว่าภายนอกดูปกติแต่ข้างในรู้สึกไม่สบาย หรือเพื่อบอกว่าพวกเขาถูกเรียกว่า "แวมไพร์ทางอารมณ์"; blvd คำย่อของ boulevard ซึ่งแสดงขึ้นบางส่วนเมื่อผู้ส่งข้อความระบุตำแหน่งที่เสี่ยงต่อการเกิดอันตรายในทันที และ 11:11 ซึ่งเป็นตัวเลขที่ไม่มีรูปแบบที่ชัดเจน 

นี่ไม่ใช่ความพยายามครั้งแรกของ Crisis Text Line ในการทำความเข้าใจวิธีที่ผู้คนสื่อสารผ่านข้อความเมื่อพวกเขากำลังฆ่าตัวตาย ในปี 2017 องค์กรไม่แสวงหากำไรใช้ปัญญาประดิษฐ์เพื่อวิเคราะห์ข้อความ 22 ล้านข้อความ พวกเขา พบ ว่าคำว่าไอบูโพรเฟนมีแนวโน้มที่จะทำนายถึง 16 เท่าของผู้ที่ส่งข้อความว่าต้องการบริการฉุกเฉินมากกว่าคำว่าฆ่าตัวตาย เนื่องจาก Crisis Text Line มีข้อความให้วิเคราะห์มากกว่าในปี 2017 คำว่าไอบูโพรเฟนจึงยังคงมีความเสี่ยงสูง แต่ก็ไม่สามารถคาดเดาได้เท่าอิโมจิยาเม็ด 

Bob Filbin หัวหน้านักวิทยาศาสตร์ข้อมูลที่ Crisis Text Line หวังว่าปัญญาประดิษฐ์จะช่วยเพิ่มความสามารถขององค์กรไม่แสวงหากำไรในการตรวจจับความเสี่ยงในการฆ่าตัวตายได้เร็วและแม่นยำยิ่งขึ้น เมื่ออัลกอริธึมตั้งค่าสถานะข้อความว่ามีความเสี่ยงสูง การสนทนาจะถูกเข้ารหัสเป็นสีส้ม เพื่อให้ผู้ให้คำปรึกษาทราบทันทีว่าควรถามผู้ใช้ว่ามีแผนหรือวิธีการหรือไม่ รวมถึงคำถามอื่นๆ 

คำอื่นๆ ที่บ่งชี้ถึงอันตรายที่ใกล้จะเกิดขึ้น ได้แก่ 800 มก., อะเซตามิโนเฟน, เอ็กเซดริน และสารป้องกันการแข็งตัว

เมื่อ Crisis Text Line เริ่มเรียนรู้เพิ่มเติมเกี่ยวกับเนื้อหาที่เกี่ยวข้องกับความเสี่ยงในการฆ่าตัวตาย เริ่มขึ้นในปี 2015 โดยมีรายการคำ 50 คำที่นักวิชาการระบุว่ามีความเสี่ยงสูง โดยตรวจสอบว่าผู้ส่งข้อความใช้คำเดียวกันในการสนทนาที่เกิดขึ้นแล้วหรือไม่ จากนั้นจึงปรับใช้อัลกอริธึมเพื่อดูว่าคำหรืออิโมจิใดปรากฏขึ้นอย่างไม่ซ้ำใครในการสนทนากับผู้ส่งข้อความที่สิ้นสุดด้วยการช่วยเหลือแบบแอคทีฟ นั่นคือเมื่อไอบูโพรเฟนกลายเป็นตัวเลือกอันดับต้น ๆ (ข้อมูลทั้งหมดของ Crisis Text Line จะไม่เปิดเผยชื่อ) 

อัลกอริธึมที่อัปเดตนี้ใช้เพื่อวิเคราะห์ข้อความ 129 ล้านข้อความ ซึ่งไม่ได้พิจารณาเฉพาะคำ วลี และอีโมจิที่ใช้บ่อยที่สุดเท่านั้น แต่ยังพิจารณาบริบทของการสนทนาด้วย ดังนั้น หากวลี "ฆ่าตัวตาย" ปรากฏขึ้น อัลกอริทึมถูกออกแบบมาเพื่อพิจารณาว่าประโยคที่เหลือจะเพิ่มความเสี่ยง (ฉันต้องการฆ่าตัวตาย) หรือปฏิเสธความเสี่ยง (ฉันไม่ต้องการฆ่าตัวตาย) 

เมื่อเปรียบเทียบกับประชากรทั่วไปแล้ว ผู้ใช้ Crisis Text Line มีแนวโน้มว่าจะอายุน้อย มีรายได้น้อย และมีความเสี่ยงสูง แต่ข้อมูลเชิงลึกที่สร้างโดย AI นั้นมีแนวโน้มที่ดี 

Lindsey C. McKernan ผู้ช่วยศาสตราจารย์ภาควิชาจิตเวชศาสตร์และพฤติกรรมศาสตร์ที่ศูนย์การแพทย์มหาวิทยาลัย Vanderbilt ซึ่งมี เขียน เกี่ยวกับการใช้ปัญญาประดิษฐ์ในการป้องกันการฆ่าตัวตาย กล่าวในอีเมลว่าการค้นพบของ Crisis Text Line อาจมีประโยชน์ 

McKernan เขียนว่า "งานวิจัยใหม่เกี่ยวกับบทบาทของการส่งข้อความในการทำนายการฆ่าตัวตายมีศักยภาพที่จะให้หน้าต่างอื่นหรือ 'สัญญาณ' แก่เราเพื่อให้ปรับตัวให้เข้ากับสมาชิกในครอบครัว เพื่อน หรือแพทย์ที่มีปฏิสัมพันธ์กับบุคคลภายใต้สถานการณ์เหล่านี้ (สัญญาณเตือนทั่วไป ได้แก่ การให้สิ่งของหรือการนอนหลับและอารมณ์เปลี่ยนแปลง) 

แต่สิ่งสำคัญคือต้องจำไว้ว่าอัลกอริธึมอาจผิดพลาดในบางครั้ง โดยจำแนกบุคคลที่มีความเสี่ยงสูงอย่างไม่ถูกต้อง หรือบ่งชี้ว่ามีบางคนที่มีความเสี่ยงต่ำเมื่อไม่เป็นเช่นนั้น McKernan กล่าว  

“การตรวจสอบรูปแบบการส่งข้อความสามารถให้ข้อมูลอีกชิ้นหนึ่งแก่เราเพื่อแจ้งการคาดการณ์ความเสี่ยงในการฆ่าตัวตายและกลยุทธ์การป้องกันสำหรับการลดระดับ โดยเฉพาะอย่างยิ่งสำหรับเด็กที่อายุน้อยกว่าที่เสี่ยงต่อการฆ่าตัวตาย” เธอเขียน

Filbin กล่าวว่าการส่งข้อความช่วยให้ผู้คนโดยเฉพาะผู้ใช้ที่อายุน้อยกว่าสามารถเสี่ยงภัยในช่วงเวลาที่ยากลำบาก 

“เหตุผลส่วนหนึ่งที่เราเห็นคำเหล่านี้ก็เพราะข้อความเป็นสื่อดิจิทัลที่ผู้คนลงเอยด้วยความซื่อสัตย์เป็นพิเศษ และซื่อสัตย์เร็วขึ้น” ฟิลบินกล่าว “การส่งข้อความสามารถมีพลังพิเศษเฉพาะสำหรับคนหนุ่มสาวในการพูดคุยเกี่ยวกับวิกฤตการณ์ของพวกเขา

ในทางกลับกัน ปัญญาประดิษฐ์ช่วยให้ Crisis Text Line เข้าใจได้ดีขึ้นเมื่อเหตุฉุกเฉินเหล่านั้นต้องการการดูแลและเอาใจใส่ในทันที 

หากคุณต้องการพูดคุยกับใครสักคนหรือกำลังมีความคิดที่จะฆ่าตัวตาย Crisis Text Line ให้การสนับสนุนที่เป็นความลับฟรีตลอด 24 ชั่วโมงทุกวันไม่เว้นวันหยุด ส่งข้อความ CRISIS ไปที่ 7 เพื่อเชื่อมต่อกับที่ปรึกษาด้านวิกฤต คุณสามารถโทรติดต่อ National Suicide Prevention Lifeline ได้ที่หมายเลข 741741-1-800-273 ที่นี่คือ รายการ ของทรัพยากรระหว่างประเทศ  

ที่มา: https://mashable.com/article/suicide-risk-crisis-text-line-artificial-intelligence/

จุด_img

ข่าวกรองล่าสุด

จุด_img