Генеративный анализ данных

Этот смайлик может означать, что ваш риск самоубийства высок, по мнению AI

Дата:


Изображение: CHRISTOPHER MINESES / MASHABLE

С момента своего основания в 2013 году, бесплатная служба поддержки психического здоровья Кризисная текстовая строка сосредоточился на использовании данных и технологий, чтобы лучше помогать тем, кто обращается за помощью. 

В отличие от телефонов доверия, которые предлагают помощь в зависимости от порядка, в котором пользователи набирали номер, отправляли текстовые сообщения или отправляли сообщения, Crisis Text Line имеет алгоритм, который определяет, кто нуждается в срочной консультации. Некоммерческая организация особенно заинтересована в изучении того, какие текстовые смайлики и слова используют, когда их риск самоубийства высок, чтобы быстро связать их с консультантом. Crisis Text Line только что выпустила новое понимание этих шаблонов. 

На основании его анализ из 129 миллионов сообщений, обработанных в период между 2013 и концом 2019 года, некоммерческая организация обнаружила, что «таблетки-эмодзи», или 💊, имеют в 4.4 раза больше шансов оказаться в опасной для жизни ситуации, чем слово самоубийство. 

Другие слова, которые указывают на неизбежную опасность, включают 800 мг, ацетаминофен, эксцедрин и антифриз; это в два-три раза чаще, чем самоубийство, связано с активным спасением текста. Громко плачущее лицо смайликов, или 😭, также подвержено высокому риску. В целом, слова, вызывающие наибольшую тревогу, предполагают, что у текстера есть метод или план покушения на самоубийство или он может покончить с собой. 

Crisis Text Line содержит список из 100 терминов, которые представляют более высокий риск, чем слово самоубийство. Неожиданные термины включают вампир, который используют текстовые сообщения, чтобы описать нормальный внешний вид, но чувствовать себя больным внутри, или сказать, что их называли «эмоциональным вампиром»; blvd, аббревиатура бульвара, которая частично появляется, когда текстовые сообщения называют место, где им непосредственно угрожает опасность; и 11:11, число, не имевшее четкой схемы. 

Это не первая попытка Crisis Text Line понять, как люди общаются с помощью текста, когда они склонны к суициду. В 2017 году некоммерческая организация использовала искусственный интеллект для анализа 22 миллионов сообщений; Oни найденный что слово ибупрофен в 16 раз чаще предсказывало, что человеку, отправившему текстовые сообщения, понадобятся экстренные услуги, чем самоубийству. Поскольку Crisis Text Line имеет гораздо больше сообщений для анализа, чем в 2017 году, слово ибупрофен остается высокорисковым, но оно не так предсказуемо, как таблетки-смайлики. 

Боб Филбин, главный специалист по обработке данных Crisis Text Line, надеется, что искусственный интеллект повышает способность некоммерческих организаций быстрее и точнее определять риск суицида. Когда алгоритм помечает сообщение как высокорисковое, беседа кодируется оранжевым, поэтому консультанты сразу узнают, что у пользователя есть план или метод, помимо других вопросов. 

Другие слова, которые указывают на неизбежную опасность, включают 800 мг, ацетаминофен, эксцедрин и антифриз.

Когда Crisis Text Line намеревалась узнать больше о контенте, связанном с риском самоубийства, она началась в 2015 году со списка из 50 слов, которые ученые определили как высокорисковые, чтобы проверить, использовали ли текстовые сообщения те же слова в разговорах, которые уже произошли. Затем он развернул алгоритм, чтобы увидеть, какие слова или смайлики появляются в разговорах с текстовыми сообщениями, которые заканчиваются активным спасением. Именно тогда ибупрофен стал лучшим кандидатом. (Все данные Crisis Text Line анонимны.) 

Обновленный алгоритм, используемый для анализа 129 миллионов сообщений, учитывает не только наиболее часто используемые слова, фразы и смайлики, но также учитывает контекст разговора. Таким образом, если, например, появляется фраза «убить себя», алгоритм разработан с учетом того, увеличивает ли остальная часть предложения риск (я хочу убить себя) или сводит на нет риск (я не хочу убивать себя). 

По сравнению с общим населением, пользователи Crisis Text Line искажают молодых, с низким уровнем дохода и с высоким уровнем риска, но сгенерированные ИИ идеи являются многообещающими. 

Линдси К. Маккернан, доцент кафедры психиатрии и поведенческих наук в Медицинском центре Университета Вандербильта, письменный об использовании искусственного интеллекта для предотвращения самоубийств, сказал в электронном письме, что выводы Crisis Text Line могут быть полезны. 

«Новое исследование роли текстовых сообщений в предсказании суицида может дать нам еще одно окно или« знак », на который можно настроиться как на члена семьи, друга или клинициста, взаимодействующего с кем-то в этих обстоятельствах», - написал МакКернан. (Распространенные предупреждающие знаки включают раздачу вещей, сон и перепады настроения.) 

Но важно помнить, что алгоритмы иногда могут ошибаться, неточно классифицируя кого-то как группу высокого риска или указывая, что кто-то подвергается низкому риску, когда это не так, сказал МакКернан.  

«Изучение текстовых сообщений может дать нам еще одну информацию для прогнозирования суицидального риска и стратегии предотвращения эскалации, особенно для молодых людей, подверженных риску самоубийства», - написала она.

Филбин сказал, что текстовые сообщения позволяют людям, особенно молодым пользователям, быть уязвимыми в трудные моменты. 

«Отчасти мы видим эти слова потому, что текст - это цифровой носитель, в котором люди становятся особенно честными и честными быстрее», - сказал Филбин. «Текстовые сообщения могут быть уникальной возможностью для молодых людей рассказать о своих кризисах.

В свою очередь, искусственный интеллект помогает Crisis Text Line лучше понять, когда эти чрезвычайные ситуации требуют немедленной заботы и внимания. 

Если вы хотите поговорить с кем-то или испытываете мысли о самоубийстве, Crisis Text Line предоставляет бесплатную конфиденциальную поддержку 24/7. Текст КРИЗИС на 741741, чтобы подключиться к кризисному консультанту. Вы можете позвонить в Национальную линию спасения от самоубийств по номеру 1-800-273-8255. Вот список международных ресурсов.  

Источник: https://mashable.com/article/suicide-risk-crisis-text-line-artificial-intelligence/

Spot_img

Последняя разведка

Spot_img