«Мы наткнулись на ваш пост… и похоже, что вы переживаете непростые времена», — начинается сообщение. «Мы здесь, чтобы поделиться с вами материалами и ресурсами, которые могут принести вам некоторое утешение». Далее следуют ссылки на линии помощи самоубийцам, круглосуточный чат и истории людей, преодолевших кризисы психического здоровья. «Посылаю вам виртуальные объятия», — завершается сообщение.
Эта заметка, отправленная в качестве частного сообщения на Reddit компанией Samurai Labs, занимающейся искусственным интеллектом (ИИ), представляет собой, по мнению некоторых исследователей, многообещающий инструмент для борьбы с эпидемией самоубийств в США, которая уносит почти 50 000 жизней в год. Такие компании, как Samurai, используют ИИ для анализа сообщений в социальных сетях на предмет признаков суицидальных намерений, а затем вмешиваются с помощью таких стратегий, как прямое сообщение.
Есть определенная ирония в использовании социальных сетей для предотвращения самоубийств, поскольку их часто обвиняют в кризисе психического здоровья и самоубийств в США, особенно среди детей и подростков. Но некоторые исследователи полагают, что есть реальные перспективы в том, чтобы обратиться прямо к источнику, чтобы «обнаружить тех, кто терпит бедствие, в режиме реального времени и просмотреть миллионы фрагментов контента», — говорит соучредитель Samurai Патриция Темпска.
Samurai — не единственная компания, использующая ИИ для поиска и оказания помощи людям из группы риска. Компания Sentinet утверждает, что ее модель искусственного интеллекта каждый день фиксирует более 400 сообщений в социальных сетях, предполагающих суицидальные намерения. А Meta, материнская компания Fb и Instagram, использует свою технологию, чтобы отмечать публикации или поведение при просмотре страниц, которые предполагают, что кто-то думает о самоубийстве. Если кто-то делится или ищет контент, связанный с самоубийством, платформа отправляет сообщение с информацией о том, как связаться со службами поддержки, такими как «Горячая линия для самоубийств и кризисов», или, если команда Меты сочтет это необходимым, вызываются службы экстренной помощи.
В основе этих усилий лежит идея о том, что алгоритмы могут сделать то, что традиционно ставит людей в тупик: определять, кто подвергается риску членовредительства, чтобы они могли получить помощь, пока не стало слишком поздно. Но некоторые эксперты говорят, что этот подход, хотя и многообещающий, еще не готов к использованию в прайм-тайм.
«Мы очень благодарны, что профилактика самоубийств пришла в сознание общества в целом. Это действительно важно», — говорит доктор Кристин Мутье, главный врач Американского фонда по предотвращению самоубийств (AFSP). «Но многие инструменты были внедрены без изучения реальных результатов».
Предсказать, кто, скорее всего, попытается покончить жизнь самоубийством, сложно даже для самых высококвалифицированных экспертов, говорит доктор Джордан Смоллер, содиректор Mass Common Brigham и Центра исследования и предотвращения самоубийств Гарвардского университета. Существуют факторы риска, которые клиницисты должны искать у своих пациентов — определенные психиатрические диагнозы, переживание травмирующего события, потеря близкого человека в результате самоубийства, — но самоубийство «очень сложное и неоднородное явление», говорит Смоллер. «Существует много различий в том, что приводит к членовредительству», и почти никогда не бывает единого триггера.
По словам Смоллера, есть надежда, что ИИ, с его способностью анализировать огромные объемы данных, сможет уловить тенденции в речи и письме, которые люди никогда не заметят. И есть наука, подтверждающая эту надежду.
Более десяти лет назад Джон Пестиан, директор Центра компьютерной медицины детской больницы Цинциннати, продемонстрировал, что алгоритмы машинного обучения могут различать настоящие и фальшивые предсмертные записки с большей точностью, чем врачи-люди. о суицидальном намерении в тексте. С тех пор исследования также показали, что ИИ может улавливать суицидальные намерения в сообщениях в социальных сетях на различных платформах.
Такие компании, как Samurai Labs, проверяют эти выводы. Согласно данным компании, предоставленным TIME, с января по ноябрь 2023 года модель Самурая обнаружила на Reddit более 25 000 потенциально суицидальных постов. Затем человек, контролирующий процесс, решает, следует ли отправлять пользователю сообщения с инструкциями о том, как получить помощь. Около 10% людей, получивших эти сообщения, обратились на линию помощи самоубийцам, а представители компании вместе со службами экстренного реагирования осуществили четыре спасательных операции лично. (Samurai не имеет официального партнерства с Reddit, а использует свою технологию для независимого анализа сообщений на платформе. Reddit использует и другие функции предотвращения самоубийств, например, функцию, которая позволяет пользователям вручную сообщать о тревожных сообщениях.)
Соучредитель Михал Врочински добавляет, что вмешательство Самурая могло иметь дополнительные преимущества, которые труднее отследить. Некоторые люди, возможно, позже позвонили на горячую линию или просто почувствовали, что о них заботятся. «Это вызвало у меня слезы на глазах», — написал один человек в сообщении, которым поделился с TIME. «Кто-то настолько заботится обо мне, что беспокоится обо мне?»
По словам Мутье, когда кто-то находится в остром кризисе психического здоровья, отвлечение — например, чтение сообщения, появляющегося на экране, — может спасти ему жизнь, поскольку вырывает его из вредной мыслительной петли. Но, по словам Пестиана, компаниям крайне важно знать, что ИИ может, а что не может сделать в трудную минуту.
По словам Пестиана, услуги, которые связывают пользователей социальных сетей с человеческой поддержкой, могут быть эффективными. «Если бы у вас был друг, он мог бы сказать: «Давай я отвезу тебя в больницу», — говорит он. «ИИ может стать автомобилем, который заставит человека заботиться». По его мнению, более рискованно «позволить[ting] «ИИ делает всю заботу», обучая его дублировать аспекты терапии, как это делают некоторые чат-боты с искусственным интеллектом. Сообщается, что мужчина в Бельгии покончил жизнь самоубийством после разговора с подбадривающим его чат-ботом — один трагический пример ограничений технологий.
Также неясно, достаточно ли сложны алгоритмы, чтобы точно выявлять людей, подверженных риску самоубийства, поскольку даже люди, создавшие модели, не обладают такой способностью, говорит Смоллер. «Модели хороши настолько, насколько хороши данные, на которых они обучаются», — говорит он. «Это создает множество технических проблем».
В нынешнем виде алгоритмы могут создавать слишком широкую сеть, что приводит к тому, что люди становятся невосприимчивыми к их предупреждающим сообщениям, говорит Джилл Харкави-Фридман, старший вице-президент по исследованиям AFSP. «Если это происходит слишком часто, вы можете отвлечь людей от прослушивания», — говорит она.
Это вполне возможно, соглашается Пестиан. Но пока нет большого количества ложноположительных результатов, он говорит, что его, как правило, больше беспокоят ложноотрицательные результаты. «Лучше сказать: «Извини, я [flagged you as at-risk when you weren’t] чем сказать родителю: «Извините, ваш ребенок покончил жизнь самоубийством, и мы это пропустили», — говорит Пестиан.
Помимо потенциальной неточности, существуют также проблемы этики и конфиденциальности. Пользователи социальных сетей могут не знать, что их публикации анализируются, или не желать этого, говорит Смоллер. Это может быть особенно актуально для членов сообществ, которые, как известно, подвергаются повышенному риску самоубийства, включая молодежь ЛГБТК+, которая непропорционально часто подвергается воздействию этих систем наблюдения с использованием искусственного интеллекта, как недавно написала группа исследователей для TIME.
А вероятность того, что опасения о самоубийстве могут быть переданы полиции или другим сотрудникам службы экстренной помощи, означает, что пользователи «могут быть задержаны, обысканы, госпитализированы и подвергнуты лечению против их воли», — писал эксперт по медицинскому праву Мейсон Маркс в 2019 году.
Мутье из AFSP говорит, что искусственный интеллект достаточно перспективен для предотвращения самоубийств, чтобы продолжать его изучать. Но в то же время она говорит, что хотела бы, чтобы платформы социальных сетей серьезно относились к защите психического здоровья пользователей, прежде чем оно дойдет до кризисной точки. По ее словам, платформы могли бы сделать больше, чтобы люди не подвергались воздействию тревожных изображений, развивали плохое представление о своем теле и не сравнивали себя с другими. Они также могли бы распространять обнадеживающие истории людей, которые выздоровели после кризисов психического здоровья, и поддерживать ресурсы для людей, которые (или у которых есть близкие люди), которые испытывают трудности, добавляет она.
Часть этой работы уже ведется. Meta удалила или добавила предупреждения к более чем 12 миллионам сообщений, связанных с членовредительством, с июля по сентябрь прошлого года и скрыла вредные результаты поиска. TikTok также предпринял шаги по запрету публикаций, изображающих или прославляющих самоубийство, а также по блокированию их просмотра пользователями, которые ищут сообщения, связанные с членовредительством. Но, как показали недавние слушания в Сенате с участием руководителей Meta, TikTok, X, Snap и Discord, в Интернете по-прежнему много тревожного контента.
Алгоритмы, которые вмешиваются, когда обнаруживают кого-то в беде, фокусируются «на самом нижнем моменте острого риска», говорит Мутье. «В предотвращении самоубийств это часть, но это еще не все». В идеальном мире никто вообще не дошел бы до этого момента.
Если вы или кто-то из ваших знакомых, возможно, испытываете кризис психического здоровья или думаете о самоубийстве, позвоните или отправьте сообщение 988. В экстренных случаях звоните 911 или обратитесь за помощью в местную больницу или к поставщику психиатрических услуг.