Язык обладает силой, и технологии предлагают новые способы его понимания. В наших текстовых сообщениях и электронных письмах алгоритмы начали дополнять за нас слова и предложения. Такие технологии, как «автозаполнение», основаны на распознавании языковых шаблонов. Всегда ли они понимают это правильно? … ну… я уверен, что мы все можем вспомнить время, когда автокоррекция нас подвела….

Есть также моменты, когда это может быть успешным.

Программное обеспечение для распознавания языковых образов привело к появлению других «удобных» технологий, таких как чат-боты. Стараюсь не быть излишне критичным, но задаю тон всей статье. Что с новой технологией, хотя и захватывающей, она все же не идеальна. Распознавание языковых моделей влияет на нашу работу, и мы можем даже не знать об этом (надеюсь, это не приведет к разводу наших клиентов). Специалисты в области психического здоровья должны не только понимать эту технологию, мы должны учитывать ее этические последствия в нашей практике.

Использование «обработки естественного языка» или НЛП не является исключением. Обработка естественного языка является подмножеством машинного обучения. Он анализирует блоки текста на предмет контекстуальных шаблонов или подсказок. Частота использования этой технологии в понимании здравоохранения и психического здоровья увеличивается.

Как человеку, который печатает бесконечные заметки о прогрессе, был один проект, который помог мне оживить НЛП. Одно исследование, направленное на изучение ключевых слов контекста с примечаниями, содержащими ключевые слова, связанные с суицидальными мыслями. Компьютерные программы, которые они разработали, успешно добывали текст и хорошо предсказывали точность. Это было сделано независимо от кодов выставления счетов или диагностики.

Crisis Text Line также смогла изучить их тексты, чтобы выявить тех, кто подвергается повышенному риску. Они обнаружили определенную частоту слов с людьми из группы повышенного риска. Вот пример того, что некоторые слова были более опасными, чем другие…

Машины умеют анализировать текст и рассчитывать риски. Возникает вопрос, как это следует использовать и когда? Профессионально мне нравится идея анализа данных EHR. Обработка естественного языка имеет клиническую ценность, поскольку было продемонстрировано, что она улавливает то, что я могу пропустить. В приведенном выше примере Crisis Text слова Ibuprophen и Tyelonol бросаются в глаза. Эти слова могут быть упомянуты не только как метод, но суицидальные люди могут также выражать физическую боль, в которой они находятся.

Некоторые предполагают, что социальные сети рассматривают возможность использования НЛП для выявления риска самоубийства. Использование данных социальных сетей для определения риска самоубийства является новым вопросом, и этические проблемы все еще возникают. Можно утверждать, что с точки зрения общественного здравоохранения может помочь использование НЛП для обозначения определенных тем в социальных сетях. Что «высшее благо» важнее, чем этические проблемы, которые могут возникнуть. Несмотря на это, вопросы конфиденциальности и согласия остаются распространенными…

Доброжелательный диктатор. 🤔 pic.twitter.com/GA4dtRLDjZ

— на Рождество я получил только капитализм наблюдения (@hypervisible) 16 октября 2018 г.

Использование такого рода языковых данных вызывает несколько вопросов…

  • Если бы вы могли предоставить свои данные ЭМК и социальных сетей, как бы вы это сделали и кому бы они были переданы?
  • Какое согласие требуется для этого?
  • Кто будет владеть вашими данными и что они будут с ними делать?
  • Кто сможет получить доступ к этим данным?

Есть основания для скептицизма, но люди относятся к этому критически. Чтобы ответить на эти вопросы, исследователи начали думать о том, как можно этично использовать текст в социальных сетях. Бентон, А., Копперсмит, Г., и Дредзе, М. (2017) отметили, что в дополнение к работе в рамках процесса IRB необходимо предпринять дополнительные шаги с информированным согласием, защитой данных (как обрабатываются данные, шифрование, и т. д.), деидентифицирующие данные, и следует принять во внимание, рекомендуется ли вмешательство в области психического здоровья или нет.

С клинической точки зрения важен скрининг на суицидальный риск. Мой вопрос заключается в том, что если данные социальных сетей идентифицируют их с высоким риском самоубийства; что следующее? Здесь решающее значение имеет информированное согласие. Должен быть какой-то «отказ». Компании социальных сетей, входящие в это пространство, должны четко понимать, как они получили данные, а затем услуги, которые они могут порекомендовать. Лично я хотел бы получить базовое образование по НЛП и его потенциальным преимуществам, прежде чем подписываться на такой вариант.

После того, как мое согласие будет получено, во время повышенного риска должны быть сделаны подсказки. Возможно, на Национальную линию спасения от самоубийств или на Кризисную текстовую линию. Также должны быть представлены местные варианты лечения.

Обработка естественного языка может быть мощным инструментом информирования на практике. Проблема заключается в том, как собирать, анализировать и обрабатывать данные. Этических вопросов все еще много, но специалисты в области психического здоровья должны быть за столом переговоров, чтобы обсудить эти вопросы.

Хотелось бы узнать, что думают другие… Пожалуйста, не стесняйтесь оставлять комментарии ниже или писать мне в Твиттере (@stuckonsw).

**Дополнительная литература/ресурсы**

Первоначально опубликовано на сайте stuckonsocialwork.com 13 ноября 2018 г.