Сидорова М.Ю., Мацепуро Д.Г., Гайбуллаев А.З. Киберсамоубийство и цифровой селфхарм: общая проблематика и компьютерные решения. Часть 2

С

Это вто­рая часть ста­тьи «Кибер­са­мо­убий­ство и циф­ро­вой сел­фхарм». Пер­вая часть дан­ной рабо­ты нахо­дит­ся на сай­те CYBERPSY здесь (опуб­ли­ко­ва­на в жур­на­ле «Соци­аль­ная и кли­ни­че­ская пси­хи­ат­рия». 2018. Т. 18, No 3. С. 92–104).

В этой части ста­тьи рас­смот­ре­ны ком­пью­тер­ные реше­ния, пред­ло­жен­ные в тече­ние послед­них трех лет в обла­сти детек­ти­ро­ва­ния и ана­ли­за интер­нет-тек­стов, содер­жа­щих СУ/СХ-кон­тент1 (тви­тов, ком­мен­та­ри­ев, запи­сей в бло­гах и т.п.), вклю­чая «нега­тив­ные» (тек­сты, при­зы­ва­ю­щие к самоубийству/нанесению себе вре­да, опи­сы­ва­ю­щие СУ и СХ, пред­смерт­ные запис­ки и др.) и «пози­тив­ные» (напри­мер, ком­мен­та­рии на фору­мах и в соц­се­тях, спо­соб­ству­ю­щие реше­нию про­бле­мы, отка­зу от идей СУ/СХ и др.), а так­же в обла­сти изу­че­ния фор­ми­ро­ва­ния СУ/СХ-сооб­ществ и уста­нов­ле­ния кон­так­тов и рас­про­стра­не­ния инфор­ма­ции меж­ду лица­ми, инте­ре­су­ю­щи­ми­ся СУ/СХ, в соци­аль­ных сетях (под­пис­ки, рет­ви­ты и т.п.).

Опыт ана­ли­за и детек­ти­ро­ва­ния сооб­ще­ний суи­ци­даль­но­го и анти­су­и­ци­даль­но­го, само­по­вре­жда­ю­ще­го и анти­са­мо­по­вре­жда­ю­ще­го харак­те­ра, накоп­лен­ный иссле­до­ва­тель­ски­ми груп­па­ми в раз­ных стра­нах мира, дает воз­мож­ность оце­нить про­гресс в этой обла­сти и суще­ству­ю­щие труд­но­сти, кото­рые долж­ны быть учте­ны при раз­ра­бот­ке реше­ния про­бле­мы на рус­ско­языч­ном материале. 

Зада­ча пред­став­ле­ния пол­но­го спис­ка име­ю­щих­ся иссле­до­ва­ний и реше­ний нами не ста­вит­ся. Более полез­ным пред­став­ля­ет­ся осве­тить мето­ди­ку и резуль­та­ты раз­ра­бо­ток, кото­рые а) явля­ют­ся наи­бо­лее инте­рес­ны­ми и пер­спек­тив­ны­ми и/или пер­вы­ми в сво­ем роде; б) учи­ты­ва­ют иссле­до­ва­тель­ские про­бле­мы, осве­щен­ные в пер­вой части ста­тьи; в) дают осно­ва­ния для реко­мен­да­ций по про­ве­де­нию ана­ло­гич­ных иссле­до­ва­ний и созда­нию соот­вет­ству­ю­щих инстру­мен­тов на базе рус­ско­го языка.

Как было пока­за­но ранее, одной из суще­ствен­ных про­блем авто­ма­ти­че­ско­го детек­ти­ро­ва­ния сооб­ще­ний на опре­де­лен­ную тема­ти­ку в Интер­не­те явля­ет­ся раз­но­об­ра­зие исполь­зу­е­мых тегов и клю­че­вых слов и их лек­си­че­ское (точ­нее, мор­фем­ное и орфо­гра­фи­че­ское, вклю­чая заме­ну букв, сокра­ще­ние и удли­не­ние слов и т.п.) варьи­ро­ва­ние, обу­слов­лен­ное как есте­ствен­ной дина­ми­кой раз­ви­тия любо­го жар­го­на, так и стрем­ле­ни­ем поль­зо­ва­те­лей обой­ти модерацию.

В рабо­те S.Chancellor и соавт. [4] пред­став­ле­но иссле­до­ва­ние тегов, исполь­зу­е­мых сооб­ще­ства­ми, поощ­ря­ю­щи­ми пище­вые рас­строй­ства (pro-ED communities), до и после изме­не­ния поли­ти­ки моде­ра­ции в Instagram (2012), когда наи­бо­лее общие и попу­ляр­ные теги, свя­зан­ные с этой темой были либо забло­ки­ро­ва­ны для поис­ка, либо поиск по ним стал при­во­дить к появ­ле­нию на экране пре­ду­пре­жда­ю­ще­го сооб­ще­ния (anorexia, bulimia, bonespro и ряд других). 

Авто­ры иссле­до­ва­ния изу­чи­ли 2,5 мил­ли­о­на сооб­ще­ний из Instagram с 2011 по 2014 годы с тега­ми, каса­ю­щи­ми­ся пище­вых рас­стройств, и про­ана­ли­зи­ро­ва­ли лек­си­че­ское варьи­ро­ва­ние в них, кото­рое сви­де­тель­ству­ет о впе­чат­ля­ю­щей изоб­ре­та­тель­но­сти поль­зо­ва­те­лей в моди­фи­ка­ции тегов. 

Когда все вари­ан­ты тегов были по осо­бым пра­ви­лам, с уче­том фор­маль­ных и семан­ти­че­ских видо­из­ме­не­ний сгруп­пи­ро­ва­ны вокруг 17 «кор­не­вых», исход­ных тегов, на каж­дый из «кор­не­вых» тегов при­шлось в сред­нем 40 моди­фи­ка­ций. При этом рас­сто­я­ние Левен­штей­на меж­ду исход­ны­ми тега­ми и их моди­фи­ка­ци­я­ми ока­за­лось высо­ко вари­а­тив­ным от 1 до 9. 

Далее была под­счи­та­на про­пор­ци­о­наль­ная дина­ми­ка тегов, что дало резуль­та­ты, кото­рые сами авто­ры назы­ва­ют «уди­ви­тель­ны­ми». По гра­фи­кам, пред­став­лен­ным в ста­тье, мож­но заме­тить, как коли­че­ство сооб­ще­ний с «запре­щен­ны­ми» тега­ми рез­ко сокра­ти­лось после апре­ля 2012 года, когда Instagram уже­сто­чил поли­ти­ку бло­ки­ро­ва­ния СХ-кон­тен­та (в сред­нем на 52 %, в диа­па­зоне от 13 до 78%), одна­ко теги, кото­рые вызы­ва­ли появ­ле­ние пре­ду­пре­жда­ю­ще­го сооб­ще­ния, ста­ли исполь­зо­вать­ся в сооб­ще­ни­ях чаще (сред­нее уве­ли­че­ние исполь­зо­ва­ния на 22% в диа­па­зоне от 9 до 37%). 

Уве­ли­че­ние коли­че­ства вари­ан­тов тегов не сопро­вож­да­лось коли­че­ствен­ным пере­ве­сом исполь­зо­ва­ния вари­ан­тов по срав­не­нию с кор­не­вы­ми тега­ми, даже если послед­ние под­вер­га­лись моде­ра­ции, напро­тив, в сред­нем обна­ру­жи­лось умень­ше­ние исполь­зо­ва­ния вари­ан­тов на 70% по срав­не­нию с кор­не­вы­ми тега­ми. Одна­ко неко­то­рые цепоч­ки вари­ан­тов пока­за­ли суще­ствен­ное уве­ли­че­ние попу­ляр­но­сти (с точ­ки зре­ния коли­че­ства сооб­ще­ний, в кото­рых они использовались).

В целом резуль­та­ты иссле­до­ва­ния ука­зы­ва­ют на недо­ста­точ­ную эффек­тив­ность моде­ра­ци­он­ных уси­лий Instagram: запрет на попу­ляр­ные pro-EDте­ги лег­ко пре­одо­ле­ва­ет­ся, те сооб­ще­ства, кото­рые наи­луч­шим обра­зом «научи­лись» варьи­ро­вать теги, при­вле­ка­ют боль­ше участ­ни­ков и более актив­но под­дер­жи­ва­ют пище­вые расстройства. 

Более того, посколь­ку «запрет» тега фак­ти­че­ски озна­ча­ет толь­ко невоз­мож­ность исполь­зо­вать его для поис­ка, но не уда­ле­ние или скры­тие сооб­ще­ний, уже снаб­жен­ных этим тегом, такая поли­ти­ка, по мне­нию авто­ров иссле­до­ва­ния, при­во­дит к тому, что pro-ED-сооб­ще­ства «ухо­дят в тень», про­дол­жа­ют вести свою дея­тель­ность, ста­но­вясь при этом менее замет­ны­ми для детек­ти­ро­ва­ния и интервенции.

Мето­ди­ка, пред­ло­жен­ная авто­ра­ми, дает воз­мож­ность полу­чить и мно­го дру­гой полез­ной коли­че­ствен­ной ана­ли­ти­ки: коли­че­ство лай­ков по кор­не­вым тегам и их вари­а­ци­ям, попу­ляр­ность сопро­вож­да­ю­щих тегов, пре­об­ла­да­ю­щие темы обсуж­де­ния на осно­ве кла­сте­ров (сов­мест­но встре­ча­ю­щих­ся групп) тегов и др. 

Были, в част­но­сти, обна­ру­же­ны суще­ствен­ные раз­ли­чия в тегах, сопро­вож­да­ю­щих «кор­не­вые» теги и их вари­ан­ты. Кла­сте­ры, сопро­вож­да­ю­щие «кор­не­вые» теги вклю­ча­ют обо­зна­че­ния нега­тив­ных эмо­ций, оди­но­че­ства и боли, а так­же сло­ва, свя­зан­ные со стра­те­ги­ей поху­де­ния и обо­зна­ча­ю­щие физи­че­ские при­зна­ки, то есть, с одной сто­ро­ны, они выра­жа­ют пси­хо­ло­ги­че­ские про­бле­мы, с кото­ры­ми обыч­но сопря­же­но СХ-пове­де­ние, с дру­гой – эмо­ци­о­наль­но оправ­ды­ва­ют его. 

Кла­сте­ры при вари­ан­тах тегов обыч­но отра­жа­ют более глу­бо­кие пси­хо­ло­ги­че­ские про­бле­мы и более «опас­ный» кон­тент. Они вклю­ча­ют теги, выра­жа­ю­щие само­уни­чи­же­ние, зани­жен­ную само­оцен­ку, депрес­сию и/или свя­зан­ные с пря­мым СХ и СУ

Посколь­ку сооб­ще­ства, пред­по­чи­та­ю­щие «кор­не­вые» и вари­ант­ные теги, доста­точ­но чет­ко раз­гра­ни­че­ны и име­ют раз­ную поль­зо­ва­тель­скую базу, авто­ры иссле­до­ва­ния пред­по­ла­га­ют, что поль­зо­ва­те­ли, исполь­зу­ю­щие вари­ант­ные теги, могут пред­став­лять собой осо­бый сег­мент сооб­ще­ства, наце­лен­ный уже на поощ­ре­ние пря­мо­го СХ, а не пище­вых рас­стройств. Бло­ки­ро­ва­ние «кор­не­вых» тегов при этом будет уво­дить поль­зо­ва­те­ля, исполь­зу­ю­ще­го вари­ант­ные теги, все даль­ше в сто­ро­ну более жест­ких форм СХ.

Спра­вед­ли­во­сти ради, нуж­но заме­тить, что моде­ра­ци­он­ная поли­ти­ка Instagram все же рабо­та­ет. Кри­ти­куя ее, авто­ры не отме­ча­ют тот факт, что в выпа­да­ю­щем спис­ке по неко­то­рым поис­ко­вым запро­сам, вклю­ча­ю­щим рас­смат­ри­ва­е­мые в ста­тье теги, содер­жат­ся аль­тер­на­тив­ные запро­сы, отсы­ла­ю­щие к кон­тен­ту, направ­лен­но­му на борь­бу с пище­вы­ми рас­строй­ства­ми (рис. 1).

Рис. 1. Выпадающий список по поисковым запросам Instagram, касающимся нервной анорексии
Рис. 1. Выпа­да­ю­щий спи­сок по поис­ко­вым запро­сам Instagram, каса­ю­щим­ся нерв­ной анорексии

Так­же сле­ду­ет под­черк­нуть, что для рус­ско­языч­но­го сег­мен­та Instagram необ­хо­ди­мы соб­ствен­ные иссле­до­ва­ния – непо­сред­ствен­ный пере­нос резуль­та­тов англо­языч­ных иссле­до­ва­ний невоз­мо­жен. С одной сто­ро­ны, суще­ству­ют оче­вид­ные парал­ле­ли. Так, при поис­ке из рос­сий­ско­го рус­ско­языч­но­го акка­ун­та по тегам ано­рек­сия и anorexia сна­ча­ла появ­ля­ет­ся пре­ду­пре­жде­ние, как и при поис­ке из англо­языч­но­го сег­мен­та, затем, если поль­зо­ва­тель жела­ет его про­игно­ри­ро­вать – результаты. 

Одна­ко кон­тент, кото­рый полу­ча­ет поль­зо­ва­тель на пер­вой стра­ни­це поис­ка, зна­чи­тель­но раз­ли­ча­ет­ся в зави­си­мо­сти от того, на каком язы­ке набран тег (рис. 2).

Рис. 2. Контент, который получает пользователь по запросу «анорексия» на первой странице поиска в зависимости от используемого языка
Рис. 2. Кон­тент, кото­рый полу­ча­ет поль­зо­ва­тель по запро­су «ано­рек­сия» на пер­вой стра­ни­це поис­ка в зави­си­мо­сти от исполь­зу­е­мо­го языка

Оче­вид­ны и раз­ли­чия в варьи­ро­ва­нии тегов (рис. 3). Дру­гой вопрос – сколь­ко рус­ско­языч­ных поль­зо­ва­те­лей, инте­ре­су­ю­щих­ся этой темой, в прин­ци­пе поль­зу­ют­ся рус­ско­языч­ны­ми тегами.

Рис. 3. Различия в варьировании тегов
Рис. 3. Раз­ли­чия в варьи­ро­ва­нии тегов

Иссле­до­ва­ние R.C.Brown [3] так­же было про­ве­де­но на мате­ри­а­ле Instagram, но в отли­чие от преды­ду­ще­го в нем изу­ча­лись сооб­ще­ния, свя­зан­ные с пря­мым нане­се­ни­ем себе физи­че­ских повре­жде­ний и снаб­жен­ные соот­вет­ству­ю­щи­ми немец­ки­ми хештегами. 

Выбор мате­ри­а­ла был обу­слов­лен, с одной сто­ро­ны тем, что Гер­ма­ния зани­ма­ет одно из пер­вых мест по уров­ню несу­и­ци­даль­но­го СХ сре­ди моло­де­жи, с дру­гой сто­ро­ны – жела­ни­ем авто­ров сосре­до­то­чить­ся на одном наци­о­наль­ном сег­мен­те интер­не­та (англий­ски­ми хеш­те­га­ми поль­зу­ют­ся жите­ли мно­гих стран).

Отправ­ной точ­кой ана­ли­за были опуб­ли­ко­ван­ные поль­зо­ва­те­ля­ми за 4 неде­ли в апре­ле 2016 года фото­гра­фии, на кото­рых были откры­то изоб­ра­же­ны такие повре­жде­ния. Коли­че­ство таких фото­гра­фий соста­ви­ло 2 826 в 1154 акка­ун­тах. Изу­ча­лось содер­жа­ние фото­гра­фий, ком­мен­та­ри­ев к ним и хеш­те­ги. В основ­ном эти фото­гра­фии изоб­ра­жа­ли поре­зы на руках и на ногах, отне­сен­ные экс­пер­та­ми к повре­жде­ни­ям сла­бой и сред­ней степени.

Заслу­жи­ва­ет вни­ма­ния поэтап­ная мето­ди­ка отбо­ра мате­ри­а­ла, исполь­зо­ван­ная авто­ра­ми. Сна­ча­ла в тече­ние 48 часов они загру­жа­ли из откры­тых про­фи­лей Instagram сооб­ще­ния с одним хеш­те­гом, кото­рый по име­ю­щим­ся дан­ным явля­ет­ся самым попу­ляр­ным для несу­и­ци­даль­но­го СХ-кон­тен­та в Гер­ма­нии [8]. Было полу­че­но 1 135 изображений. 

На вто­ром эта­пе были опре­де­ле­ны 30 хеш­те­гов, кото­рые были исполь­зо­ва­ны для этих изоб­ра­же­ний по край­ней мере два­жды, и про­из­ве­де­на загруз­ка в тече­ние 72 часов фото­гра­фий, поме­чен­ных эти­ми хеш­те­га­ми. Коли­че­ство загру­жен­ных фото­гра­фий соста­ви­ло 5 588. 

Далее два неза­ви­си­мых экс­пер­та опре­де­ля­ли, явля­ют­ся ли эти фото­гра­фии реле­вант­ны­ми для цели иссле­до­ва­ния, то есть содер­жит­ся ли на них непо­сред­ствен­ное изоб­ра­же­ние раны или шра­ма (чужие фото­гра­фии, ско­пи­ро­ван­ные из извест­ных источ­ни­ков, в рас­смот­ре­ние не включались). 

В полу­чен­ной выбор­ке ока­за­лось 293 фото­гра­фии, на осно­ве кото­рых был про­ве­ден сле­ду­ю­щий этап уточ­не­ния спис­ка хеш­те­гов. Хеш­те­ги, кото­ры­ми были поме­че­ны как мини­мум 5% реле­вант­ных фото­гра­фий, исполь­зо­ва­лись для окон­ча­тель­ной загруз­ки материала. 

Далее в тече­ние 4 недель фото­гра­фии с эти­ми хеш­те­га­ми выгру­жа­лись из Instagram каж­дый час, что соста­ви­ло в конеч­ном ито­ге 32 182 фото­гра­фий из 6 721 акка­ун­тов. Это коли­че­ство осо­бен­но впе­чат­ля­ет на фоне того, что 10 из 16 исполь­зо­ван­ных хеш­те­гов полу­ча­ют авто­ма­ти­че­ское пре­ду­пре­жде­ние, в соот­вет­ствии с моде­ра­ци­он­ной поли­ти­кой Instagram. 

Одна­ко при экс­перт­ной оцен­ке этих фото­гра­фий выяс­ни­лось, что реле­вант­ны­ми из них явля­ют­ся толь­ко 2 826 (8,8%), опуб­ли­ко­ван­ные в 1 154 акка­ун­тах. Этот резуль­тат инте­ре­сен сам по себе, так как демон­стри­ру­ет, что СХ-хеш­те­ги в сооб­ще­нии ред­ко сопро­вож­да­ют­ся непо­сред­ствен­ным изоб­ра­же­ни­ем повреждений.

В резуль­та­те ана­ли­за полу­чен­но­го мас­си­ва сооб­ще­ний и ком­мен­та­ри­ев к ним были полу­че­ны ста­ти­сти­че­ские дан­ные, отра­жа­ю­щие зави­си­мость ком­мен­та­ри­ев от типа уве­чья на фото, коли­че­ство ком­мен­та­ри­ев под фото­гра­фи­я­ми опре­де­лен­но­го типа и т.д.

Типы фото­гра­фий опре­де­ля­лись дву­мя неза­ви­си­мы­ми экс­пер­та­ми по кри­те­ри­ям сте­пе­ни тяже­сти повре­жде­ний (лег­кая, сред­няя, тяже­лая), типа раны (порез, шрам, синяк, ожог), части тела (верх­ние конеч­но­сти, ниж­ние конеч­но­сти, торс, голо­ва, шея) и инстру­мен­ту (брит­ва, моне­та и т.п.).

Ком­мен­та­рии (за выче­том 1,2% ком­мен­та­ри­ев, кото­рые были лише­ны смыс­ла или сде­ла­ны на язы­ках иных, чем немец­кий и англий­ский) так­же были раз­би­ты на категории:

  • ком­пли­мен­ты по пово­ду повре­жде­ния, напри­мер, ука­за­ния на то, что оно выгля­дит «кра­си­во» (0,5% от всех комментариев);
  • эмпа­ти­че­ская реак­ция, сочув­ствие (23,5%);
  • пред­ло­же­ние помо­щи (6,9%);
  • пре­ду­пре­жде­ния, прось­бы пре­кра­тить СХ-пове­де­ние (11,6%);
  • про­во­ка­ции, сти­му­ля­ция «идти даль­ше», напри­мер, «убить себя» (6,8%);
  • общее обсуж­де­ние темы – ком­мен­та­рии, не отно­ся­щи­е­ся напря­мую к изоб­ра­же­нию и раз­ме­стив­ше­му его поль­зо­ва­те­лю (49,5%).

Каза­лось бы, что на осно­ве этих дан­ных мож­но сде­лать вывод о потен­ци­аль­ном поло­жи­тель­ном вли­я­нии обще­ния в соци­аль­ной сети на поль­зо­ва­те­лей, раз­ме­ща­ю­щих подоб­ные фото­гра­фии: ком­мен­та­то­ры в боль­шин­стве сво­ем не сти­му­ли­ру­ют их СХ-пове­де­ние, пред­ла­га­ют мораль­ную под­держ­ку, выра­жа­ют пони­ма­ние их чувств, что долж­но спо­соб­ство­вать укреп­ле­нию соци­аль­ных свя­зей, умень­ше­нию чув­ства оди­но­че­ства и пони­ма­нию того, что такое пове­де­ние не явля­ет­ся нормой. 

Одна­ко ана­лиз коли­че­ства ком­мен­та­ри­ев пока­зал, что сооб­ще­ния с СХ-фото­гра­фи­я­ми полу­ча­ли в сред­нем в два раза боль­ше ком­мен­та­ри­ев, чем сооб­ще­ния, не содер­жа­щие таких фото­гра­фий. Более того, изоб­ра­же­ния тяже­лых повре­жде­ний полу­ча­ли боль­ше ком­мен­та­ри­ев в целом и боль­ше ком­мен­та­ри­ев каж­до­го типа, чем изоб­ра­же­ния повре­жде­ний лег­кой и сред­ней степени. 

Посколь­ку полу­че­ние ком­мен­та­ри­ев явля­ет­ся одной из основ­ных моти­ва­ций поль­зо­ва­те­лей соци­аль­ных сетей, жела­ние уве­ли­чить коли­че­ство ком­мен­та­ри­ев может про­во­ци­ро­вать поль­зо­ва­те­ля на пуб­ли­ка­цию более «жесто­ко­го» кон­тен­та и спо­соб­ство­вать соци­аль­но­му закреп­ле­нию СХ-поведения. 

В каче­стве воз­мож­ной пре­вен­тив­ной меры авто­ры иссле­до­ва­ния пред­ла­га­ют авто­ма­ти­че­скую филь­тра­цию изоб­ра­же­ний (соот­вет­ству­ю­щее реше­ние может быть созда­но на осно­ве машин­но­го обу­че­ния) с опци­ей отклю­че­ния лай­ков и ком­мен­та­ри­ев под фото­гра­фи­я­ми, изоб­ра­жа­ю­щи­ми тяже­лые повреждения.

Отдель­ное вни­ма­ние авто­ры уде­ли­ли актив­но­сти пуб­ли­ка­ции СХ-сооб­ще­ний в зави­си­мо­сти от вре­ме­ни суток и дня неде­ли. Было заме­че­но, что в Гер­ма­нии боль­ше сооб­ще­ний рас­смат­ри­ва­е­мой направ­лен­но­сти пуб­ли­ку­ет­ся в вос­кре­се­нье и в пери­од от 20 до 22 часов во все дни неде­ли, в то вре­мя как спад актив­но­сти таких пуб­ли­ка­ций при­хо­дит­ся на вре­мя с 8 утра до часу дня в буд­ние дни, что кос­вен­но сви­де­тель­ству­ет о том, что боль­шая часть поль­зо­ва­те­лей, пуб­ли­ку­ю­щих такие сооб­ще­ния – школьники.

В рабо­те B.O’Dea и соавт. [11] была пред­ло­же­на модель, авто­ма­ти­че­ски пред­ска­зы­ва­ю­щая суи­ци­даль­ную наклон­ность сооб­ще­ния, создан­ная и обу­чен­ная на осно­ве собран­ных в сети Twitter данных. 

Из мас­си­ва в 14 701 твит, най­ден­ных по клю­че­вым сло­вам, свя­зан­ным с само­убий­ством, 2 000 тви­тов были слу­чай­ным обра­зом ото­бра­ны для экс­пер­тов, кото­рые клас­си­фи­ци­ро­ва­ли их как «вызы­ва­ю­щие серьез­ное бес­по­кой­ство», то есть содер­жа­щие серьез­ное и откры­тое выра­же­ние наме­ре­ния совер­шить само­убий­ство2(14%); «воз­мож­но, заслу­жи­ва­ю­щие бес­по­кой­ства» – дефолт­ная кате­го­рия, в кото­рую поме­ща­лись тви­ты, не содер­жав­шие при­зна­ков двух дру­гих (56%); «доста­точ­но без­опас­ные для того, что­бы их про­игно­ри­ро­вать» (29%).

Согла­со­ван­ность мне­ний экс­пер­тов соста­ви­ла 76%. Перед моде­лью была постав­ле­на зада­ча авто­ма­ти­че­ской детек­ции сооб­ще­ний, «вызы­ва­ю­щих силь­ное бес­по­кой­ство». Все­го для машин­но­го обу­че­ния и тести­ро­ва­ния моде­ли было исполь­зо­ва­но 1 820 тви­тов, раз­де­лен­ных на два набо­ра: набор A – 829 тви­тов (746 для обу­че­ния, 83 для про­вер­ки) и набор B=991 (соот­вет­ствен­но 891 и 100). 

Модель пра­виль­но опре­де­ли­ла 80% сооб­ще­ний, «вызы­ва­ю­щих силь­ное бес­по­кой­ство», что зна­чи­тель­но луч­ше, чем резуль­та­ты моде­ли [9], создан­ной на мате­ри­а­ле My Space, и достиг­шей толь­ко 14%-ной пра­виль­но­сти опре­де­ле­ния суи­ци­даль­но­го рис­ка по тек­стам бло­гов. Так же важ­но, что маши­на достиг­ла того же уров­ня точ­но­сти, что и резуль­та­ты руч­но­го анализа.

  1. Обра­бот­ка тек­ста вклю­ча­ла сле­ду­ю­щие стадии:
  2. Лем­ма­ти­за­ция.
  3. Пре­об­ра­зо­ва­ние слов в вектора.
  4. Вычис­ле­ние tf-idf3 коэф­фи­ци­ен­тов, учи­ты­ва­ю­щих инфор­ма­тив­ность сло­ва на осно­ве его частотности.

Полу­че­ние ито­го­во­го век­то­ра путем сло­же­ния век­то­ров слов с коэф­фи­ци­ен­та­ми tf-idf.

В каче­стве клас­си­фи­ка­то­ра были исполь­зо­ва­ны SVM (метод опор­ных век­то­ров)4 и логи­сти­че­ский регрессор.

Авто­ры про­ве­ли тесты и посчи­та­ли точ­ность (precision)5, пол­но­ту (recall)6 и F1-меру7 для каж­дой ком­би­на­ции. Все эти меры важ­ны для оцен­ки каче­ства модели. 

Высо­кая точ­ность гово­рит о том, что модель ред­ко оши­ба­ет­ся, утвер­ждая, что пост име­ет суи­ци­даль­ный харак­тер. В свою оче­редь высо­кая пол­но­та гово­рит о том, что модель мало про­пус­ка­ет «тре­вож­ные» посты. 

Таким обра­зом, модель может иметь высо­кую точ­ность, но низ­кую пол­но­ту (неуве­рен­ная модель) или же высо­кую пол­но­ту и низ­кую точ­ность (слиш­ком уве­рен­ная модель). 

Пер­вый слу­чай хорош, когда нам необ­хо­ди­мо бло­ки­ро­вать посты авто­ма­ти­че­ски, и мы не хотим бло­ки­ро­вать «хоро­шие» посты. 

Вто­рой слу­чай хорош, если далее пла­ни­ру­ет­ся вто­рич­ная про­вер­ка (моде­ра­ция). Авто­ры не смог­ли добить­ся высо­кой точ­но­сти и пол­но­ты одно­вре­мен­но, одна­ко полу­чен­ные резуль­та­ты могут быть исполь­зо­ва­ны как база для более каче­ствен­но­го алгоритма.

В про­цес­се рабо­ты авто­ры обна­ру­жи­ли две про­бле­мы, кото­рые име­ют отно­ше­ние к чело­ве­че­ско­му фак­то­ру, рас­по­ла­га­ют­ся в двух конеч­ных точ­ках иссле­до­ва­ния – исход­ной и завер­ша­ю­щей – и не могут быть реше­ны машин­ны­ми мето­да­ми. Это про­бле­ма кон­тек­ста и про­бле­ма этики. 

Про­бле­ма кон­тек­ста заклю­ча­ет­ся в том, что, как сооб­щи­ли участ­ни­ки коди­ро­ва­ния тви­тов, для опре­де­ле­ния сте­пе­ни серьез­но­сти суи­ци­даль­но­го наме­ре­ния часто тре­бу­ет­ся боль­ше инфор­ма­ции, чем содер­жит­ся в тек­сте. Так, фра­зы «I want to die» (Я хочу уме­реть) или «I’ll kill myself» (Я убью себя) могут быть отра­же­ни­ем осо­бой фра­зео­ло­гии, свой­ствен­ной поль­зо­ва­те­лям опре­де­лен­но­го воз­рас­та, инте­ре­сов и т.п. (ср. с рус­ски­ми «Я уми­раю», «Я тебя убью» или «убей­ся апстену»). 

Необ­хо­ди­мый кон­текст может нахо­дить­ся в пре­де­лах сооб­ще­ния (хеш­те­ги, изоб­ра­же­ния, смай­ли­ки и т.п.), в пре­де­лах акка­ун­та, в пре­де­лах Твит­те­ра, за его пре­де­ла­ми, и полу­чить его авто­ма­ти­че­ски, без лич­но­го кон­так­та с поль­зо­ва­те­лем быва­ет невозможно. 

Про­бле­ма эти­ки состо­ит в том, что, каким бы точ­ным ни ста­ло авто­ма­ти­че­ское детек­ти­ро­ва­ние суи­ци­даль­ных тви­тов, не вполне понят­но, что делать с ним дальше. 

Если, пред­по­ло­жим, какой-то твит опре­де­лен как «вну­ша­ю­щий серьез­ное бес­по­кой­ство», како­вы могут быть дей­ствия по отно­ше­нию к поль­зо­ва­те­лю, его опуб­ли­ко­вав­ше­му, что­бы они не были нару­ше­ни­ем при­ват­но­сти и дру­гих эти­че­ских прин­ци­пов? И кто дол­жен совер­шать эти действия? 

Тем не менее авто­ры иссле­до­ва­ния про­дол­жи­ли рабо­ту, рас­ши­ряя воз­мож­но­сти авто­ма­ти­че­ско­го ана­ли­за суи­ци­даль­ных тви­тов. В рабо­те B.O’Dea и соавт. [11] с исполь­зо­ва­ни­ем LIWC8 и регрес­си­он­но­го ана­ли­за ими были выяв­ле­ны раз­ли­чия в линг­ви­сти­че­ских харак­те­ри­сти­ках тви­тов, не содер­жа­щих СУ-кон­тен­та, тви­тов с СУ-кон­тен­том, отно­ся­щих­ся к «без­опас­ной» кате­го­рии и «вызы­ва­ю­щих серьез­ное бес­по­кой­ство» суи­ци­даль­ных твитов. 

По срав­не­нию с тви­та­ми несу­и­ци­даль­но­го содер­жа­ния тви­ты, «вызы­ва­ю­щие серьез­ное бес­по­кой­ство», харак­те­ри­зу­ют­ся боль­шим коли­че­ством слов, боль­шей долей место­име­ний пер­во­го лица с боль­шим коли­че­ством упо­ми­на­ний смер­ти, боль­ше выра­же­ний гне­ва и боль­ше кон­цен­три­ро­ва­лись на настоящем.

Досто­вер­ность и пер­спек­тив­ность раз­ра­бо­ток B.O’Dea и соавт. [11] осно­вы­ва­ет­ся в чис­ле про­че­го на том, что суи­ци­даль­ные сооб­ще­ния опре­де­ля­ют­ся в них по тегам, непо­сред­ствен­но отра­жа­ю­щим тему само­убий­ства. Суще­ству­ют иссле­до­ва­ния, где суи­ци­даль­ный харак­тер сооб­ще­ния детек­ти­ру­ет­ся на осно­ве ана­ли­за эмо­ций, выра­жен­ных в нем. 

Напри­мер, логи­ка M.Birjali и соавт. [2] состо­ит в сле­ду­ю­щем: в нау­ке име­ют­ся дан­ные о линг­ви­сти­че­ских осо­бен­но­стях «депрес­сив­ных» тек­стов и о свя­зи депрес­сии с само­убий­ства­ми, кро­ме того, выра­же­ние эмо­ци­о­наль­ных состо­я­ний явля­ет­ся доста­точ­но хоро­шо раз­ра­бо­тан­ной обла­стью авто­ма­ти­че­ско­го ана­ли­за есте­ствен­но­го язы­ка (от под­хо­дов, осно­ван­ных на bag-of-words, до машин­но­го обу­че­ния), сле­до­ва­тель­но мож­но опре­де­лять суи­ци­даль­ные посты по выра­жен­но­сти в них депрес­сив­ных, пес­си­ми­сти­че­ских чувств.

Такой под­ход вызы­ва­ет сомне­ние, о чем сви­де­тель­ству­ют резуль­та­ты G.Coppersmith и соавт. [6], где сопо­став­ля­лись сооб­ще­ния в Twitter, напи­сан­ные лица­ми, при­зна­вав­ши­ми­ся в попыт­ке само­убий­ства с ука­за­ни­ем кон­крет­ной даты, лица­ми, при­зна­вав­ши­ми­ся в диа­гно­сти­ро­ван­ной депрес­сии, и «нор­маль­ной» кон­троль­ной груп­пой (авто­ры ука­зы­ва­ют, что опи­ра­лись при клас­си­фи­ка­ции сооб­ще­ний имен­но на соб­ствен­ные при­зна­ния поль­зо­ва­те­лей, что не спо­соб­ству­ет чисто­те иссле­до­ва­ния, так как сре­ди лиц, при­знав­ших­ся в диа­гно­сти­ро­ван­ной депрес­сии, мог­ли быть и совер­шав­шие в про­шлом попыт­ку самоубийства). 

На осно­ве бук­вен­ных n-грамм9 были созда­ны модель тек­стов, напи­сан­ных лица­ми, при­зна­вав­ши­ми­ся в попыт­ке само­убий­ства, и модель тек­стов «нор­маль­ных» поль­зо­ва­те­лей, соот­вет­ствен­но появи­лась воз­мож­ность оце­ни­вать веро­ят­ность при­над­леж­но­сти любо­го тек­ста к «суи­ци­даль­ной» и «несу­и­ци­даль­ной» (кон­троль­ной) группе.

Для это­го исполь­зо­ва­лась формула,

CLMs – модель для «суицидальной» группы

где CLMs – модель для «суи­ци­даль­ной» груп­пы, CLMc – модель для кон­троль­ной груп­пы, t – про­из­воль­ный текст. При поло­жи­тель­ном зна­че­нии c (t) более веро­ят­но, что текст t при­над­ле­жит к «суи­ци­даль­ной» груп­пе, при отри­ца­тель­ном – к контрольной.

Посколь­ку при ана­ли­зе тви­тов отдель­но­го поль­зо­ва­те­ля ино­гда ока­зы­ва­ет­ся, что они попа­да­ют в раз­ные груп­пы, осо­бое зна­че­ние при созда­нии «суи­ци­даль­ной» моде­ли и ана­ли­зе тек­стов при­да­ва­лось тви­там, пред­ше­ство­вав­шим попыт­ке самоубийства. 

При таком под­хо­де мож­но так­же сопо­ста­вить неко­то­рое коли­че­ство тви­тов, непо­сред­ствен­но пред­ше­ству­ю­щих попыт­ке само­убий­ства, и более отда­лен­ных от нее по вре­ме­ни и попы­тать­ся обна­ру­жить сиг­на­лы ухудшений.

После того как моде­ли уда­лось с удо­вле­тво­ри­тель­ной точ­но­стью отгра­ни­чить «суи­ци­даль­ные» тви­ты от тви­тов кон­троль­ной груп­пы, авто­ры иссле­до­ва­ния исполь­зо­ва­ли LIWC, что­бы выяс­нить, каки­ми кон­крет­но лек­си­че­ски­ми пара­мет­ра­ми отли­ча­ют­ся эти тексты. 

Было уста­нов­ле­но, что «суи­ци­даль­ные» тви­ты содер­жат боль­ше, чем тви­ты кон­троль­ной груп­пы, слов из кате­го­рий DEATH, HEALTH, SAD, THEY, I, SEXUAL, FILLER, SWEAR, ANGER, NEGATIVE EMOTIONS. Не все из этих кате­го­рий напря­мую свя­за­ны с темой самоубийства. 

Гораз­до менее часто в тви­тах лиц, совер­шав­ших попыт­ку само­убий­ства, исполь­зу­ет­ся кате­го­рия ASSENT, кото­рая вклю­ча­ет, напри­мер, такие сло­ва, как agree и yes.

Сопо­став­ле­ние тви­тов «суи­ци­даль­ной» груп­пы и поль­зо­ва­те­лей, при­знав­ших­ся в диа­гно­сти­ро­ван­ной депрес­сии, так­же поз­во­ли­ло обна­ру­жить раз­ли­чия меж­ду ними, кото­рые были более ярко выра­же­ны, если для сопо­став­ле­ния бра­лись не все тви­ты суи­ци­даль­ных поль­зо­ва­те­лей за пери­од до попыт­ки само­убий­ства, но толь­ко непо­сред­ствен­но предшествовавшие.

Авто­ры пре­ду­пре­жда­ют, что резуль­та­ты их иссле­до­ва­ния сви­де­тель­ству­ют лишь о том, что в резуль­та­те машин­но­го обу­че­ния мож­но достиг­нуть диф­фе­рен­ци­а­ции меж­ду иссле­ду­е­мы­ми груп­па­ми, пре­вы­ша­ю­щей порог слу­чай­но­сти, одна­ко из-за огра­ни­чен­но­сти выбор­ки и post-hoc харак­те­ра иссле­до­ва­ния их нель­зя рас­смат­ри­вать как пред­ска­за­ние попыт­ки самоубийства. 

Кро­ме того, боль­шую часть выбор­ки соста­ви­ли девуш­ки в воз­расте 15–24 лет, что не поз­во­ля­ет счи­тать ее доста­точ­но репре­зен­та­тив­ной для всей ауди­то­рии Интер­не­та и для груп­пы мак­си­маль­но­го суи­ци­даль­но­го рис­ка в США (белые муж­чи­ны сред­не­го возраста).

Про­бле­ма раз­гра­ни­че­ния дис­кур­са, свя­зан­но­го с пси­хи­че­ски­ми забо­ле­ва­ни­я­ми, и суи­ци­даль­но­го дис­кур­са реша­ет­ся так­же в [7], где машин­ны­ми мето­да­ми моде­ли­ру­ет­ся изме­не­ние рече­во­го пове­де­ния у участ­ни­ков сооб­ществ, посвя­щен­ных пси­хи­че­ско­му здо­ро­вью, в сети Reddit, когда у них появ­ля­ют­ся СУ-наме­ре­ния. Моде­лью достиг­ну­та точ­ность 77,5%.

Выше мы уже затра­ги­ва­ли про­бле­му ком­му­ни­ка­тив­но­го пове­де­ния СУ/СХ-сооб­ществ в соци­аль­ных сетях, в свя­зи с моде­ра­ци­он­ной поли­ти­кой Instagram. Авто­ма­ти­че­ский ана­лиз тек­стов на осно­ве n-грамм поз­во­ля­ет иссле­до­вать пути рас­про­стра­не­ния СУ/СХ-инфор­ма­ции в соци­аль­ных сетях и фор­ми­ро­ва­ние кон­так­тов меж­ду поль­зо­ва­те­ля­ми, инте­ре­су­ю­щи­ми­ся этой темой.

Высо­кую плот­ность вза­им­ных свя­зей поль­зо­ва­те­лей сети Twitter, в сооб­ще­ни­ях кото­рых содер­жат­ся (по оцен­ке экс­пер­тов) суи­ци­даль­ные мыс­ли, и актив­ность рас­про­стра­не­ния подоб­но­го кон­тен­та обна­ру­жи­ло иссле­до­ва­ние G.B.Colomboa и соавт. [5], в кото­ром были про­ана­ли­зи­ро­ва­ны такие сооб­ще­ния за 6 меся­цев, начи­ная с фев­ра­ля 2014 года. 

На осно­ве выбор­ки из 4 543 тви­тов, в кото­рых содер­жат­ся суи­ци­даль­ные мыс­ли, были состав­ле­ны, про­ана­ли­зи­ро­ва­ны и сопо­став­ле­ны с гра­фа­ми по всем поль­зо­ва­те­лям Твит­те­ра гра­фы под­пис­чи­ков, дру­зей и вза­им­ных под­пи­сок для «суи­ци­даль­ных» пользователей.

Дан­ное иссле­до­ва­ние отли­ча­ет­ся от преды­ду­щих тем, что пер­вич­ный мате­ри­ал для опре­де­ле­ния того, какие сооб­ще­ния будут отне­се­ны к суи­ци­даль­ным, авто­ры соби­ра­ли за пре­де­ла­ми Твит­те­ра – на фору­мах, посвя­щен­ных обсуж­де­нию суи­ци­даль­ных наме­ре­ний или содер­жа­щих боль­шое и лег­ко иден­ти­фи­ци­ру­е­мое коли­че­ство подоб­но­го материала. 

Все­го было полу­че­но 2 000 ано­ним­ных сооб­ще­ний, оцен­ка кото­рых как содер­жа­щих или не содер­жа­щих суи­ци­даль­ный кон­тент была (опять же в отли­чие от ранее опи­сан­ных иссле­до­ва­ний) выпол­не­на мето­дом кра­уд­сор­син­га на онлай­но­вой-плат­фор­ме Crowdflower. 

Эти­че­ская сто­ро­на и досто­вер­ность тако­го мето­да анно­ти­ро­ва­ния сооб­ще­ний с потен­ци­аль­но опас­ным содер­жа­ни­ем не явля­ют­ся, с нашей точ­ки зре­ния, без­уко­риз­нен­ны­ми. Даль­ней­шая про­це­ду­ра была стан­дарт­ной: авто­ра­ми был состав­лен спи­сок n-грамм (n от 1 до 5), для кото­рых отно­ше­ние tf-idf по клас­сам суицидальное/нормальное мак­си­маль­но, то есть тех n-грамм, кото­рые луч­ше все­го «детек­ти­ру­ют» суи­ци­даль­ный харак­тер текста. 

Филь­тра­ция это­го спис­ка вруч­ную экс­пер­та­ми поз­во­ли­ла полу­чить спи­сок из 62 клю­че­вых фраз, кото­рый оче­вид­но отли­ча­ет­ся от спис­ков, зада­ва­е­мых апри­ор­но, в первую оче­редь тем, что толь­ко в нем толь­ко по три раза встре­ча­ют­ся kill и suicide/suicidal, пять раз – die, один – death.

Вид­но, что при такой мето­ди­ке не все кодо­вые фра­зы пред­став­ля­ют собой закон­чен­ные сло­во­со­че­та­ния (напри­мер, Wanting to kill yourself and… My death would…).

Так­же спе­ци­фи­ка под­хо­да G.B.Colomboa и соавт. [5] состо­ит в опре­де­ле­нии того, что пони­ма­ет­ся под СУ-кон­тен­том. В отли­чие от ранее рас­смот­рен­ных иссле­до­ва­ний здесь на пер­вом эта­пе было исполь­зо­ва­но рас­ши­ри­тель­ное пони­ма­ние, включающее:

  • сооб­ще­ния, содер­жа­щие сви­де­тель­ство СУ-наме­ре­ний, к кото­рым так­же отно­сят­ся выра­же­ния пол­но­го отча­я­ния, даже если они не сопро­вож­да­ют­ся упо­ми­на­ни­ем суицида;
  • тви­ты, явля­ю­щи­е­ся частью какой-либо кам­па­нии (напри­мер, петиции);
  • инфор­ма­ци­он­ные сооб­ще­ния, сооб­ще­ния, пред­ла­га­ю­щие помощь и поддержку;
  • шут­ли­вое, несе­рьез­ное упо­ми­на­ние самоубийства;
  • тви­ты в память о ком-нибудь, тви­ты, выра­жа­ю­щие соболезнования;
  • ново­сти о чьем-то самоубийстве.

Для клас­си­фи­ка­ции по этим кате­го­ри­ям из собран­но­го мас­си­ва в 4 мил­ли­о­на тви­тов слу­чай­ным обра­зом была ото­бра­на одна тыся­ча, кото­рая была анно­ти­ро­ва­на с исполь­зо­ва­ни­ем той же кра­уд­сор­син­го­вой плат­фор­мы. Затем из 601 тви­та, кото­рый не менее, чем 75% анно­та­то­ров опре­де­ли­ли оди­на­ко­во, был выбран 71 твит, отно­ся­щий­ся к пер­вой категории. 

После добав­ле­ния из базы тви­тов с тек­стом, пол­но­стью дуб­ли­ру­ю­щим исход­ные, обра­зо­вал­ся мас­сив в 4 553 сооб­ще­ния, при­над­ле­жа­щих 3 535 поль­зо­ва­те­лей, у кото­рых в общей слож­но­сти ока­за­лось 2 376 559 под­пис­чи­ков и 1 600 498 дру­зей (под дру­зья­ми здесь пони­ма­ют­ся поль­зо­ва­те­ли, на кото­рых под­пи­сан вла­де­лец аккаунта).

Несмот­ря на при­зна­ние авто­ров, что их дан­ных, по всей види­мо­сти, недо­ста­точ­но для пол­ной объ­ек­тив­но­сти иссле­до­ва­ния, были полу­че­ны доста­точ­но инте­рес­ные результаты. 

Так, было выяс­не­но, что сред­нее коли­че­ство под­пис­чи­ков у поль­зо­ва­те­лей, пуб­ли­ку­ю­щих сооб­ще­ния о суи­ци­даль­ных наме­ре­ни­ях (528 под­пис­чи­ков), более чем в 2 раза боль­ше сред­не­го по Twitter (208). Это озна­ча­ет, что инфор­ма­цию от таких поль­зо­ва­те­лей полу­ча­ет боль­ше людей. 

Так­же сред­ний путь (крат­чай­шее рас­сто­я­ние) от одно­го поль­зо­ва­те­ля до дру­го­го ока­зал­ся зна­чи­тель­но коро­че, чем для всей сети в целом.

Ана­лиз коли­че­ства дру­зей и вза­им­ных под­пи­сок пока­зал, что 20% поль­зо­ва­те­лей, пуб­ли­ку­ю­щих СУ-сооб­ще­ния, под­пи­са­ны друг на дру­га, обра­зуя тем самым сооб­ще­ство, что не под­твер­жда­ет резуль­та­ты пред­ше­ству­ю­щих иссле­до­ва­ний, гово­рив­шие о раз­об­щен­но­сти и изо­ли­ро­ван­но­сти «суи­ци­даль­ных» пользователей. 

Нако­нец, при ана­ли­зе гра­фа рет­ви­тов (в сред­нем каж­дый из 4 543 тви­тов «рет­вит­ну­ли» 75 раз) было обна­ру­же­но, что СУ-кон­тент рас­про­стра­ня­ет­ся не толь­ко меж­ду поль­зо­ва­те­ля­ми, вхо­дя­щи­ми в исход­ную груп­пу пуб­ли­ка­то­ров суи­ци­даль­ных сооб­ще­ний. Рет­ви­ты таких сооб­ще­ний дела­ют поль­зо­ва­те­ли, не при­над­ле­жа­щие к ней и не свя­зан­ные с ней, спо­соб­ствуя таким обра­зом рас­про­стра­не­нию суи­ци­даль­но­го кон­тен­та за пре­де­ла­ми СУ-сообщества.

Как было пока­за­но выше, интер­нет не толь­ко усу­губ­ля­ет про­бле­мы лиц, склон­ных к нане­се­нию себе вре­да, но и созда­ет сре­ду, в кото­рой подоб­ные лица могут полу­чить помощь. Эта помощь может ока­зы­вать­ся как про­фес­си­о­на­ла­ми, так и про­сто чле­на­ми интер­нет-сооб­ще­ства, ком­мен­ти­ру­ю­щи­ми сооб­ще­ния поль­зо­ва­те­ля, нахо­дя­ще­го­ся в «груп­пе рис­ка». В послед­нем слу­чае осо­бую зна­чи­мость при­об­ре­та­ет выяв­ле­ние харак­те­ри­стик полез­но­го, помо­га­ю­ще­го ком­мен­та­рия (helpful comment), отли­ча­ю­ще­го его от бес­по­лез­но­го или вредного.

Попыт­ка реше­ния этой зада­чи была пред­при­ня­та в рабо­те R.Kavuluru и соавт. [10]. Дан­ные соби­ра­лись из сети Reddit и ее Suicide Watch фору­мов. Целью авто­ров было обу­чить модель для авто­ма­ти­че­ско­го опре­де­ле­ния ком­мен­та­ри­ев, полез­ных для предот­вра­ще­ния суи­ци­да, что впо­след­ствии мог­ло бы помочь моде­ра­то­рам в поис­ке таких комментариев.

В соци­аль­ной сети Reddit под­пис­чи­ки могут пуб­ли­ко­вать ссыл­ки или тек­сто­вые сооб­ще­ния, ком­мен­ти­ро­вать их, ста­вить пуб­ли­ка­ци­ям и ком­мен­та­ри­ям оцен­ку «нра­вит­ся» или «не нра­вит­ся». Коли­че­ство оце­нок «нра­вит­ся» под­ни­ма­ет сооб­ще­ние вверх на «дос­ке ново­стей» Reddit, соот­вет­ствен­но его видят боль­ше под­пис­чи­ков и гостей. 

Кро­ме того, эта сеть содер­жит под­раз­де­лы (фору­мы) для обсуж­де­ния кон­крет­ных про­блем, в том чис­ле пси­хо­ло­ги­че­ских Ее под­раз­дел (subreddit) Suicide Watch насчи­ты­ва­ет 40 000 под­пис­чи­ков. В ней рабо­та­ют 13 моде­ра­то­ров, уда­ля­ю­щих ком­мен­та­рии, выхо­дя­щие за пре­де­лы правил. 

Одна­ко поня­тия «помо­га­ю­щий» (с точ­ки зре­ния помо­щи потен­ци­аль­ным само­убий­цам) ком­мен­та­рий и мето­ди­ки опре­де­ле­ния таких ком­мен­та­ри­ев не суще­ству­ет, что дела­ет свое­вре­мен­ную моде­ра­цию настоль­ко объ­ем­но­го мате­ри­а­ла затруд­ни­тель­ной (важ­ность быст­рой моде­ра­ции для сооб­ще­ства, где обща­ют­ся потен­ци­аль­ные само­убий­цы, очевидна).

В каче­стве мате­ри­а­ла были исполь­зо­ва­ны 3 000 ком­мен­та­ри­ев, слу­чай­ным обра­зом выбран­ных из исход­но­го мас­си­ва в 11 730 сооб­ще­ний и 36 563 отно­ся­щих­ся к ним ком­мен­та­ри­ев, опуб­ли­ко­ван­ных на Suicide Watch за два года (апрель 2013–апрель 2015). Эти три тыся­чи ком­мен­та­ри­ев были пред­ва­ри­тель­но раз­ме­че­ны сту­ден­та­ми, спе­ци­а­ли­зи­ру­ю­щи­ми­ся по мето­дам предот­вра­ще­ния самоубийств. 

Ком­мен­та­рии оце­ни­ва­лись как «не помо­га­ю­щие», «помо­га­ю­щие в общем» или «помо­га­ю­щие в кон­крет­ном слу­чае» по отно­ше­нию к сооб­ще­нию, к кото­ро­му они были сде­ла­ны10

Кри­те­рии, по кото­рым опре­де­ля­лась при­над­леж­ность ком­мен­та­рия к тому или ино­му клас­су, были раз­ра­бо­та­ны авто­ра­ми иссле­до­ва­ния и состо­я­ли в следующем.

«Помо­га­ю­щие в общем» ком­мен­та­рии наце­ле­ны на то, что­бы помочь авто­ру исход­но­го сооб­ще­ния и потен­ци­аль­но предот­вра­тить СУ/СХ. Сюда вклю­ча­ют­ся ком­мен­та­рии, содер­жа­щие инфор­ма­цию о горя­чих лини­ях, сове­ты обра­тить­ся за помо­щью к вра­чу, чле­нам семьи и т.п., выра­же­ние пони­ма­ния ситу­а­ции (обя­за­тель­но с выра­же­ни­ем надеж­ды, что она улучшится). 

В слу­чае если в исход­ном сооб­ще­нии не содер­жит­ся ника­кой кон­крет­ной инфор­ма­ции, кро­ме наме­ре­ния покон­чить с собой, в каче­стве «полез­ных в общем» ком­мен­та­ри­ев рас­смат­ри­ва­ют­ся вопро­сы, помо­га­ю­щие уточ­нить ситуацию.

«Помо­га­ю­щие в кон­крет­ном слу­чае» ком­мен­та­рии соот­вет­ству­ют тем же кри­те­ри­ям, что «полез­ные в общем», но направ­ле­ны на кон­крет­ные про­бле­мы, упо­мя­ну­тые в исход­ном сооб­ще­нии. Сюда могут отно­сить­ся сове­ты позво­нить 911 или чле­нам семьи, если исход­ное сооб­ще­ние содер­жит тре­бу­ю­щие это­го дета­ли, напри­мер, ука­за­ние на то, что уже исполь­зо­ван какой-то препарат.

«Не помо­га­ю­щие» ком­мен­та­рии – это ком­мен­та­рии, выра­жа­ю­щие осуж­де­ние, крат­кие и поверх­ност­ные сооб­ще­ния о том, что это­го не сто­ит делать, сте­рео­тип­ные отве­ты типа «Брось ты это» или «Со все­ми быва­ет» и т.п.

Так­же в эту груп­пу отно­сят­ся ком­мен­та­рии, в кото­рых ком­мен­та­тор, вме­сто того что­бы поста­вить сво­ей целью предот­вра­ще­ние само­убий­ства, обсуж­да­ет тему, затро­ну­тую в сооб­ще­нии, защи­щая иную точ­ку зре­ния, чем автор, т.е. всту­па­ет с ним в дискуссию.

Для постро­е­ния моде­ли раз­ра­бот­чи­ки исполь­зо­ва­ли сле­ду­ю­щие при­зна­ки комментариев.

  • Уни­грам­мы и биграм­мы из ком­мен­та­ри­ев и сооб­ще­ния, к кото­ро­му они относились.
  • Пси­хо­мет­ри­че­ские пока­за­те­ли ком­мен­та­ри­ев и сообщения.
  • Гра­фы RST11 (а точ­нее, их попу­ляр­ные под­гра­фы) так­же для ком­мен­та­ри­ев и само­го сообщения.

Вто­рой набор при­зна­ков соби­рал­ся с помо­щью про­грам­мы LIWC. Тре­тий – с помо­щью про­грам­мы на язы­ке Scala.

В каче­стве моде­ли авто­ры исполь­зо­ва­ли метод опор­ных век­то­ров (SVM). При­зна­ка­ми моде­ли ста­ли ука­зан­ные выше при­зна­ки и их ком­би­на­ции. Ито­го­вые резуль­та­ты доволь­но хоро­ши и пока­зы­ва­ют очень высо­кие зна­че­ния пол­но­ты (99,92%) и доста­точ­но хоро­шие зна­че­ния точ­но­сти (~82%). Так­же авто­ры про­те­сти­ро­ва­ли моде­ли, исполь­зу­ю­щие ансам­бли реше­ний12 (на них мак­си­мум точ­но­сти – 84,3%).

В то же вре­мя иссле­до­ва­ние, как и боль­шин­ство опи­сан­ных выше, выяви­ло про­бле­му на эта­пе рабо­ты экс­пер­тов: чем боль­ше людей одно­вре­мен­но оце­ни­ва­ет текст, тем боль­ший раз­брос в резуль­та­тах полу­ча­ет­ся. Это оче­вид­но даже для трех экс­пер­тов: 70% сов­па­де­ний у двух экс­пер­тов, 50% – у трех.

Про­бле­мы раз­ра­бот­ки подоб­ных моде­лей для рус­ско­го язы­ка. Узким местом всех иссле­до­ва­ний, каса­ю­щих­ся обу­че­ния моде­лей для ана­ли­за есте­ствен­но­го язы­ка, явля­ют­ся, в первую оче­редь, сбор и анно­ти­ро­ва­ние кор­пу­са тек­стов для обу­че­ния. Вви­ду раз­но­об­ра­зия сло­ва­ря и грам­ма­ти­че­ских форм рус­ско­го язы­ка коли­че­ство дан­ных для дости­же­ния кон­ку­рент­ных резуль­та­тов необ­хо­ди­мо зна­чи­тель­но уве­ли­чить по срав­не­нию с ана­ло­гич­ны­ми иссле­до­ва­ни­я­ми для англий­ско­го языка.

Сле­ду­ю­щая про­бле­ма не явля­ет­ся спе­ци­фич­ной для рус­ско­го язы­ка, одна­ко не реше­на до насто­я­ще­го вре­ме­ни. В рас­смот­рен­ных выше иссле­до­ва­ни­ях, как пра­ви­ло, исполь­зо­ва­лось сов­ме­ще­ние руч­но­го и авто­ма­ти­че­ско­го под­хо­да на раз­ных ста­ди­ях отбо­ра, анно­ти­ро­ва­ния и раз­мет­ки текстов. 

Таким обра­зом, заяв­лен­ная при раз­мет­ке сте­пень опас­но­сти кон­тен­та во мно­гом зави­сит от субъ­ек­тив­но­го мне­ния экс­пер­та, про­во­дя­ще­го анно­ти­ро­ва­ние дан­ных. Откры­тым так­же оста­ет­ся вопрос, явля­ют­ся ли язы­ко­вые мар­ке­ры СУ-кон­тен­та уни­вер­саль­ны­ми для всех интер­нет-ресур­сов или же тре­бу­ет­ся выде­ле­ние уни­каль­ных мар­ке­ров для каж­до­го ресурса.

Акту­аль­ные про­бле­мы пред­став­ля­ют так­же поиск и систе­ма­ти­за­ция ресур­сов – источ­ни­ков СУи СХ-кон­тен­та в рус­ско­языч­ном сег­мен­те интер­не­та. Это, в первую оче­редь, тема­ти­че­ские фору­мы и сай­ты, одна­ко кри­тич­ным так­же явля­ет­ся выяв­ле­ние тема­ти­че­ских сооб­ществ в круп­ней­ших рус­ско­языч­ных соци­аль­ных сетях, так как в этом слу­чае суще­ству­ет риск рас­про­стра­не­ния опас­но­го кон­тен­та сре­ди рядо­вых поль­зо­ва­те­лей. Иссле­до­ва­ния в этом направ­ле­нии уже нача­ты [1].

Суще­ству­ет еще одна про­бле­ма, харак­тер­ная для всех рус­ско­языч­ных иссле­до­ва­ний по ана­ли­зу есте­ствен­но­го язы­ка. Одной из ста­дий обу­че­ния моде­ли явля­ет­ся пред­став­ле­ние тек­сто­вых дан­ных в чис­лен­ной фор­ме, поз­во­ля­ю­щей про­во­дить даль­ней­шую ком­пью­тер­ную обработку. 

Этот про­цесс осу­ществ­ля­ет­ся с помо­щью так назы­ва­е­мых язы­ко­вых моде­лей, пред­ва­ри­тель­но обу­чен­ных на кор­пу­сах тек­стов для вос­со­зда­ния пра­вил языка. 

Язы­ко­вые моде­ли посто­ян­но улуч­ша­ют­ся, одна­ко раз­ви­тие рус­ско­языч­ных моде­лей идет с отста­ва­ни­ем от англо­языч­ных, что услож­ня­ет созда­ние кон­ку­рен­то­спо­соб­ных решений.

ЛИТЕРАТУРА

  1. Бряб­ри­на Т.В., Гиберт А.И., Штра­хо­ва А.В. Опыт кон­тент-ана­ли­за суи­ци­даль­ных выска­зы­ва­ний в сети интер­нет лиц с раз­лич­ным уров­нем суи­ци­даль­ной актив­но­сти // Вест­ник ЮУр­ГУ. Серия «Пси­хо­ло­гия». 2016. Т. 9, № 3. С. 35–49.
  2. Birjali M., Beni-Hssane A., Erritali M. Prediction of suicidal ideation in Twitter Data using machine learning algorithms // International Arab Conference on Information Technology. 2016.
  3. Brown R.C. #cutting: Non-suicidal self-injury (NSSI) on Instagram // Psychological Medicine. 2017. P. 1– 10.
  4. Chancellor S., Pater J., Clear T., Gilbert E., De Choudhury M. #thygapp: Instagram content moderation and lexical variation in Pro-Eating Disorder Communities // Proceedings of the ACM Conference on Computer Supported Cooperative Work (CSCW) ACM. 2016.
  5. Colomboa G.B., Burnapa P., Hodoroga A., Scourfieldb J. Analysing the connectivity and communication of suicidal users on twitter // Computer Communications. 2016. Vol. 73. P. 291–300.
  6. Coppersmith G., Leary R., Whyne E., Wood T. Quantifying suicidal ideation via language usage on social media // Joint Statistics Meetings Proceedings. Statistical Computing Section. JSM. 2015.
  7. De Choudhury M., Kiciman E., Dredze M., Coppersmith G., Kumar M. Discovering shifts to suicidal ideation from mental health content in social media. // Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. ACM. 2016. P. 2098–2110.
  8. Fischer T., Goldwich A.D., Haentzschel O. Instagram leaks // Neon 5. 2015. P. 16–21.
  9. Huang X., Li X., Liu T., Chiu D., Zhu T., Zhang L. Topic model for identifying suicidal ideation in chinese microblog // Proceedings of the 29th Pacific Asia Conference on Language, Information and Computation. 2015. P. 553–562.
  10. Kavuluru R., Williams A.G., Ramos-Morales M., Haye L., Holaday T., Cerel J. Classification of helpful comments on online Suicide Watch Forums // ACM BCB. 2016. P. 32–40.
  11. O’Dea B., Wan S., Batterham P.J., Calear A.L., Paris C., Christensen H. Detecting suicidality on Twitter // Internet Interventions. 2015. P. 183–188.
  12. Pennebaker J.W., Chung C. K., Ireland M., Gonzales A., Booth R.J. The development and psychometric properties of LIWC // LIWC.net, Austin, Texas. 2017.
Источ­ник: «Соци­аль­ная и кли­ни­че­ская пси­хи­ат­рия». 2018. Т. 18, No 4.

Об авторах

  • Мари­на Юрьев­на Сидо­ро­ва – док­тор фило­ло­ги­че­ских наук, доцент, про­фес­сор кафед­ры рус­ско­го язы­ка фило­ло­ги­че­ско­го факуль­те­та Мос­ков­ско­го госу­дар­ствен­но­го уни­вер­си­те­та им. М.В.Ломоносова.
  • Диа­на Ген­на­дьев­на Маце­пу­ро маги­странт­ка исто­ри­че­ско­го факуль­те­та Мос­ков­ско­го госу­дар­ствен­но­го уни­вер­си­те­та им.
  • М.В.Ломоносова.
  • Абдул­ла Зиядул­ла­е­вич Гай­бул­ла­ев Windows-раз­ра­бот­чик, Кон­суль­тант Плюс.

Смот­ри­те также:

ПРИМЕЧАНИЕ

  1. СУ – само­убий­ство; СХ – сел­фхарм (само­по­вре­жде­ние).
  2. Такие тви­ты долж­ны были содер­жать суи­ци­даль­ное наме­ре­ние, выра­жен­ное в фор­ме утвер­жде­ния, кон­крет­ный план само­убий­ства, сооб­ще­ния об имев­ших место попыт­ках и т.п.
  3. tf-idf–TermFrequency-InverseDocumentFrequency, гибрид­ная мет­ри­ка, учи­ты­ва­ю­щая зна­чи­мость сло­ва и оцен­ку его при­над­леж­но­сти классу.
  4. SVM – метод опор­ных век­то­ров, один из мето­дов машин­но­го обу­че­ния, кото­рый поз­во­ля­ет клас­си­фи­ци­ро­вать объ­ек­ты на несколь­ко клас­сов. Идея заклю­ча­ет­ся в том, что в про­стран­стве при­зна­ков стро­ит­ся гипер- плос­кость (кри­вая поверх­ность), кото­рая раз­де­ля­ет эле­мен­ты на 2 клас­са. Для боль­ше­го коли­че­ства клас­сов, стро­ит­ся боль­ше гиперплоскостей.
  5. Точ­ность – коли­че­ство сооб­ще­ний, пра­виль­но рас­по­знан­ных как суи- цидаль­ные, делен­ное на общее коли­че­ство сооб­ще­ний, рас­по­знан­ных как суицидальное.
  6. Пол­но­та – коли­че­ство сооб­ще­ний, пра­виль­но рас­по­знан­ных как суи- цидаль­ные, делен­ное на общее коли­че­ство суи­ци­даль­ных сообщений.
  7. F-мера – 2 Precision Recall / Precision + Recall
  8. LIWC–Linguistic Inquiry Word Count, инстру­мент для оцен­ки пси­хо­мет­ри­че­ских пока­за­те­лей слов по задан­ным кате­го­ри­ям (злость, грусть, смерть, дру­зья, клят­ва и т. д.). Напри­мер, сло­ва alive, dead, kill, mourn, suicide попа­да­ют в кате­го­рию DEATH.
  9. n-грам­ма – цепоч­ка из n-слов или n-букв (сим­во­лов) из тек­ста. Исполь- зует­ся для рас­ши­ре­ния мето­да клю­че­вых слов, в кото­ром текст ана­ли- зиру­ет­ся по нали­чию клю­че­вых слов (если есть сло­во x, то зна­чит сооб­ще­ние про суи­цид). N-грам­мы поз­во­ля­ют исполь­зо­вать не толь­ко сло­ва, но и пары, трой­ки слов или сим­во­лов и т. д. В иссле­до­ва­ни­ях Коп­пер­смит с кол­ле­га­ми исполь­зу­ют­ся бук­вен­ные n-грам­мы, вклю- чаю­щие до 5 сим­во­лов. Напри­мер, если начать делить на n-грам­мы пред­ло­же­ние «For illustration, in this sentence we would observe…», в нем обна­ру­жат­ся n-грам­мы “for i”, “or il”, “r ill”, “ illu”, “illus” и т.п. [6].
  10. Обыч­но при изло­же­нии англо­языч­ных иссле­до­ва­ний мы пере­да­ем англий­ское helpful с помо­щью при­ла­га­тель­но­го полез­ный. Если в дру­гих слу­ча­ях раз­ли­чие в зна­че­нии этих при­ла­га­тель­ных (рус­ское про­ис­хо­дит от сло­ва поль­за, англий­ское – от сло­ва помощь) неваж­но, то здесь оно акту­аль­но, поэто­му исполь­зу­ет­ся при­ча­стие помогающий.
  11. RST вклю­ча­ет набор при­зна­ков, опре­де­ля­ю­щих связ­ность и дис­кур- сив­ную орга­ни­за­цию тек­ста. В иссле­до­ва­нии было исполь­зо­ва­но 18 таких при­зна­ков: атри­бу­тив­ность, фон, при­чи­на, срав­не­ние, усло­вие, кон­траст и т.п.
  12. Ансамбль реше­ний – метод, исполь­зу­ю­щий несколь­ко раз­лич­ных алго­рит­мов одно­вре­мен­но. Напри­мер, это может быть голо­со­ва­ние: каж­дый алго­ритм голо­су­ет за один из клас­сов, побеж­да­ет большинство.

Категории

Метки

Публикации

ОБЩЕНИЕ

CYBERPSY — первое место, куда вы отправляетесь за информацией о киберпсихологии. Подписывайтесь и читайте нас в социальных сетях.

vkpinterest