Дружилов С.А. Негативные воздействия современной информационной среды на человека: психологические аспекты

Д

На заре воз­ник­но­ве­ния Интер­не­та иссле­до­ва­те­ли отме­ча­ли, что внед­ре­ние инфор­ма­ци­он­ных тех­но­ло­гий созда­ет не толь­ко новые воз­мож­но­сти, но и новые про­бле­мы и угро­зы [Урсул, 1990]. 

Обра­ща­лось вни­ма­ние на опас­ные пси­хо­ло­ги­че­ские эффек­ты инфор­ма­ци­он­ных воз­дей­ствий, кото­рые могут про­яв­лять­ся на раз­лич­ных уровнях: 

  1. на инди­вид­ном – изме­не­ния пси­хи­че­ско­го и физио­ло­ги­че­ско­го состо­я­ния людей, выра­жа­ю­щи­е­ся в воз­рас­та­нии пси­хи­че­ской напря­жен­но­сти, тре­вож­но­сти, и др.; 
  2. на лич­ност­ном – сни­же­ние у людей спо­соб­но­сти к само­опре­де­ле­нию, само­ре­а­ли­за­ции, при­ня­тию жиз­нен­но важ­ных реше­ний; воз­ник­но­ве­ние акцен­ту­а­ций харак­те­ра, дефор­ма­ции моти­ва­ци­он­ной направленности; 
  3. на уровне субъ­ек­та – ошиб­ки вос­при­я­тия инфор­ма­ции, нару­ша­ю­щие выпол­не­ние соци­аль­ных функ­ций и при­во­дя­щие к фор­ми­ро­ва­нию уста­но­вок на недо­ве­рие к источ­ни­кам информации;
  4. на уровне обще­ства – уве­ли­че­нии часто­ты рис­ко­ван­ных соци­аль­но-пси­хо­ло­ги­че­ских ситу­а­ций [Смо­лян и др., 1997].

В усло­ви­ях новой инфор­ма­ци­он­ной реаль­но­сти про­ис­хо­дит уточ­не­ние про­гно­зи­ру­е­мых ранее нега­тив­ных эффек­тов, выяв­ля­ют­ся новые про­бле­мы. Зна­чи­мой ста­ла про­бле­ма мани­пу­ля­ции созна­ни­ем в кибер­про­стран­стве, свя­зан­ная с иска­же­ни­ем и филь­тра­ци­ей инфор­ма­ции в поис­ко­вых систе­мах и соци­аль­ных сетях, а так­же про­бле­ма загряз­не­ния инфор­ма­ци­он­ной среды.

Введение. Информационная среда и информационные воздействия

Под инфор­ма­ци­он­ной сре­дой обще­ства пони­ма­ет­ся сфе­ра жиз­ни людей, свя­зан­ная с созда­ни­ем, пре­об­ра­зо­ва­ни­ем и потреб­ле­ни­ем инфор­ма­ции. Инфор­ма­ци­он­ная сре­да харак­те­ри­зу­ет­ся сово­куп­но­стью фак­то­ров, кото­рые могут ока­зы­вать на чело­ве­ка пря­мое или кос­вен­ное, немед­лен­ное или отда­лен­ное воздействие.

Инфор­ма­ци­он­ное воз­дей­ствие име­ет пси­хо­ло­ги­че­ский харак­тер, вли­я­ет на пове­де­ние чело­ве­ка через пси­хи­ку и дости­га­ет эффек­та, изме­няя «пси­хо­ло­ги­че­ские свой­ства, состо­я­ния и моде­ли пове­де­ния лич­но­сти» [Ежев­ская, 2009, с. 38]. 

Иссле­до­ва­те­ли обос­но­вы­ва­ют необ­хо­ди­мость вве­де­ния науч­ной дис­ци­пли­ны «инфор­ма­ци­он­ная эко­ло­гия», зани­ма­ю­щей­ся про­бле­ма­ми защи­ты чело­ве­ка от избы­точ­ной и лож­ной инфор­ма­ции, засо­ря­ю­щей инфор­ма­ци­он­ную сре­ду [Юрьев, 1997; Eryomin, 1998; Ере­мин, 2000 и др.].

В 2017 г. груп­па китай­ских уче­ных (Wang X., Guo Y., Yang M. и др.) опуб­ли­ко­ва­ла обзор ста­тей по инфор­ма­ци­он­ной эко­ло­гии, вклю­чен­ных в базы цити­ро­ва­ния за 1992–2013 гг. Пока­за­но, что иссле­до­ва­ния в основ­ном фоку­си­ро­ва­лись на про­бле­ма­ти­ке инфор­ма­ци­он­ных эко­си­стем и элек­трон­ной тор­гов­ле в сети Интер­нет. Авто­ры при­хо­дят к выво­ду о необ­хо­ди­мо­сти про­ве­де­ния иссле­до­ва­ний для изу­че­ния инфор­ма­ци­он­но-эко­ло­ги­че­ских про­блем, обу­слов­лен­ных раз­ви­ти­ем новых тех­но­ло­гий [Wang и др., 2017].

Оте­че­ствен­ные иссле­до­ва­те­ли пишут, что «тре­во­гу вызы­ва­ет не про­гресс инфор­ма­ци­он­ных тех­но­ло­гий сам по себе, а уже сло­жив­ша­я­ся прак­ти­ка их исполь­зо­ва­ния» [Гапа­но­вич, Лев­чен­ко, 2017, с. 7]. Отме­ча­ет­ся, что рез­кое уве­ли­че­ние инфор­ма­ци­он­ных пото­ков, транс­ли­ру­е­мых посред­ством мно­го­чис­лен­ных мобиль­ных устройств, «не при­ве­ло ни к повы­ше­нию общей обра­зо­ван­но­сти, ни к улуч­ше­нию здо­ро­вья, осо­бен­но в плане его нерв­но-пси­хи­че­ских аспек­тов» [Там же. С. 8].

А.И. Юрьев отме­ча­ет, что в инфор­ма­ци­он­ной сре­де обще­ства в инте­гри­ро­ван­ном виде и раз­но­об­раз­ных соче­та­ни­ях, одно­вре­мен­но при­сут­ству­ет инфор­ма­ция, адек­ват­но отра­жа­ю­щая мир, а так­же иска­жен­ная инфор­ма­ция [Юрьев, 1997]. В.А. Шап­цев рас­кры­ва­ет пони­ма­ние «чрез­мер­ной» инфор­ма­ции как сово­куп­но­сти «нуж­ной-ненуж­ной, полез­ной-вред­ной, свое­вре­мен­ной-несвое­вре­мен­ной» инфор­ма­ции [Шап­цев, 1999, c. 125].

Г.В. Гра­чев и И.К. Мель­ник, рас­смат­ри­вая спо­со­бы инфор­ма­ци­он­но-пси­хо­ло­ги­че­ско­го воз­дей­ствия на чело­ве­ка с целью изме­не­ния его пове­де­ния, исхо­дят из того, что осно­вой для тако­го воз­дей­ствия явля­ет­ся целе­на­прав­лен­ная транс­фор­ма­ция и изме­не­ние инфор­ма­ции [Гра­чев, Мель­ник, 2000]. 

Это согла­су­ет­ся с мне­ни­ем В.Д. Ано­со­ва и В.Е. Леп­ско­го, соглас­но кото­ро­му нега­тив­ные инфор­ма­ци­он­но-пси­хо­ло­ги­че­ские воз­дей­ствия – это «мани­пу­ля­тив­ные воз­дей­ствия на лич­ность, на ее пред­став­ле­ния и эмо­ци­о­наль­но-воле­вую сфе­ру» [Ано­сов, Леп­ский, 1996, с. 7]. 

Т.И. Ежев­ская под нега­тив­ным инфор­ма­ци­он­но-пси­хо­ло­ги­че­ским воз­дей­стви­ем пони­ма­ет «воз­дей­ствия инфор­ма­ции на пси­хи­ку и созна­ние чело­ве­ка, веду­щие к неадек­ват­но­му отра­же­нию окру­жа­ю­щей дей­стви­тель­но­сти и, как след­ствие, изме­не­нию пове­де­ния» [Ежев­ская, 2009, с. 38]. 

Ана­ло­гич­ную точ­ку зре­ния име­ют В.А. Еме­лин, Е.И. Рас­ска­зо­ва и А.Ш. Тхо­стов, отме­ча­ю­щие, что нега­тив­ное вли­я­ние на пси­хи­ку и созна­ние чело­ве­ка инфор­ма­ции «при­во­дит к нару­ше­нию вос­при­я­тия окру­жа­ю­щей дей­стви­тель­но­сти и, как след­ствие, дефор­ма­ции лич­но­сти» [Еме­лин и др., 2012, с. 82].

Целью ста­тьи явля­ет­ся ана­лиз пред­став­ле­ний о мани­пу­ля­тив­ных инфор­ма­ци­он­но-пси­хо­ло­ги­че­ских воз­дей­стви­ях, а так­же воз­мож­но­стей реа­ли­за­ции этих воз­дей­ствий в вир­ту­аль­ных соци­аль­ных сетях (соц­се­тях) в Интернете.

Манипуляция сознанием в информационном пространстве

Совре­мен­ная инфор­ма­ци­он­ная сре­да обла­да­ет зна­чи­тель­ным потен­ци­а­лом воз­дей­ствия на пси­хи­ку. Одной из форм нега­тив­но­го инфор­ма­ци­он­но­го воз­дей­ствия на чело­ве­ка явля­ют­ся мани­пу­ля­ции. Под мише­нью мани­пу­ля­тив­но­го воз­дей­ствия пони­ма­ют «те пси­хи­че­ские струк­ту­ры, изме­не­ние кото­рых обес­пе­чи­ва­ет дости­же­ние желан­ной мани­пу­ля­то­ром цели» [Доцен­ко, 1997, с. 157]. 

Тако­вы­ми струк­ту­ра­ми-мише­ня­ми явля­ет­ся созна­ние чело­ве­ка, его кар­ти­на мирамиро­воз­зре­ние, систе­ма отно­ше­ний к дей­стви­тель­но­сти. Резуль­та­том воз­дей­ствий явля­ют­ся зна­чи­мые изме­не­ния в пси­хи­че­ских харак­те­ри­сти­ках и в состо­я­ни­ях адре­са­та.

Спо­со­ба­ми дости­же­ния резуль­та­тов раз­лич­ны: иска­же­ние инфор­ма­ции; дез­ин­фор­ма­ция; филь­тра­ция инфор­ма­ции; пер­со­ни­фи­ка­ция инфор­ма­ци­он­но­го воз­дей­ствия и др. Ресур­са­ми воз­дей­ствия явля­ют­ся вер­баль­ные и образ­ные сред­ства, а так­же соци­аль­ные сети в Интернете.

Искаженная информация и фальшивые новости

В. Пеле­вин в романе «Generation «П»» (1990 г.) писал, что «в наше вре­мя люди узна­ют о том, что они дума­ют, по теле­ви­зо­ру». Но теле­ви­де­ние – это лишь одна из состав­ля­ю­щих масс-медиа. За про­шед­шие деся­ти­ле­тия полу­чи­ли рас­про­стра­не­ние дру­гие раз­но­вид­но­сти средств мас­со­вой ком­му­ни­ка­ции – интер­нет-изда­ния, новост­ные онлайн-лен­ты, и др. 

Ныне мно­го людей, кото­рые «узна­ют, о чем они дума­ют» не столь­ко из тра­ди­ци­он­ных СМИ, сколь­ко из бло­гов; их миро­вос­при­я­тие, миро­ощу­ще­ние и миро­по­ни­ма­ние фор­ми­ру­ет­ся под воз­дей­стви­ем Интернета.

Созна­ние людей может дефор­ми­ро­вать­ся инфор­ма­ци­он­ны­ми тех­но­ло­ги­я­ми. Если на чело­ве­ка обру­ши­ва­ет­ся мно­же­ство про­ти­во­ре­чи­вых мне­ний, то у него воз­ни­ка­ют слож­но­сти с выбо­ром из них «пра­виль­ных», соот­но­ся­щих­ся с мораль­но-нрав­ствен­ны­ми нор­ма­ми обще­ства и цен­ност­ны­ми ори­ен­та­ци­я­ми самой лич­но­сти.

В этом слу­чае объ­ек­том воз­дей­ствия ста­но­вит­ся кар­ти­на мира чело­ве­ка. Как след­ствие – у чело­ве­ка воз­ни­ка­ет экзи­стен­ци­аль­ный кри­зис, раз­ви­ва­ют­ся пси­хи­че­ские рас­строй­ства, нару­ше­ние адап­та­ции [Юрьев, 1992].

А.И. Юрьев исхо­дит из пони­ма­ния того, что основ­ные ком­по­нен­ты созна­ния (целе­по­ла­га­ние, целе­устрем­лен­ность, целе­со­об­раз­ность пове­де­ния) в сво­ей осно­ве име­ют инфор­ма­цию. Эта инфор­ма­ция может стать сред­ством как пря­мо­го, так и кос­вен­но­го воз­дей­ствия на поль­зо­ва­те­ля инфор­ма­ци­он­ных тех­но­ло­гий, кото­рый в этом слу­чае пред­ста­ет в каче­стве объ­ек­та вли­я­ния.

Изме­не­ние созна­ния в усло­ви­ях гло­ба­ли­за­ции харак­те­ри­зу­ет­ся тем, что «вос­при­я­тие невоз­мож­но­го <ста­но­вит­ся> воз­мож­ным, неве­ро­ят­но­го – веро­ят­ным, недо­пу­сти­мо­го – допу­сти­мым, нере­аль­но­го – реаль­ным. Гло­ба­ли­за­ция про­из­во­дит целую систе­му изме­не­ний во внут­рен­нем мире чело­ве­ка. Она изме­ня­ет Кар­ти­ну Мира чело­ве­ка, его Миро­воз­зре­ние, его Жиз­нен­ную пози­цию и его Образ жиз­ни. Это озна­ча­ет, что она изме­ня­ет само­го чело­ве­ка – его созна­ние» [Юрьев, 2004, с. 70].

Кар­ти­на мирамиро­воз­зре­ниежиз­нен­ная пози­цияобраз жиз­ни явля­ют­ся неко­то­ры­ми кон­стан­та­ми пси­хо­ло­ги­че­ской систе­мы защи­ты чело­ве­ка. Раз­ру­ше­ние или изме­не­ние их посред­ством любых тех­но­ло­гий чре­ва­то для чело­ве­ка нега­тив­ны­ми послед­стви­я­ми.

А.И. Юрьев опи­сы­ва­ет меха­низ­мы иска­же­ния инфор­ма­ции рай­то­кра­та­миРай­то­кра­тию сло­ва­ри опре­де­ля­ют как власть «пишу­щих» над «чита­ю­щи­ми». «Пишу­щие» – все те, кто про­из­во­дит инфор­ма­цию в любых фор­мах: вер­баль­ной (тек­сто­вой), образ­ной (визу­аль­ной, ауди­аль­ной), про­грамм­ной (для ком­пью­те­ров и гад­же­тов) и пр. 

Иссле­до­ва­тель счи­та­ет, что лишь малая часть зна­ний, детер­ми­ни­ру­ю­щих поли­ти­че­ское пове­де­ние чело­ве­ка, появ­ля­ет­ся у него из лич­но­го опы­та; боль­шин­ство же све­де­ний было преж­де напи­са­но и опуб­ли­ко­ва­но кем-то из райтократов. 

По мне­нию А.И.Юрьева, рай­то­кра­ты обес­пе­чи­ва­ют не толь­ко транс­ля­цию инфор­ма­ции, но и явля­ют­ся «орга­на­ми» вос­при­я­тия и сохра­не­ния памя­ти обще­ства. При запо­ми­на­нии и вос­про­из­ве­де­нии инфор­ма­ции о собы­ти­ях в обще­стве воз­мож­но воз­ник­но­ве­ние непро­из­воль­ных или про­из­воль­ных ошибок. 

К тако­вым отне­се­ны сле­ду­ю­щие виды иска­же­ния информации: 

  1. амне­зия – неко­то­рые собы­тия исче­за­ют из тек­стов, про­пус­ка­ют­ся или забываются; 
  2. инвер­сия – нару­ша­ет­ся поря­док сле­до­ва­ния событий; 
  3. пер­се­ве­ра­ция – неко­то­рые собы­тия повто­ря­ют­ся, чего не было в действительности; 
  4. кон­та­ми­на­ция – сме­ши­ва­ют­ся собы­тия, про­ис­шед­шие в дру­гое вре­мя, в дру­гих местах и с дру­ги­ми людьми; 
  5. реми­нис­цен­ция – в после­до­ва­тель­ность собы­тий, дей­стви­тель­но про­ис­шед­ших, впле­та­ют­ся посто­рон­ние события; 
  6. кон­фа­бу­ля­ция – пере­чис­ля­ют­ся собы­тия, нико­гда не про­ис­хо­див­шие, вме­сто дей­стви­тель­но имев­ших место; при этом инфор­ма­ция грам­ма­ти­че­ски, сти­ли­сти­че­ски и логи­че­ски выгля­дит вполне прав­до­по­доб­ной [Юрьев, 1992].

Тер­ми­ном «фаль­ши­вая новость» (fake news) изна­чаль­но обо­зна­ча­лась новость, кото­рая состав­ле­на и сфаб­ри­ко­ва­на для обма­на чита­те­ля с целью уве­ли­че­ния тра­фи­ка и при­бы­ли. Внешне такая новость про­из­во­дит впе­чат­ле­ние досто­вер­ной инфор­ма­ции, исхо­дя­щей от заслу­жи­ва­ю­щей дове­рия источ­ни­ка (мимик­ри­ру­ет под тако­вую), явля­ясь при этом умыш­лен­ным сред­ством мани­пу­ли­ро­ва­ния созна­ни­ем.

К. Уордл (C.Wardle ) в ста­тье «Фаль­ши­вые ново­сти? Это слож­но», опуб­ли­ко­ван­ной в 2017 г. на сай­те непра­ви­тель­ствен­ной орга­ни­за­ци­ей FirstDraft при Гар­вард­ском уни­вер­си­те­те, обра­ща­ет вни­ма­ние на то, что рас­смат­ри­ва­е­мое поня­тие (fake news) опи­сы­ва­ет мно­же­ство явле­ний ком­му­ни­ка­ции, а не толь­ко «фаль­ши­вые новости». 

Поэто­му целе­со­об­раз­но не огра­ни­чи­вать­ся ана­ли­зом отдель­ных фак­тов иска­же­ний инфор­ма­ции в ново­стях, а рас­смат­ри­вать их с пози­ций инфор­ма­ци­он­ной эко­си­сте­мы.

К. Уордл выде­ля­ет семь типов иска­жен­ной инфор­ма­ции:

  1. сати­ра и паро­дия – нет умыс­ла нане­сти вред, но может вве­сти в заблуж­де­ние;
  2. кон­тент, заве­до­мо вво­дя­щий в заблуж­де­ние – исполь­зу­ет­ся лож­ная инфор­ма­ция в попыт­ке пред­ста­вить какое-то собы­тие или пер­со­ну в пло­хом све­те (тер­ми­ном «кон­тент» здесь и далее обо­зна­ча­ет­ся содер­жи­мое сооб­ще­ния или интер­нет-ресур­са, вклю­чая любое его инфор­ма­ци­он­ное напол­не­ние – текст, гра­фи­ку, звук, видео­изоб­ра­же­ние и др.);
  3. кон­тент из «само­зван­ных источ­ни­ков» инфор­ма­ции, кото­рые выда­ют себя за какие-то другие;
  4. сфаб­ри­ко­ван­ный кон­тент – создан­ный кон­тент, лож­ный на 100% и направ­лен­ный на вве­де­ние в заблуж­де­ние и нане­се­ние вреда;
  5. лож­ная связь – заго­лов­ки, иллю­стра­ции или под­пи­си не име­ют отно­ше­ния к контенту;
  6. ожный кон­текст – под­лин­ная инфор­ма­ция рас­про­стра­ня­ет­ся вме­сте с фаль­ши­вой кон­тек­сту­аль­ной информацией;
  7. «мани­пу­ли­ро­ван­ный» кон­тент – под­лин­ный кон­тент целе­на­прав­лен­но иска­жа­ет­ся с целью вве­де­ния в заблуждение.

Отме­тим, что дез­ин­фор­ма­ция может быть «искрен­ней», если чело­век, ретранс­ли­ру­ю­щий ее, искренне верит в рас­про­стра­ня­е­мую ложь, как и мани­пу­ли­ро­ва­ние кон­тек­стом может быть след­стви­ем искрен­них заблуждений. 

Но неза­ви­си­мо от того, верит ли сам ком­му­ни­ка­тор в истин­ность ретранс­ли­ру­е­мых им непро­ве­рен­ных лжи­вых све­де­ний, или же осо­знан­но и пред­на­ме­рен­но рас­про­стра­ня­ет в сети лож­ную инфор­ма­цию, нега­тив­ные послед­ствия от воз­дей­ствия такой инфор­ма­ции на людей оди­на­ко­во пагуб­ны.

В докла­де «Инфор­ма­ци­он­ный бес­по­ря­док», пред­став­лен­ном К. Уорд­лом и Х. Дерах­ша­ном, авто­ры воз­дер­жи­ва­ют­ся от исполь­зо­ва­ния тер­ми­на «под­дель­ные ново­сти», объ­яс­няя это тем, что он вклю­ча­ет не толь­ко лож­ную инфор­ма­цию, но и невер­ные выво­ды, осно­ван­ные на недо­ста­точ­ных доказательствах. 

По сло­вам авто­ров докла­да, в этом слу­чае «мы стал­ки­ва­ем­ся c инфор­ма­ци­он­ным загряз­не­ни­ем» [Wardle, Derakhshan, 2017, р. 5]. Инфор­ма­ци­он­ные нару­ше­ния здесь рас­смат­ри­ва­ют­ся не в каче­стве рас­стройств пси­хи­ки или пове­де­ния чело­ве­ка, на что акцен­ти­ро­ва­ли вни­ма­ние преды­ду­щие иссле­до­ва­те­ли [Davis, 2001; Young, 2015], а как нару­ше­ния поряд­ка в инфор­ма­ци­он­ной сфе­ре (сре­де) обще­ства.

К. Уордл и Х. Дерах­шан пред­ла­га­ют кон­цеп­ту­аль­ную струк­ту­ру для ана­ли­за тако­го «инфор­ма­ци­он­но­го нару­ше­ния». На осно­ва­нии соот­но­ше­ния лож­но­сти инфор­ма­ции и ее зло­на­ме­рен­но­сти (созна­тель­ной направ­лен­но­сти на нане­се­ние вре­да) иссле­до­ва­те­ли раз­ли­ча­ют три вида иска­же­ния информации:

  1. недо­сто­вер­ная инфор­ма­ция (mis-information) – не соот­вет­ству­ю­щая дей­стви­тель­но­сти (лож­ная) инфор­ма­ция, но целью ее рас­про­стра­не­ния не явля­ет­ся пред­на­ме­рен­ное нане­се­ние вре­да; при­чи­на­ми вно­си­мых иска­же­ний инфор­ма­ции может быть упро­ще­ние ее изло­же­ния, оши­боч­ное пони­ма­ние фак­тов или их дина­ми­ки и т.д.;
  2. дез­ин­фор­ма­ция (dis-information) – заве­до­мо лож­ная инфор­ма­ция, созна­тель­но рас­про­стра­ня­е­мая с целью нане­се­ния вре­да;
  3. «пло­хая» инфор­ма­ция (mal-information) – инфор­ма­ция, осно­ван­ная на реаль­но­сти, но пред­на­ме­рен­но акцен­ти­ро­ван­ная на опре­де­лен­ных момен­тах (лич­ной исто­рии, идео­ло­ги­че­ской, орга­ни­за­ци­он­ной и проч. при­над­леж­но­сти и др.) и рас­про­стра­ня­е­мая со стра­те­ги­че­ской целью нане­се­ния вре­да опре­де­лен­ным людям, орга­ни­за­ции или стране; «утеч­ки» кон­фи­ден­ци­аль­ной или част­ной инфор­ма­ции, рас­про­стра­ня­е­мой в пуб­лич­ной сфе­ре с целью созда­ния раз­но­гла­сия, обще­ствен­но­го напря­же­ния, раз­жи­га­ния нена­ви­сти и др.

Выде­ле­ны два аспек­та уяз­ви­мо­сти инфор­ма­ции через соци­аль­ные сети, высту­па­ю­щие агре­га­то­ра­ми ново­стей [Wardle, Derakhshan, 2017]:

а) чита­те­ли боль­ше фоку­си­ру­ют­ся на самой ново­сти, чем на ее источ­ни­ке; и если про­вер­ка фак­тов выпол­ня­ет­ся ред­ко, то про­вер­ка их источ­ни­ка – еще реже; фаль­шив­ки чита­ют­ся чаще, чем их опровержения;

б) чита­те­ли в соц­се­тях «спо­дви­га­ют­ся» на чте­ние тех ново­стей, кото­рые чита­ли и кото­ры­ми дели­лись их дру­зья («френ­ды») и «кон­так­ты» из сети, или на чте­ние тех ново­стей, кото­рые им пред­ла­га­ет алго­ритм пер­со­ни­фи­ци­ро­ван­но­го выбо­ра соц­се­ти в соот­вет­ствии с про­сле­жи­ва­е­мы­ми пред­по­чте­ни­я­ми чита­те­ля.

К послед­не­му аспек­ту мы доба­вим еще один фак­тор: обра­ща­ясь к той или иной ново­сти или тек­сту в соц­се­ти, чита­тель усва­и­ва­ет не толь­ко кон­тент, но и эмо­ции тех, кто пред­ла­га­ет. А с эмо­ци­я­ми свя­за­но пси­хи­че­ское состо­я­ние чело­ве­ка и его отно­ше­ние к собы­ти­ям и к дей­стви­тель­но­сти.

Зна­чи­мы­ми состав­ля­ю­щи­ми кон­цеп­ции рас­про­стра­не­ния раз­лич­ных форм дез­ин­фор­ма­ции в Сети явля­ют­ся пред­став­ле­ния об эхо-каме­репузы­рях (пузырь­ках) и о поля­ри­за­ции мне­ний и миро­воз­зрен­че­ских позиций.

Замкнутые эхо-камеры и фильтрующие информационные коконы

Поня­тие «эхо-каме­ра» исполь­зу­ет­ся для мета­фо­ри­че­ско­го опи­са­ние ситу­а­ции, в кото­рой инфор­ма­ция, идеи или убеж­де­ния под­креп­ля­ют­ся и уси­ли­ва­ют­ся путем ком­му­ни­ка­ции людей внут­ри замкну­той систе­мы (пар­тии, кру­га единомышленников). 

Осо­бен­но ярко эффект эхо-каме­ры про­яв­ля­ет­ся в Интер­не­те и обра­зо­ван­ных в нем соц­се­тях. Эффект «эхо-каме­ры» закреп­ля­ет при­су­щее чело­ве­ку миро­воз­зре­ние, делая его в соб­ствен­ных гла­зах все более «пра­виль­ным» и, одно­вре­мен­но, иска­жа­ет истин­ную кар­ти­ну действительности. 

Бла­го­да­ря эффек­ту «эхо-каме­ры», сооб­ще­ства, обра­зу­е­мые людь­ми внут­ри соц­се­тей, явля­ют­ся мощ­ных сред­ством под­креп­ле­ния недо­сто­вер­ной и лож­ной информации.

Э. Пари­зер ввел поня­тие «филь­тру­ю­щий пузырь» и рас­крыл его содер­жа­ние в одно­имен­ной кни­ге [Pariser, 2011]. Интер­нет-ком­па­нии исполь­зу­ют спе­ци­аль­ные алго­рит­мы, что­бы пока­зы­вать нам то, что, по их мне­нию, нам важно. 

В осно­ве этих алго­рит­мов и встро­ен­ных в них филь­тров в каче­стве кри­те­рия поис­ка исполь­зу­ет­ся реле­вант­ность, под кото­рой пони­ма­ет­ся субъ­ек­тив­ная сте­пень соот­вет­ствия чего-либо в дан­ный момент. 

Идея реле­вант­но­сти вклю­ча­ет сле­ду­ю­щие нега­тив­ные аспек­ты: а) через филь­тры мы не можем раз­гля­деть всей кар­ти­ны, мы видим лишь ее отре­дак­ти­ро­ван­ный вари­ант; б) мы не заме­ча­ем выстав­лен­ных филь­тров, поэто­му даже не дога­ды­ва­ем­ся, что из пред­став­лен­ной нам кар­ти­ны может быть отбро­ше­но; в) не мы опре­де­ля­ем, что нам важ­но, – за нас это дела­ют «маши­ны» (алго­рит­мы), и сде­лан­ный ими выбор – непро­зра­чен [Пари­зер, 2012].

Поня­тие «филь­тру­ю­щий пузырь» исполь­зу­ет­ся для обо­зна­че­ния нега­тив­ной сто­ро­ны пер­со­на­ли­зи­ро­ван­но­го поиска инфор­ма­ции. Пер­во­на­чаль­но пер­со­ни­фи­ка­ция ста­ла целе­на­прав­лен­но при­ме­нять­ся поис­ко­вой систе­мой Google и соц­се­тя­ми, свя­зан­ны­ми с ней (Facebook, Twitter, Google+), а в даль­ней­шем полу­чи­ла рас­про­стра­не­ние в дру­гих поис­ко­ви­ках и соц­се­тях, а так­же на веб-сай­тах, зани­ма­ю­щих­ся про­дви­же­ни­ем това­ров и услуг.

При исполь­зо­ва­нии пер­со­ни­фи­ка­ции веб-сай­ты и поис­ко­вые систе­мы «выстра­и­ва­ют» резуль­та­ты поис­ка инфор­ма­ции по запро­су поль­зо­ва­те­ля на осно­ве ана­ли­за не толь­ко его место­по­ло­же­ния, но и пред­ше­ству­ю­ще­го онлайн-пове­де­ния, исто­рии поис­ков и «при­вер­жен­но­стей» это­го пользователя. 

В резуль­та­те предъ­яв­ля­ет­ся толь­ко та инфор­ма­ция, кото­рая согла­су­ет­ся с про­шлы­ми точ­ка­ми зре­ния дан­но­го поль­зо­ва­те­ля. Вся иная инфор­ма­ция, как пра­ви­ло, дан­но­му поль­зо­ва­те­лю не выводится. 

Такое сме­ще­ние в выбо­ре источ­ни­ков инфор­ма­ции бази­ру­ет­ся на извест­ном в пси­хо­ло­гии и социо­ло­гии прин­ци­пе «селек­тив­но­го вли­я­ния», соглас­но кото­ро­му чело­век пред­по­чи­та­ет при­ни­мать во вни­ма­ние толь­ко ту инфор­ма­цию, кото­рая, как ему кажет­ся, под­твер­жда­ет его пове­де­ние и сло­жив­ши­е­ся у него воз­зре­ния.

Соц­се­ти изна­чаль­но пред­на­зна­че­ны для обще­ния с кру­гом «близ­ких по духу» людей. Поэто­му соц­сеть пред­став­ля­ет собой, соглас­но лек­си­ке Э. Пари­зе­ра, «филь­тру­ю­щий пузырь» (filter bubble), а обра­зу­е­мые внут­ри этой соц­се­ти одно­род­ные замкну­тые сооб­ще­ства – «филь­тру­ю­щие пузырь­ки» (filter bubbles); и те, и дру­гие для людей, вхо­дя­щих в эту соц­сеть или ее внут­рен­ние сооб­ще­ства, ста­но­вят­ся соб­ствен­ной «эхо-каме­рой» (по обо­зна­че­нию К. Уордл). 

В ней они про­во­дят вре­мя, согла­ша­ясь друг с дру­гом, а если и меня­ют свою точ­ку зре­ния, то без обме­на мне­ни­я­ми с теми людь­ми, кото­рые дума­ют ина­че, – посколь­ку, такие люди, име­ю­щие иное мне­ние, не попа­да­ют в их круг обще­ния [Wardle, Derakhshan, 2017].

Филь­тру­ю­щие алго­рит­мы соц­се­тей дела­ют из огром­но­го пото­ка «новост­ной инфор­ма­ции» пер­со­ни­фи­ци­ро­ван­ный про­дукт – лен­ту ново­стей кон­крет­но­го поль­зо­ва­те­ля, име­ю­ще­го акка­унт (учет­ную запись) в этой сети. Фак­ти­че­ски соц­се­ти, опо­сре­дуя доступ чело­ве­ка к инфор­ма­ции путем ее филь­тра­ции, берут на себя функ­ции редак­то­ра и цензора. 

Тем самым поль­зо­ва­те­ли соц­се­ти ока­зы­ва­ют­ся в ситу­а­ции интел­лек­ту­аль­ной изо­ля­ции: посред­ством филь­тров инфор­ма­ции они изо­ли­ру­ют­ся в соб­ствен­ных куль­тур­ных или идео­ло­ги­че­ских «коко­нах». Такую филь­тра­цию мож­но срав­ни­вать с при­ну­ди­тель­ной «инфор­ма­ци­он­ной диетой».

Социальные сети как средство информационно-психологических воздействий

В совре­мен­ном мире инфор­ма­ци­он­ная сре­да ста­но­вит­ся сред­ством, с помо­щью кото­ро­го чело­ве­ку транс­ли­ру­ют­ся соци­аль­ные нор­мы и цен­но­стиуста­нов­ки и сте­рео­ти­пы пове­де­ния [Ежев­ская, 2011]. 

Рас­про­стра­не­ние идео­ло­ги­че­ских пози­ций с целью фор­ми­ро­ва­ния у чело­ве­ка опре­де­лен­но­го миро­воз­зре­ния, цен­но­стей, пред­став­ле­ний, ока­за­ния вли­я­ния на пове­де­ние чело­ве­ка – это про­па­ган­дист­ская дея­тель­ность.

Про­па­ган­да пред­ста­ет как спо­соб мани­пу­ли­ро­ва­ния обще­ствен­ным созна­ни­ем, управ­ле­ния обще­ствен­ны­ми настро­е­ни­я­ми. Ее зада­ча – так воз­дей­ство­вать на целе­вую ауди­то­рию, что­бы эта ауди­то­рия изме­ни­ла свое отно­ше­ние к чему-нибудь. 

Что­бы сооб­ще­ние счи­та­лось про­па­ган­дой, оно долж­но соот­вет­ство­вать трем критериям: 

  1. нали­чие осо­знан­но­го стрем­ле­ния мани­пу­ли­ро­вать мне­ни­ем людей;
  2. созда­ние впе­чат­ле­ния, что сооб­ще­ние пред­став­ля­ет без­ого­во­роч­ную исти­ну, что дости­га­ет­ся путем пред­став­ле­ния лишь одной сто­ро­ны ситуации;
  3. мас­ки­ров­ка наме­ре­ний манипулятора. 

Для дости­же­ния сво­их целей про­па­ган­дист отби­ра­ет фак­ты, аргу­мен­ты, сим­во­лы и пред­став­ля­ет их так, что­бы достичь наи­боль­ше­го эффек­та; при этом он может упус­кать или иска­жать суще­ствен­ные фак­ты, отвле­кать вни­ма­ние от иных источ­ни­ков инфор­ма­ции.

Соци­аль­ные интер­нет-сети – это не толь­ко про­стран­ство для про­ве­де­ния про­па­ган­ды, это сред­ство про­па­ган­дист­ской дея­тель­но­сти. К осо­бен­но­стям соц­се­тей, поз­во­ля­ю­щих исполь­зо­вать их в каче­стве инстру­мента про­па­ган­ды, отно­сит­ся авто­ном­ность, кла­сте­ри­за­ция, мно­же­ствен­ность и пер­со­ни­фи­ка­ция воз­дей­ствий на участ­ни­ков сети.

Авто­ном­ность вир­ту­аль­ных сооб­ществ озна­ча­ет их неза­ви­си­мость от реаль­ных сооб­ществ; кла­сте­ри­за­ция – выде­ле­ние одно­род­ных групп в сети; мно­же­ствен­ность – воз­дей­ствие на чело­ве­ка через раз­ные кла­сте­ры, в кото­рые он вхо­дит; пер­со­ни­фи­ка­ция – воз­дей­ствие с уче­том инди­ви­ду­аль­ных про­яв­ле­ний участ­ни­ка сети. 

Кла­сте­ри­за­ция пред­по­ла­га­ет нали­чие в соц­се­ти как объ­ек­тив­ных внут­рен­них сооб­ществ, орга­ни­зо­ван­ных сами­ми участ­ни­ка­ми сети (по общ­но­сти инте­ре­сов, по про­фес­си­о­наль­ным, соци­аль­ным, рели­ги­оз­ным и др. при­зна­кам), так и воз­мож­но­сти авто­ма­ти­че­ско­го выде­ле­ния одно­род­ных групп (кла­сте­ров) с любы­ми общи­ми при­зна­ка­ми (воз­раст, пол, инте­ре­сы, место про­жи­ва­ния, круг обще­ния, при­зна­ки актив­но­сти в сети и др.) посред­ством филь­тру­ю­щих алго­рит­мов.

Ука­зан­ные осо­бен­но­сти орга­ни­за­ции вир­ту­аль­но­го сооб­ще­ства поз­во­ля­ют «аген­там вли­я­ния» под видом участ­ни­ков соц­се­ти вести про­па­ган­ду с боль­шей сте­пе­нью дове­рия. Эффек­тив­ной явля­ет­ся та про­па­ган­да, кото­рая будет идти одно­вре­мен­но через раз­лич­ные сете­вые кла­сте­ры [Сая­пин, 2014].

Ком­мер­че­ской фор­мой про­па­ган­ды явля­ет­ся рекла­ма. В рус­ле идей Фре­да Р. Дэви­да, рекла­ма ори­ен­ти­ро­ва­на отнюдь не на пред­став­ле­ние объ­ек­тив­ных харак­те­ри­стик това­ра (или услуги). 

Потен­ци­аль­но­му потре­би­те­лю рекла­ма пред­ла­га­ет новый при­вле­ка­тель­ный образ чело­ве­ка, при­об­рет­ше­го товар, поло­жи­тель­ные эмо­ции от это­го това­ра, чув­ства без­опас­но­сти, удоб­ства и уюта для счаст­ли­вой жиз­ни. Чело­ве­ку демон­стри­ру­ют­ся эле­мен­ты его ново­го обра­за жиз­ни, фор­ми­ру­ет­ся миро­воз­зре­ние [David, 2006]. 

В Интер­не­те рекла­ма име­ет агрес­сив­ный харак­тер; для поль­зо­ва­те­лей соц­се­тей, под­пис­чи­ков новост­ных лент и Youtube она ста­но­вит­ся все более пер­со­ни­фи­ци­ро­ван­ной.

Совре­мен­ные инфор­ма­ци­он­ные тех­но­ло­гии поз­во­ля­ют инди­ви­ду­а­ли­зи­ро­вать воз­дей­ствие на чело­ве­ка на осно­ве воз­мож­но­сти пер­со­ни­фи­ка­ции полу­ча­е­мых дан­ных о нем. Р. Лам­биотт (R. Lambiotte) и М. Косин­ски (M. Kosinski) отме­ча­ют, что все боль­шая часть актив­но­сти чело­ве­ка в Интер­не­те остав­ля­ет «циф­ро­вые сле­ды» в раз­но­об­раз­ных элек­трон­ных базах дан­ных в гло­баль­ной Сети. 

Отме­тим, что при­ме­ни­тель­но к про­бле­ме «циф­ро­вых сле­дов» мож­но гово­рить о «Боль­ших <базах> Дан­ных» (Big Data). Ука­зан­ные иссле­до­ва­те­ли обос­но­вы­ва­ют, что на осно­ве отсле­жи­ва­ния и ана­ли­за «сле­дов» пове­де­ния, обще­ния и соци­аль­ных вза­и­мо­дей­ствий чело­ве­ка в Интер­не­те, сохра­ня­е­мых не толь­ко в про­фи­лях соци­аль­ных сетей (Facebook и др.), но и в жур­на­лах бра­у­зе­ров, фик­си­ру­ю­щих исто­рию про­смот­ра веб-стра­ниц, мож­но выпол­нить ком­плекс­ное опи­са­ние лич­но­сти поль­зо­ва­те­ля, ее пси­хо­ло­ги­че­ской струк­ту­ры, инди­ви­ду­аль­но­го про­фи­ля [Lambiotte, Kosinski, 2014].

Высо­кая рас­про­стра­нен­ность инди­ви­ду­аль­ных мобиль­ных устройств (план­ше­тов, смарт­фо­нов), поз­во­ля­ю­щих поль­зо­ва­те­лю посто­ян­но быть онлайн, рас­ши­ря­ет воз­мож­но­сти пер­со­ни­фи­ка­ции инфор­ма­ции о пове­де­нии чело­ве­ка в Сети, его лич­но­сти и после­ду­ю­щей инди­ви­ду­а­ли­за­ции воз­дей­ствий.

Резуль­та­ты опуб­ли­ко­ван­ных иссле­до­ва­ний пока­зы­ва­ют, что оцен­ки лич­но­сти чело­ве­ка посред­ством ком­пью­тер­ной моде­ли, осно­ван­ные на циф­ро­вых сле­дах, остав­лен­ных этим чело­ве­ком, явля­ют­ся более точ­ны­ми и досто­вер­ны­ми, чем суж­де­ния, сде­лан­ные близ­ки­ми ему людь­ми (дру­зья­ми, супру­га­ми, кол­ле­га­ми и т.д.) [Youyou и др.,2015].

Соглас­но интер­пре­та­ции этих резуль­та­тов оте­че­ствен­ны­ми пси­хо­ло­га­ми, «ком­пью­тер­ным про­грам­мам сего­дня доста­точ­но инфор­ма­ции все­го о 70 лай­ках, сде­лан­ных чело­ве­ком в Facebook, что­бы пред­ска­зы­вать его поли­ти­че­ские пред­по­чте­ния, отно­ше­ние к здо­ро­вью и алко­го­лю точ­нее, чем это дела­ют его сослу­жив­цы, а инфор­ма­ция о 300 лай­ках поз­во­ля­ет делать это луч­ше, чем его жена или муж» [Журавлев и др., 2016, с. 63]. 

Иссле­до­ва­те­ли счи­та­ют, что «раз­ви­тие ком­му­ни­ка­ци­он­ных тех­но­ло­гий и опо­ра на боль­шие дан­ные поз­во­лят не толь­ко про­во­дить дистан­ци­он­ную пси­хо­ло­ги­че­скую диа­гно­сти­ку, но и еще более эффек­тив­но мани­пу­ли­ро­вать мас­со­вым созна­ни­ем» [Там же. С. 51].

Ста­ло оче­вид­ным, что циф­ро­вая рево­лю­ция откры­ва­ет путь не толь­ко к раз­ви­тию чело­ве­ка, но и к «новым фор­мам пси­хо­ло­ги­че­ских мани­пу­ля­ций, неви­дан­ным по охва­ту и глу­бине воз­дей­ствия» [Нестик, 2017, с. 13].

Загрязнение информационной среды («информационный мусор»)

В свя­зи с инфор­ма­ци­он­ным бумом появи­лась новая фор­ма загряз­не­ния сре­ды оби­та­ния чело­ве­ка – загряз­не­ние информацией. 

Тер­мин «инфор­ма­ци­он­ное загряз­не­ние» исполь­зо­вал Л. Орман в ста­тье, опуб­ли­ко­ван­ной в 1984 г. Иссле­до­ва­тель при­зна­ет, что рас­про­стра­не­ние бес­по­лез­ных и неже­ла­тель­ных све­де­ний может ока­зы­вать нега­тив­ное вли­я­ние на жиз­не­де­я­тель­ность чело­ве­ка [Orman, 1984].

В 1997 г. Д. Шенк издал кни­гу с харак­тер­ным назва­ни­ем «Data smog», в кото­рой гово­рит­ся в том чис­ле о том, что огром­ное коли­че­ство дан­ных в Интер­не­те затруд­нит чело­ве­ку воз­мож­ность филь­тро­вать их и отде­лять фак­ты – от вымыс­ла. Автор исполь­зу­ет мета­фо­ру «смог дан­ных», обо­зна­чая ею обо­рот­ную сто­ро­ну оби­лия инфор­ма­ции [Shank, 1997].

В кон­це XX в. при­ме­ни­тель­но к инфор­ма­ци­он­ной сре­де обще­ства в науч­ном теза­у­ру­се начи­на­ет исполь­зо­вать­ся эко­ло­ги­че­ская тер­ми­но­ло­гия – поня­тия «инфор­ма­ци­он­ные загряз­не­ния», «инфор­ма­ци­он­ный смог», свя­зан­ные с инфор­ма­ци­ей как таковой. 

Я. Ниль­сен тер­ми­ном «information pollution» обо­зна­чил «засо­ре­ние» инфор­ма­ци­он­ных ресур­сов посто­рон­ни­ми, непод­хо­дя­щи­ми и недо­сто­вер­ны­ми дан­ны­ми [Nielsen, 1999]. 

В даль­ней­шем Д.А. Брей пока­зал, что необ­хо­ди­мость опе­ри­ро­вать слиш­ком боль­шим объ­е­мом инфор­ма­ции, раз­рос­шим­ся из-за зна­чи­тель­ной доли в нем «инфор­ма­ци­он­ных загряз­не­ний», может при­ве­сти к «пара­ли­чу ана­ли­за» – состо­я­нию, при кото­ром чело­век не в силах при­нять реше­ние [Bray, 2007].

Счи­та­ет­ся, что тер­мин «загряз­не­ние инфор­ма­ции» вошел в рус­ско­языч­ный науч­ный теза­у­рус в 2003 г. после пере­из­да­ния в Рос­сии кни­ги Я. Ниль­се­на. Автор пишет, что инфор­ма­ци­он­ное загряз­не­ние при­во­дит к инфор­ма­ци­он­ной пере­груз­ке поль­зо­ва­те­лей [Ниль­сен, 2003].

Таким обра­зом, под тер­ми­ном «инфор­ма­ци­он­ное загряз­не­ние» («инфор­ма­ци­он­ный мусор») пони­ма­ет­ся, преж­де все­го, инфор­ма­ци­он­ная избы­точ­ность.

В.Л. Хмы­лев в каче­стве отри­ца­тель­но­го послед­ствия инфор­ма­ци­он­ной избы­точ­но­сти назы­ва­ет сни­же­ние надеж­но­сти зна­ний и раз­ру­ше­ние смыс­лов сооб­ще­ний.

Сни­же­ние надеж­но­сти любо­го зна­ния, в том чис­ле и науч­но­го, объ­яс­ня­ет­ся тем, что при пере­из­быт­ке про­фес­си­о­наль­ных оце­нок какой-либо про­бле­мы суще­ствен­но затруд­ня­ет­ся выбор наи­луч­ше­го ее реше­ния. При­чи­ну вымы­ва­ния смыс­ла из сооб­ще­ний иссле­до­ва­тель видит в сни­же­нии тре­бо­ва­ний к вхо­дя­щей информации. 

Нынеш­няя модель ком­му­ни­ка­ций в Интер­не­те поз­во­ля­ет любо­му поль­зо­ва­те­лю гло­баль­ной Сети бес­кон­троль­но вно­сить в нее любую инфор­ма­цию. В ито­ге «инфор­ма­ция без зна­че­ний», потреб­ля­е­мая людь­ми, «во мно­гом опре­де­ля­ет суть совре­мен­ных соци­аль­ных ком­му­ни­ка­ций» [Хмы­лёв, 2009, с. 91].

Про­бле­му недо­сто­вер­но­сти «вто­рич­ной инфор­ма­ции», выкла­ды­ва­е­мой в Интер­не­те ее поль­зо­ва­те­ля­ми, под­ни­ма­ют У. Бек и К. Лау. Иссле­до­ва­те­ли пишут об опас­но­сти зна­ния из «вто­рых рук» и отме­ча­ют, что угро­за этой опас­но­сти в усло­ви­ях лави­но­об­раз­но­го роста инфор­ма­ции в гло­баль­ной сети ста­но­вит­ся реаль­ной [Beck, Lau, 2005].

Л. Орман, воз­вра­ща­ясь к про­бле­ме инфор­ма­ци­он­но­го загряз­не­ния в эпо­ху гло­баль­ной Сети, обра­ща­ет вни­ма­ние на инфор­ма­ци­он­ный пара­докс: объ­ем инфор­ма­ции и ее доступ­ность воз­рас­та­ет, а каче­ство и пони­ма­ние необ­хо­ди­мых све­де­ний – снижается. 

Иссле­до­ва­тель счи­та­ет, что изоби­лие инфор­ма­ции с низ­ким каче­ством не может быть хоро­шей заме­ной скуд­ной, но каче­ствен­ной инфор­ма­ции; речь идет об инфор­ма­ци­он­ном загряз­не­нии как об инфор­ма­ци­он­ной избы­точ­но­сти.

Л. Орман под­чер­ки­ва­ет, что инфор­ма­ция не явля­ет­ся ней­траль­ной; она не про­сто «инфор­ми­ру­ет», она руко­во­дит реше­ни­я­ми и дей­стви­я­ми чело­ве­ка [Orman, 2015]. 

При­ме­ром управ­ле­ния дей­стви­я­ми чело­ве­ка явля­ет­ся мас­со­вая рас­сыл­ка по e‑mail кор­ре­спон­ден­ции реклам­но­го или ино­го харак­те­ра людям, не выра­жа­ю­щим жела­ния ее получать. 

Оче­вид­но, что боль­шая часть спа­ма про­из­во­дит­ся пото­му, что кто-то опла­чи­ва­ет его рас­сыл­ку, но менее оче­вид­но, что полу­ча­те­ли тоже вынуж­де­ны опла­чи­вать допол­ни­тель­ный тра­фик и сор­ти­ров­ку боль­шо­го коли­че­ства ненуж­ных им писем [Orman, 2015].

К инфор­ма­ци­он­ным загряз­не­ни­ям иссле­до­ва­те­ли отно­сят недо­сто­вер­ную инфор­ма­цию, дез­ин­фор­ма­цию, а так­же «плохую инфор­ма­цию», рас­про­стра­ня­е­мую с целью нане­се­ния вре­да, созда­ния раз­но­гла­сия, фор­ми­ро­ва­ния нега­тив­ных состо­я­ний и эмо­ций, побуж­де­ния к деструк­тив­ным дей­стви­ям [Wardle, Derakhshan, 2017], – то есть инфор­ма­цию, име­ю­щую выра­жен­ный мани­пу­ля­тив­ный харак­тер.

Мы счи­та­ем, что содер­жа­ние поня­тие «инфор­ма­ци­он­ное загряз­не­ние» сле­ду­ет рас­смат­ри­вать в широ­ком и узком смысле. 

В широ­ком смыс­ле инфор­ма­ци­он­ное загряз­не­ние – это нали­чие избы­точ­ной инфор­ма­ции, раз­мы­ва­ю­щей смысл сооб­ще­ния, затруд­ня­ю­щей его вос­при­я­тие, загру­жа­ю­щей вни­ма­ние чело­ве­ка, вынуж­да­ю­щей его «про­се­и­вать» инфор­ма­цию с риском про­пу­стить необ­хо­ди­мые све­де­ния сре­ди мас­сы «инфор­ма­ци­он­но­го мусора». 

В силу чрез­мер­но­го объ­е­ма и интен­сив­но­сти поступ­ле­ния, пре­вы­ша­ю­ще­го «про­пуск­ную спо­соб­ность» чело­ве­ка, инфор­ма­ция может нега­тив­но воз­дей­ство­вать на пси­хи­ку, вызы­вать инфор­ма­ци­он­ный нев­роз, вызы­вать пато­ло­ги­че­ские нару­ше­ния пове­де­ния.

Под­ход к пони­ма­нию инфор­ма­ци­он­но­го загряз­не­ния лишь как засо­ре­ния сооб­ще­ния «избы­точ­ной инфор­ма­ци­ей» пред­став­ля­ет­ся нам упро­щен­ным и огра­ни­чен­ным, посколь­ку он изна­чаль­но не ори­ен­ти­ро­ван на оцен­ку семан­ти­че­ской (свя­зан­ной со смыс­лом) и праг­ма­ти­че­ской состав­ля­ю­щих (свя­зан­ным с вли­я­ни­ем на пове­де­ние людей) инфор­ма­ции.

Как след­ствие, такой под­ход не поз­во­ля­ет понять, поче­му два паке­та инфор­ма­ции с оди­на­ко­вым объ­е­мом могут вызы­вать совер­шен­но раз­ный эффект – как по фор­ми­ро­ва­нию систе­мы отно­ше­ний чело­ве­ка, так и по побуж­де­нию его к дей­стви­ям.

В узком смыс­ле инфор­ма­ци­он­ное загряз­не­ние – это нали­чие, преж­де все­го, вред­ной, неадек­ват­ной инфор­ма­ция, а так­же дез­ин­фор­ма­ции. Такое загряз­не­ние может быть не толь­ко «побоч­ным про­дук­том» инфор­ма­ци­он­но-ком­му­ни­ка­ци­он­ных тех­но­ло­гий, но и созда­вать­ся осо­знан­но и с опре­де­лен­ны­ми целя­ми.

Это могут быть так назы­ва­е­мые ауди­о­нар­ко­ти­ки [Надеж­дин и др., 2013; Андре­ев, Наза­ро­ва, 2014a]. Под ауди­о­нар­ко­ти­ка­ми пони­ма­ют­ся опре­де­лен­ные, созда­ва­е­мые с рас­че­том на ком­мер­че­ский успех зву­ко­вые рит­мы, целе­на­прав­лен­но фор­ми­ру­ю­щие с помо­щью спе­ци­аль­ных про­грамм и устройств «изме­нен­ные состо­я­ния созна­ния и моти­ва­ции пове­де­ния у эмо­ци­о­наль­но неустой­чи­вых людей и у лиц с нару­шен­ной пси­хи­кой, вызы­вая у них вир­ту­аль­ный эффект, близ­кий к исполь­зо­ва­нию хими­че­ско­го, био­ло­ги­че­ско­го или син­те­ти­че­ско­го нар­ко­ти­ка, а затем фор­ми­ру­ю­щие вле­че­ние и пато­ло­ги­че­скую зави­си­мость от них» [Андре­ев, Наза­ро­ва, 2014b, с. 78]. 

Вли­я­ние ауди­о­нар­ко­ти­ков на мозг и пси­хи­ку чело­ве­ка так вели­ко, что они могут вызы­вать «опас­ные сбои в функ­ци­о­ни­ро­ва­нии голов­но­го моз­га слу­ша­те­лей, голов­ные боли и при­сту­пы эпи­леп­сии» [Там же].

Заключение

Стре­ми­тель­ное раз­ви­тие инфор­ма­ци­он­ных тех­но­ло­гий и уси­ли­ва­ю­ще­е­ся их дав­ле­ние на пси­хи­ку и созна­ние чело­ве­ка сви­де­тель­ству­ют о необ­хо­ди­мо­сти про­ве­де­ния новых иссле­до­ва­ний в обла­сти инфор­ма­ци­он­ной эко­ло­гии с целью изу­че­ния пси­хо­ло­ги­че­ских и инфор­ма­ци­он­но-эко­ло­ги­че­ских про­блем и раз­ра­бот­ки меро­при­я­тий, направ­лен­ных на защи­ту чело­ве­ка от избы­точ­ной, лож­ной и мани­пу­ля­тив­ной инфор­ма­ции, засо­ря­ю­щей инфор­ма­ци­он­ную среду.

Литература

  1. Андре­ев И.Л., Наза­ро­ва Л.Н. Ауди­о­нар­ко­ти­ки в кон­тек­сте автор­ской клас­си­фи­ка­ции зер­каль­ных ней­ро­нов. Нар­ко­ло­гия, 2014a, No. 3, 81–87.
  2. Андре­ев И.Л., Наза­ро­ва Л.Н. Эво­лю­ция пси­хи­че­ско­го ланд­шаф­та инфор­ма­ци­он­ной эпо­хи. Пси­хи­че­ское здо­ро­вье, 2014b, No. 7, 74–80.
  3. Ано­сов В.Д., Леп­ский В.Е. Исход­ные посыл­ки про­бле­ма­ти­ки инфор­ма­ци­он­но-пси­хо­ло­ги­че­ской без­опас­но­сти. В кн.: А.В. Брушлин­ский, В.Е. Леп­ский (Ред.), Про­бле­мы инфор­ма­ци­он­но-пси­хо­ло­ги­че­ской без­опас­но­сти. М.: Инсти­тут пси­хо­ло­гии РАН, 1996. С. 7–11.
  4. Гапа­но­вич С.О., Лев­чен­ко В.Ф. К вопро­су об инфор­ма­ци­он­ной антро­по­эко­ло­гии. Прин­ци­пы эко­ло­гии, 2017, No. 4, 4–16. doi:10.15393/j1.art.2017.5662
  5. Гра­чев Г.В., Мель­ник И.К. Мани­пу­ли­ро­ва­ние лич­но­стью: орга­ни­за­ция, спо­со­бы и тех­но­ло­гии инфор­ма­ци­он­но-пси­хо­ло­ги­че­ско­го воз­дей­ствия. М.: Алго­ритм, 2000.
  6. Доцен­ко Е.Л. Пси­хо­ло­гия мани­пу­ля­ции: фено­ме­ны, меха­низ­мы и защи­та. М.: ЧеРО, 1997.
  7. Ежев­ская Т.И. Пси­хо­ло­ги­че­ское воз­дей­ствие инфор­ма­ци­он­ной сре­ды на совре­мен­но­го чело­ве­ка. Пси­хопе­да­го­ги­ка в пра­во­охра­ни­тель­ных орга­нах, 2009, 2(37), 38–41.
  8. Ежев­ская Т.И. Лич­ност­ные ресур­сы в обес­пе­че­нии инфор­ма­ци­он­но-пси­хо­ло­ги­че­ской без­опас­но­сти чело­ве­ка. Гума­ни­тар­ный век­тор, 2011, 1(25), 104–107.
  9. Еме­лин В.А., Рас­ска­зо­ва Е.И., Тхо­стов А.Ш. Пси­хо­ло­ги­че­ские послед­ствия раз­ви­тия инфор­ма­ци­он­ных тех­но­ло­гий. Наци­о­наль­ный пси­хо­ло­ги­че­ский жур­нал, 2012, 1(7), 81–87.
  10. Ере­мин А.Л. При­ро­да и физио­ло­гия инфор­ма­ци­он­ной эко­ло­гии чело­ве­ка. Эко­ло­гия чело­ве­ка, 2000, No. 2, 55–60.
  11. Журавлев А.Л., Нестик Т.А., Юре­вич А.В. Про­гноз раз­ви­тия пси­хо­ло­ги­че­ской нау­ки и прак­ти­ки к 2030 году. Пси­хо­ло­ги­че­ский жур­нал, 2016, 37(5), 45–62.
  12. Надеж­дин А.В., Кол­гаш­кин А.Ю., Тете­но­ва Е.Ю. Ауди­о­нар­ко­ти­ки – миф или реаль­ность. Нар­ко­ло­гия, 2013, No. 1, 53−65.
  13. Нестик Т.А. Раз­ви­тие циф­ро­вых тех­но­ло­гий и буду­щее пси­хо­ло­гии. Вест­ник Мос­ков­ско­го госу­дар­ствен­но­го област­но­го уни­вер­си­те­та. Сер. Пси­хо­ло­ги­че­ские нау­ки, 2017, No. 3, 6–15. doi:10.18384/2310–7235-2017–3‑6–15
  14. Ниль­сен Я. [Nielsen J.] Веб-дизайн. СПб.: Сим­вол-Плюс, 2003.
  15. Пари­зер Е. [Pariser E.] За сте­ной филь­тров: что Интер­нет скры­ва­ет от вас? М.: Аль­пи­на Биз­нес Букс, 2012.
  16. Сая­пин В.О. Смыс­ло­вые реа­лии вир­ту­аль­ной про­па­ган­ды в сети Интер­нет. European Social Science Journal, 2014, 1–2(40), 23–29.
  17. Смо­лян Г.Л., Зара­ков­ский Г.М., Розин В.М., Вой­скун­ский А.Е. Инфор­ма­ци­он­но-пси­хо­ло­ги­че­ская без­опас­ность (опре­де­ле­ние и ана­лиз пред­мет­ной обла­сти). М.: Инсти­тут систем­но­го ана­ли­за РАН, 1997.
  18. Урсул А.Д. Инфор­ма­ти­за­ция обще­ства: вве­де­ние в соци­аль­ную инфор­ма­ти­ку. М.: Ака­де­мия обще­ствен­ных наук при ЦК КПСС, 1990.
  19. Хмы­лёв В.Л. Кон­цеп­ция симу­ля­кров и соци­аль­ные ком­му­ни­ка­ции совре­мен­ной Рос­сии. Изве­стия Том­ско­го поли­тех­ни­че­ско­го уни­вер­си­те­та, 2009, 314(6), 90–94.
  20. Шап­цев В.А. Инфор­ма­ци­он­ная эко­ло­гия чело­ве­ка. Поста­нов­ка про­бле­мы. Мате­ма­ти­че­ские струк­ту­ры и моде­ли­ро­ва­ние, 1999, No. 3, 125–133.
  21. Юрьев А.И. Вве­де­ние в поли­ти­че­скую пси­хо­ло­гию. СПб.: С.-Петерб. гос. уни­вер­си­тет, 1992.
  22. Юрьев А.И. Поли­ти­че­ская пси­хо­ло­гия тер­ро­риз­ма. В кн.: М.М. Решет­ни­ков (Ред.), Пси­хо­ло­гия и пси­хо­па­то­ло­гия тер­ро­риз­ма. Гума­ни­тар­ные стра­те­гии анти­тер­ро­ра. СПб.: Восточ­но-евро­пей­ский инсти­тут пси­хо­ана­ли­за, 2004. С. 64–86.
  23. Юрьев А.И. Систем­ное опи­са­ние поли­ти­че­ской пси­хо­ло­гии. СПб.: С.-Петерб. гор­ный инсти­тут, 1997.
  24. Beck U., Lau Cr. Second modernity as a research agenda: theoretical and empirical exploration in the «meta-change» of modern society. British Journal of Sociology, 2005, 56(4), 525–557.
  25. Bray D.A. Information Pollution, Knowledge Overload, Limited Attention Spans, and Our Responsibilities as IS Professionals. Proceedings of the Global Information Technology Management Association (GITMA) World Conference – June 2008. Rochester, NY, 2007. doi:10.2139/ssrn.962732
  26. David F.Р. Strategic Management: Concepts and Cases. New Jersey: Prentice-Hall, 2006.
  27. Davis R.A. A cognitive-behavioral model of pathological Internet use. Computers in Human Behavior, 2001, 17(2), 187–195.
  28. Eryomin A.L. Information ecology – a viewpoint. International Journal of Environmental Studies, 1998, 54(3/4), 241–253. doi:10.1080/00207239808711157
  29. Lambiotte R., Kosinski M. Tracking the digital footprints of personality. Proceedings of the Institute of Electrical and Electronics Engineers, 2014, No. 102. 1934–1939. doi:10.1109/JPROC.2014.2359054
  30. Nielsen J. Designing Web Usability: The Practice of Simplicity. San Francisco, CA: Peachpit Press, 1999.
  31. Orman L. Fighting Information Pollution with Decision Support Systems. Journal of Management Information Systems, 1984, 1(2), 64–71. doi:10.1080/07421222.1984.11517704
  32. Orman L. Information Paradox: Drowning in Information, Starving for Knowledge. Ieee Technology and Society Magazine, 2015, 34(4), 63–73. doi:10.1109/MTS.2015.2494359
  33. Pariser E. The Filter Bubble: What the Internet is Hiding From You. New York, NY: Penguin Press, 2011.
  34. Shank D. Data smog. Surviving the Information Glut. New York, NY: Harper Collins, 1997.
  35. Wang X., Guo Y., Yang M., Chen Y., Zhang W. Information ecology research: past, present, and future. Information Technology and Management, 2017, 18(1), 27–39.
  36. Wardle C., Derakhshan H. Information Disorder. Toward an interdisciplinary framework for research and policymaking. Council of Europe report DGI (2017)09. Published by the Council of Europe F‑67075. Strasbourg-Cedex, 2017.
  37. Young K.S. Clinical aspects of Internet addiction disorder. Меди­цин­ская пси­хо­ло­гия в Рос­сии, 2015, 4(33), 2. http://mprj.ru
  38. Youyou W., Kosinski M., Stillwella D. Computer-based personality judgments are more accurate than those made by humans. PNAS, 2015, 112(4), 1036–1040. doi:10.1073/pnas.1418680112
Источ­ник: Пси­хо­ло­ги­че­ские иссле­до­ва­ния, 2018, 11(59), 11. 

Об авторе

Сер­гей Алек­сан­дро­вич Дру­жи­лов — кан­ди­дат пси­хо­ло­ги­че­ских наук, доцент, веду­щий науч­ный сотруд­ник, отдел эко­ло­гии чело­ве­ка, Науч­но-иссле­до­ва­тель­ский инсти­тут ком­плекс­ных про­блем гиги­е­ны и про­фес­си­о­наль­ных забо­ле­ва­ний, Ново­куз­нецк, Россия.

Смот­ри­те также:

Категории

Метки

Публикации

ОБЩЕНИЕ

CYBERPSY — первое место, куда вы отправляетесь за информацией о киберпсихологии. Подписывайтесь и читайте нас в социальных сетях.

vkpinterest