Adol­fo Pla­sen­cia, 20 de mayo de 2025

Ima­gen  supe­rior: Los astro­tur­fers actúan aho­ra a tra­vés de las pan­ta­llas. AP

Las téc­ni­cas de enga­ño y mani­pu­la­ción de la con­duc­ta y la opi­nión lle­van fun­cio­nan­do mucho tiem­po. Tan­to para fines comer­cia­les o mediá­ti­cos como para pro­pó­si­tos polí­ti­cos, si bien la uni­ver­sa­li­za­ción de los medios digi­ta­les ha dado la opor­tu­ni­dad de usar­las a esca­la social y poder mani­pu­lar la opi­nión y modi­fi­car la con­duc­ta, a dis­tan­cia y de for­ma sutil, apro­ve­chan­do la tec­no­lo­gía. Des­de que se reco­pi­lan datos de los usua­rios en la red y se usan median­te la algo­rít­mi­ca pre­dic­ti­va, el modi­fi­car su con­duc­ta y emo­cio­nes se ha con­ver­ti­do en una prác­ti­ca masi­va de las pla­ta­for­mas, don­de inter­ac­cio­nan millo­nes de per­so­nas con su con­duc­ta sutil­men­te modi­fi­ca­da a dis­tan­cia sin que se aper­ci­ban de ello.

Su éxi­to se debe a la efi­ca­cia de la arqui­tec­tu­ra loga­rít­mi­ca con que fun­cio­nan las pla­ta­for­mas digi­ta­les glo­ba­les, que tie­nen como obje­ti­vo últi­mo el con­se­guir adic­ción y gene­rar un fuer­te enga­ge­ment (engan­che, en tra­duc­ción libre) de la aten­ción y un uso lo más inten­so y con­ti­nua­do posi­ble. Dicho enga­ge­ment es un cons­truc­to psi­co­ló­gi­co que supo­ne una cone­xión afec­ti­va, cog­ni­ti­va y con­duc­tual de los usua­rios en un entorno con­cre­to de inter­net, o en una acti­vi­dad defi­ni­da. La intro­duc­ción de diver­sos modos y usos tec­no­ló­gi­cos en la prác­ti­ca de los usua­rios de inter­net com­bi­na­dos con el regis­tro de sus pro­pios datos, meta­da­tos y nive­les emo­cio­na­les, ha con­se­gui­do obte­ner para sí una efi­ca­cia sin pre­ce­den­tes en «mone­ti­zar» (con­ver­tir en dine­ro, dicho en la jer­ga) el tiem­po de aten­ción de los usua­rios a gran esca­la por las pla­ta­for­mas glo­ba­les digi­ta­les que, com­bi­nan­do todo ello con el nego­cio glo­bal de la publi­ci­dad, están con­si­guien­do una tasa de bene­fi­cios como nun­ca antes con­se­guían otras empre­sas en la his­to­ria de la eco­no­mía.

Ori­gen y estra­te­gias del Astro­tur­fing

Den­tro de esa mani­pu­la­ción a dis­tan­cia de la opi­nión y, con ello, de la con­duc­ta a tra­vés de inter­net, des­ta­ca por los cam­bios socia­les y polí­ti­cos con­se­gui­dos, EE UU, país que de for­ma pio­ne­ra empe­zó a uti­li­zar téc­ni­cas evo­lu­cio­na­das del mar­ke­ting comer­cial, que pos­te­rior­men­te se apli­ca­ron con for­mas nue­vas a las cam­pa­ñas polí­ti­cas. Téc­ni­cas que han lle­ga­do a su paro­xis­mo en la épo­ca del trum­pis­mo, cuyos estra­te­gas ya lle­van a cabo un uso inten­si­vo de cam­pa­ñas del tipo Astro­tur­fing como vec­to­res de mani­pu­la­ción mediá­ti­ca y polí­ti­ca.

De estos usos deri­van con­cep­tos como pos­ver­dad, o men­ti­ra emo­ti­va, un neo­lo­gis­mo que impli­ca la dis­tor­sión deli­be­ra­da de una reali­dad en la que pri­man las emo­cio­nes y las creen­cias per­so­na­les fren­te a los hechos obje­ti­vos, con el fin de crear y mode­lar ad hoc la opi­nión públi­ca e influir en las acti­tu­des socia­les. Otra estra­te­gia es la lla­ma­da gene­ra­ción de hechos alter­na­ti­vos, tér­mino cuyo ori­gen (en inglés: «alter­na­ti­ve facts») es muy con­cre­to. La expre­sión se hizo céle­bre por una fra­se usa­da por la con­se­je­ra del pre­si­den­te nor­te­ame­ri­cano Donald Trump, Kell­yan­ne Con­way, duran­te una entre­vis­ta con el pro­gra­ma de noti­cias Meet the Press el 22 de enero de 2017, en la cual defen­dió una decla­ra­ción fal­sa del Secre­ta­rio de Pren­sa de la Casa Blan­ca, Sean Spi­cer, sobre la asis­ten­cia a la inves­ti­du­ra pre­si­den­cial (la de Biden) del pro­pio Trump.

De hecho, hoy, años des­pués, el Astro­tur­fing en EE UU se con­si­de­ra un sinó­ni­mo de pos­ver­dad, des­de la pri­me­ra vez que Trump se pre­sen­tó a la pre­si­den­cia, en una cam­pa­ña en la que com­bi­nó estra­te­gias de recur­sos publi­ci­ta­rios tele­vi­si­vos con otras basa­das en seg­men­ta­ción algo­rít­mi­ca y arte­fac­tos de las redes socia­les. En la segun­da lo ha vuel­to a hacer de for­ma más encrip­ta­da. Pero con­vie­ne saber de dón­de vie­ne esto. En su pri­me­ra cam­pa­ña estu­vo invo­lu­cra­da Cam­brid­ge Analy­ti­ca (CA), una empre­sa bri­tá­ni­ca que com­bi­na­ba mine­ría y aná­li­sis de datos con la comu­ni­ca­ción estra­té­gi­ca para los pro­ce­sos elec­to­ra­les. Sal­tó a la fama en 2018 como pro­ta­go­nis­ta del «escán­da­lo Face­­book-Cam­­bri­d­­ge Analy­ti­ca». Chan­nel 4 emi­tió, en mar­zo de 2018, unas decla­ra­cio­nes en las que dos eje­cu­ti­vos de CA admi­tían haber ges­tio­na­do toda la cam­pa­ña digi­tal de Donald Trump duran­te su can­di­da­tu­ra a la pre­si­den­cia de los EE UU. Según se escu­cha en aque­llas gra­ba­cio­nes, CA estu­vo a car­go de la inves­ti­ga­ción, aná­li­sis de datos, selec­ción y eje­cu­ción de la cam­pa­ña digi­tal y tele­vi­si­va de Trump. El res­to es his­to­ria.

Es impor­tan­te seña­lar que una carac­te­rís­ti­ca deci­si­va de cara a una socia­li­za­ción efi­cien­te de la mani­pu­la­ción con el Astro­tur­fing es la apa­rien­cia de espon­ta­nei­dad, es decir, que lo que ocu­rre, el esta­do de opi­nión fru­to de la mani­pu­la­ción, apa­rez­ca como algo que ha suce­di­do espon­tá­nea­men­te y no fru­to de cier­tas accio­nes exter­nas a la pro­pia elec­ción indi­vi­dual libre de las per­so­nas afec­ta­das. Pre­ci­sa­men­te el pro­pio nom­bre de Astro­tur­fing se deri­va de un doble jue­go de pala­bras en inglés, que pro­ce­de del con­cep­to de grass­roots (lite­ral­men­te «raíz de hier­ba»), refe­ri­do a un movi­mien­to de raíz social. Es una noción que se sue­le aso­ciar a movi­mien­tos «con base social», que sur­gen «de aba­jo», pro­duc­to de la inter­ac­ción espon­tá­nea de los miem­bros de una comu­ni­dad de per­so­nas, en rela­ción a algo con­cre­to. Por otra par­te, el segun­do sen­ti­do del jue­go de pala­bras tie­ne rela­ción con la mar­ca Astro Turf, una cono­ci­da mar­ca esta­dou­ni­den­se de cés­ped arti­fi­cial, cuyos pro­duc­tos están dise­ña­dos para pare­cer, o que apa­ren­ten, ser hier­ba natu­ral. Así, astro­tur­fing hace refe­ren­cia a esa arti­fi­cia­li­dad, a esa fal­sa base social de cier­tas cam­pa­ñas mediá­ti­cas o comer­cia­les.

El obje­ti­vo de una cam­pa­ña de este esti­lo es con­se­guir modi­fi­car la con­duc­ta a gran­des gru­pos huma­nos ocul­tan­do que exis­ten accio­nes de una enti­dad polí­ti­ca o comer­cial intere­sa­das en esa modi­fi­ca­ción, y como si ese cam­bio de opi­nión y/o con­duc­ta fue­ra fru­to de una reac­ción públi­ca espon­tá­nea e inde­pen­dien­te, o del con­ven­ci­mien­to indi­vi­dual fren­te a otras pro­pues­tas, o en el caso comer­cial, la pre­fe­ren­cia de otros pro­duc­tos, ser­vi­cios, etc.

Por supues­to, los maqui­na­do­res de tales téc­ni­cas y cam­pa­ñas tie­nen un nom­bre rela­cio­na­do. Se les lla­ma astro­tur­fers (que se podría tra­du­cir de los tér­mi­nos del argot que se usa en inglés como into­xi­ca­do­res o ces­pe­dis­tas). Estos into­xi­ca­do­res de opi­nión públi­ca o social inten­tan orques­tar o arti­cu­lar para ello accio­nes espe­cí­fi­cas coor­di­na­das median­te diver­sos medios y tec­no­lo­gías, lle­va­das a cabo por unos pocos indi­vi­duos apa­ren­te­men­te diver­sos y geo­grá­fi­ca­men­te dis­tri­bui­dos, tan­to a tra­vés de actua­cio­nes explí­ci­tas como más subli­mi­na­les, e inclu­so a veces ocul­tas, con el fin de dar la impre­sión de que hay entu­sias­mos popu­la­res mul­ti­tu­di­na­rios a favor de la cau­sa que los cita­dos astro­tur­fers pre­ten­den favo­re­cer.   

Tec­no­lo­gías digi­ta­les y téc­ni­cas de mani­pu­la­ción de la con­duc­ta.

Una de las téc­ni­cas más comu­nes en el desa­rro­llo de este már­ke­ting defor­ma­do es la de crear uno o más gru­pos de facha­da que sue­len auto­pre­sen­tar­se, sobre todo en el ámbi­to de la polí­ti­ca, aun­que tam­bién lo hacen en otras áreas socia­les, depor­ti­vas, de patro­ci­nio, etc. como defen­so­res del inte­rés públi­co o social, man­te­nien­do esa apa­rien­cia pero, en reali­dad, tra­ba­jan a favor de un patro­ci­na­dor cor­po­ra­ti­vo, comer­cial o polí­ti­co que sue­le finan­ciar de mane­ra ocul­ta estas cam­pa­ñas u ope­ra­cio­nes. La pro­yec­ción estra­té­gi­ca de las cam­pa­ñas de Astro­tur­fing son rela­ti­va­men­te fre­cuen­tes como par­te de la acti­vi­dad de cier­tos lob­bies. Y pue­den pro­yec­tar­se de for­ma sutil con las actua­les tec­no­lo­gías, tan­to hacia gran­des gru­pos socia­les en los que la espon­ta­nei­dad es más fácil de simu­lar masi­va­men­te, como tam­bién hacia gru­pos socia­les seg­men­ta­dos poco nume­ro­sos, pero deci­si­vos, como pue­de ser el caso de gru­pos de par­la­men­ta­rios o legis­la­do­res cuyo voto es cla­ve para que se aprue­ben deter­mi­na­das leyes en un par­la­men­to de modo favo­ra­ble a cier­tos intere­ses con­cre­tos.

Otra téc­ni­ca es el uso de los lla­ma­dos en la jer­ga títe­res de cal­ce­tín (sock pup­pets) que son enti­da­des fic­ti­cias con las que una sola per­so­na pue­de crear múl­ti­ples iden­ti­da­des fal­sas on-line para simu­lar apa­rien­cias de gran apo­yo popu­lar. Los títe­res de cal­ce­tín pue­den publi­car crí­ti­cas posi­ti­vas sobre un pro­duc­to o hin­char y fal­sear el apo­yo de una figu­ra popu­lar, o inclu­so ata­car a los par­ti­ci­pan­tes que cri­ti­can a una orga­ni­za­ción o publi­car crí­ti­cas y comen­ta­rios nega­ti­vos sobre com­pe­ti­do­res, con iden­ti­da­des fal­sas. Las empre­sas de Astro­tur­fing pue­den pagar al per­so­nal en fun­ción de la can­ti­dad de publi­ca­cio­nes que rea­li­zan que no sean mar­ca­das por los mode­ra­do­res. Lo últi­mo en ello es usar soft­wa­re de IA de ges­tión de per­so­na­jes digi­ta­les, para que cada publi­ca­ción paga­da pue­da ges­tio­nar de cin­co a cien, o más, de esos per­so­na­jes digi­ta­les con­vin­cen­tes en redes socia­les sin con­fun­dir­los.

Hacer Astro­tur­fing onli­ne con títe­res de cal­ce­tín se con­si­de­ra como una for­ma de ata­que Sybil, que con­sis­te en que un ata­can­te pue­de con­ta­mi­nar un sis­te­ma dis­tri­bui­do de inter­net, como una red social, la audien­cia de un even­to, una pági­na web comer­cial o cor­po­ra­ti­va, etc., crean­do un gran núme­ro de iden­ti­da­des que, en dicho ámbi­to digi­tal, apa­ren­tan ser inde­pen­dien­tes y espon­tá­neas, con el fin de obte­ner una influen­cia des­pro­por­cio­na­da, alte­rar valo­ra­cio­nes o modi­fi­car con­te­ni­do digi­tal. Muchas de las métri­cas de segui­do­res, vota­cio­nes, audien­cias u otras accio­nes on-line pue­den ser fal­sea­das de esta mane­ra. La apa­rien­cia de impor­tan­cia de even­tos o figu­ras basa­das en métri­cas de inter­net, como la de muchos influen­cers, por ejem­plo, se están fal­sean­do con estos méto­dos. Casi todas las métri­cas de inter­net que se sue­len dar comer­cial­men­te sue­len estar hin­cha­das, o ser lite­ral­men­te fal­sas median­te millo­nes de accio­nes digi­ta­les de títe­res de cal­ce­tín. Pue­de que lo ocu­rri­do hace unos días con el voto popu­lar en Euro­vi­sión pro­ven­ga de un ámbi­to de esta natu­ra­le­za mani­pu­la­da. 

El incre­men­to de la impor­tan­cia de la comu­ni­ca­ción digi­tal y el masi­vo uso de Inter­net, y de las redes socia­les en par­ti­cu­lar, ha hecho que se actua­li­cen con­cep­tos y téc­ni­cas de mani­pu­la­ción de las opi­nio­nes y con­duc­tas con medios digi­ta­les, ya que per­mi­ten el uso de estas téc­ni­cas que afec­tan a millo­nes de per­so­nas y aho­ra, con la seg­men­ta­ción algo­rít­mi­ca, rea­li­zar­las casi de for­ma per­so­na­li­za­da, tan­to para modi­fi­car opi­nio­nes y con­duc­tas como siem­pre habían hecho la publi­ci­dad y el mar­ke­ting, y tam­bién se usa­ban en el ámbi­to de la polí­ti­ca. Lo que cam­bia es que aho­ra se rea­li­zan a una esca­la que supera lo ante­rior en varios órde­nes de mag­ni­tud, y con una efi­ca­cia inusi­ta­da.

Esto ha obli­ga­do, por su cre­cien­te impor­tan­cia, qa ue se estu­die el impac­to de todas estas téc­ni­cas que no solo afec­tan a la vera­ci­dad en el mun­do del comer­cio y de nego­cios basa­dos en la noto­rie­dad, que hoy inclu­yen a la polí­ti­ca (el apo­yo a un pre­si­den­te en EE UU se basa, lite­ral­men­te, en las métri­cas de su «popu­la­ri­dad»). Se han con­ver­ti­do en algo muy rele­van­te en el ámbi­to de la gober­nan­za polí­ti­ca ya que aho­ra son posi­bles sig­ni­fi­ca­ti­vas mani­pu­la­cio­nes de opi­nión y ero­sio­nes de la con­fian­za median­te medios digi­ta­les, que se tra­du­cen inclu­so en una dis­tor­sión del deba­te demo­crá­ti­co, con lo que hoy se lla­man en polí­ti­ca las bata­llas por el rela­to en las que con­se­guir la vic­to­ria de la influen­cia, aun­que sea con argu­men­tos fal­sos o inven­ta­dos, más impor­tan­tes y efec­ti­vos que la pro­pia ver­dad para muchos estra­te­gas.

La pos­ver­dad o los hechos alter­na­ti­vos tie­nen que ver con estas téc­ni­cas. Obvia­men­te, se hacen de for­ma opa­ca y para enga­ñar. Así que hoy pre­ser­var en las demo­cra­cias el libre albe­drío y la toma de deci­sio­nes infor­ma­das y libres de los ciu­da­da­nos es más esen­cial que nun­ca. Los ciu­da­da­nos debe­ría­mos ser cons­cien­tes de que exis­ten y se usan estas nue­vas fór­mu­las digi­ta­les de mani­pu­la­ción de nues­tras opi­nio­nes y con­duc­tas con­tra noso­tros. Y todas estas téc­ni­cas mani­pu­la­do­ras de dudo­sa éti­ca debe­rían ser com­ba­ti­das por enti­da­des esta­ta­les apro­pia­das no par­ti­dis­tas, que fun­cio­nen como defen­so­ras del sis­te­ma demo­crá­ti­co des­de un con­sen­so amplio.

Law­ren­ce Les­sig, el pres­ti­gio­so pro­fe­sor de leyes de Har­vard seña­la­ba hace muy poco cuál es el reto que tene­mos en la actua­li­dad: «…Hemos entre­ga­do las gran­des pla­ta­for­mas digi­ta­les a un mode­lo de nego­cio que va en con­tra de la demo­cra­cia. Es un mode­lo de nego­cio que gana dine­ro cuan­to más nos inca­pa­ci­ta para tomar deci­sio­nes demo­crá­ti­cas. Y uno se pre­gun­ta, ¿cuán­do en la his­to­ria de la demo­cra­cia las empre­sas de medios más pode­ro­sas que cono­ce­mos han esta­do en con­tra de la posi­bi­li­dad mis­ma de que la demo­cra­cia fun­cio­ne? Ese es nues­tro desa­fío».

Misin­for­ma­ción, Des­in­for­ma­ción y Mal-Info­r­­ma­­ción

Todo lo rela­cio­na­do con la mani­pu­la­ción de opi­nio­nes y con­duc­tas ha pasa­do des­de ámbi­tos comer­cia­les a gene­ra­li­zar­se tam­bién en ámbi­tos de rela­ción social y polí­ti­ca. Y la mul­ti­pli­ca­ción de ins­tru­men­tos, téc­ni­cas y nue­vas tec­no­lo­gías digi­ta­les rela­cio­na­das ha pasa­do a ser de una enor­me impor­tan­cia social, cien­tí­fi­ca y tam­bién polí­ti­ca, y ya está rela­cio­na­da con la segu­ri­dad nacio­nal en la mayo­ría de los paí­ses, dado que la diná­mi­ca actual de la geo­po­lí­ti­ca obli­ga a tener en cuen­ta las gue­rras y agre­sio­nes ciber­né­ti­cas en las que se actúan con estas nue­vas for­mas en opa­cas accio­nes den­tro de las lla­ma­das gue­rras híbri­das del siglo XXI, en las que la modi­fi­ca­ción de la opi­nión y la con­duc­ta a dis­tan­cia es posi­ble a gran esca­la, gra­cias a la hiper-cone­­xión del mun­do actual.

Otros aspec­tos rela­cio­na­dos hoy con la des­in­for­ma­ción tie­nen que ver con la enor­me dimen­sión de los nego­cios digi­ta­les de las pla­ta­for­mas, en cuyo mode­lo de nego­cio ya se sabe con cer­te­za que la infor­ma­ción fal­sa es más ren­ta­ble que la ver­da­de­ra, y cuyo impac­to tam­bién pue­den pro­du­cir daños en la vida y en la salud físi­ca y men­tal de muchas per­so­nas, inde­fen­sas ante sus mani­pu­la­cio­nes per­so­na­li­za­das. Lo cual está obli­gan­do tam­bién a las auto­ri­da­des a con­tem­plar estos temas como de inte­rés pre­fe­ren­te para toda la socie­dad y para la defen­sa de la demo­cra­cia. Así que, en unas socie­da­des tan tec­no­lo­gi­za­das como las nues­tras, la trans­pa­ren­cia sobre el cómo, por quién, y con qué pro­pó­si­to se publi­can o tam­bién se hacen cir­cu­lar por las redes las infor­ma­cio­nes diri­gi­das y cuál es su impac­to, se ha vuel­to un asun­to esen­cial para los ciu­da­da­nos, pero tam­bién para la gober­nan­za, los legis­la­do­res y, obvia­men­te, tam­bién para la eco­no­mía y las empre­sas. Sin olvi­dar, cla­ro está, a los perio­dis­tas y a los medios de comu­ni­ca­ción. Hoy es de tan­to inte­rés el cómo y con qué velo­ci­dad cir­cu­la tan­to la infor­ma­ción veraz en la socie­dad, como qué ocu­rre con lo que serían sus antí­te­sis: la Misin­for­ma­ción, Des­in­for­ma­ción, Mal-Info­r­­ma­­ción y su mane­jo por medios digi­ta­les y algo­rít­mi­cos, con téc­ni­cas que evo­lu­cio­nan de modo cons­tan­te.

No dis­pon­go de espa­cio aquí para exten­der­me sobre todos los deta­lles en rela­ción a la impor­tan­cia que estos con­cep­tos han adqui­ri­do. Solo voy a seña­lar algu­nos aspec­tos más urgen­tes, en rela­ción al impac­to en el uso de las gran­des pla­ta­for­mas digi­ta­les glo­ba­les por el gra­do de vera­ci­dad o fal­se­dad de las infor­ma­cio­nes que hacen lle­gar cada día a miles de millo­nes de usua­rios. Urgen­tes, por­que esto suce­de en un momen­to polí­ti­co inter­na­cio­nal en el que, imi­tan­do direc­tri­ces del trum­pis­mo, se están des­mon­tan­do en las redes socia­les meca­nis­mos de defen­sa y mode­ra­ción con­tra la infor­ma­ción fal­sa y la acción de diver­sos tipos de los cita­dos astror­tu­fers, a los que me gus­ta lla­mar en espa­ñol, into­xi­ca­do­res o ces­pe­dis­tas, que han hecho de divul­gar y pro­yec­tar infor­ma­ción fal­sa su nego­cio y modo de vida.

Y tam­bién quie­ro mani­fes­tar mi con­ven­ci­mien­to de que la impor­tan­cia del perio­dis­mo genuino sigue sien­do, hoy más que nun­ca, un pilar de la demo­cra­cia que debe­mos cui­dar y defen­der. Para que no haya dudas, con­si­de­ro que las redes socia­les no son medios de comu­ni­ca­ción en el sen­ti­do de los mass media que Marshall McLuhan defi­nió, ali­men­ta­dos y capa­ci­ta­dos por el perio­dis­mo cua­li­fi­ca­do. Y, por tan­to, los influen­cers no son perio­dis­tas, ya que actúan des­de pla­ta­for­mas glo­ba­les –de las que son sim­ples comi­sio­nis­tas mer­ce­na­rios, por muy famo­sos que sean en la red–. Pla­ta­for­mas cuyo pro­pó­si­to es el áni­mo de lucro radi­cal sin que impor­ten sus daños cola­te­ra­les, como la adic­ción o la ero­sión del libre albe­drío de los usua­rios, como ya he mani­fes­ta­do ante­rior­men­te. Como afir­ma el pro­fe­sor da Sil­vei­ra, si no se ponen lími­tes a sus vora­ces mode­los de nego­cio, «sin regu­la­ción –ni dación de cuen­tas–, las pla­ta­for­mas digi­ta­les amplían los con­flic­tos y dis­tor­sio­nan los con­cep­tos de liber­tad y demo­cra­cia».

Aun­que aho­ra está de muchí­si­ma actua­li­dad todo esto no ha sur­gi­do de la nada. No pode­mos olvi­dar que, des­de hace años, estos pro­ce­sos están en mar­cha afec­tan­do a la polí­ti­ca median­te estra­te­gias de des­in­for­ma­ción y téc­ni­cas simi­la­res o pare­ci­das que comer­cian con datos de millo­nes de usua­rios de las redes socia­les, para usar­los tam­bién en cam­pa­ñas polí­ti­cas y elec­to­ra­les. Lo mos­tró con rotun­di­dad hace tiem­po la serie de infor­ma­cio­nes sobre Cam­brid­ge Analy­ti­ca Files del pres­ti­gio­so The Guar­dian, en espe­cial, el esca­lo­frian­te artícu­lo en el que la perio­dis­ta Caro­le Cad­wa­lladr entre­vis­tó a Chris­topher Wylie, ana­lis­ta y apa­sio­na­do de la cien­cia de datos que rela­ta, años des­pués, cómo fue su actua­ción en Cam­brid­ge Analy­ti­ca, una empre­sa de aná­li­sis de datos que, con pos­te­rio­ri­dad, tuvo un papel impor­tan­te en la cam­pa­ña a favor del Bre­xit para el refe­rén­dum que cau­só la sali­da de Gran Bre­ta­ña de la UE, y que como hemos seña­la­do, se con­vir­tió ade­más en agen­te cla­ve de las ope­ra­cio­nes digi­ta­les duran­te la pri­me­ra cam­pa­ña elec­to­ral de Donald Trump.

La empre­sa apro­ve­chó que había crea­do per­fi­les psi­co­ló­gi­cos de 230 millo­nes de esta­dou­ni­den­ses, hac­kean­do la red social Face­book –seg­men­tán­do­los por su gra­do de vul­ne­ra­bi­li­dad psi­co­ló­gi­ca, gra­cias a lo cual se les podría cam­biar fácil­men­te de for­ma per­so­na­li­za­da, sutil e imper­cep­ti­ble para ellos, su opi­nión y deci­sio­nes–. Y tam­bién resul­tan impre­sio­nan­tes las accio­nes de una empre­sa rela­cio­na­da con la ante­rior lla­ma­da SLC Elec­tions, espe­cia­li­za­da en «ope­ra­cio­nes psi­co­ló­gi­cas» (o PSYOP –eufe­mis­mo de ope­ra­cio­nes de gue­rra psi­co­ló­gi­ca– lle­va­das a cabo por EE UU), con las que eran capa­ces de cam­biar la opi­nión de la gen­te no median­te la per­sua­sión, sino median­te lo que lla­man el «domi­nio infor­ma­ti­vo», un con­jun­to de téc­ni­cas que inclu­ye rumo­res, des­in­for­ma­ción y noti­cias fal­sas.  

Por ello me quie­ro hacer aquí eco del tex­to publi­ca­do sobre la des­in­for­ma­ción de un gru­po de inves­ti­ga­do­res de varias uni­ver­si­da­des espa­ño­las que, a su vez, han seña­la­do el intere­san­tí­si­mo pri­mer capí­tu­lo del estu­dio del Foro con­tra las Cam­pa­ñas de Des­in­for­ma­ción de 2024 del Depar­ta­men­to de Segu­ri­dad Nacio­nal del Esta­do Espa­ñol, que ha des­cri­to al menos un glo­sa­rio de 125 tér­mi­nos cla­ve «rela­cio­na­dos con las cam­pa­ñas de des­in­for­ma­ción que faci­li­tan la com­pren­sión y el uso cohe­ren­te de tér­mi­nos, evi­tan­do con­fu­sio­nes y pro­por­cio­nan­do una base común para des­cri­bir con­cep­tos, téc­ni­cas y estra­te­gias, dada la fal­ta de uni­for­mi­dad y homo­ge­nei­dad en la ter­mi­no­lo­gía emplea­da has­ta aho­ra en la socie­dad espa­ño­la».

Seña­la­ré aquí solo algu­nas defi­ni­cio­nes con­cre­tas, aun­que el deta­lle se pue­de con­sul­tar en los enla­ces del párra­fo ante­rior. Des­cri­bo aho­ra las tres defi­ni­cio­nes bási­cas:

  • Misin­for­ma­ción es infor­ma­ción fal­sa, pero no se crea ni se com­par­te con la inten­ción de cau­sar daño.
  • Des­in­for­ma­ción es un con­te­ni­do que se crea y difun­de de modo deli­be­ra­do para enga­ñar, per­ju­di­car o mani­pu­lar.
  • Mal-Info­r­­ma­­ción es una infor­ma­ción basa­da en hechos, pero saca­da de su con­tex­to ori­gi­nal para enga­ñar, per­ju­di­car, mani­pu­lar o infrin­gir daño a una per­so­na, orga­ni­za­ción o país.

Evi­tar la tram­pa del meme y la tor­men­ta per­fec­ta

En el con­tex­to digi­tal, y en el uso de inter­net, inclu­so con los nue­vos mode­los de IA, para saber cómo com­ba­tir la des­in­for­ma­ción, es muy nece­sa­rio enten­der pri­me­ro cómo se pro­pa­ga. Con la lle­ga­da de la era de Inter­net y las redes socia­les, la infor­ma­ción se difun­de con rapi­dez, a menu­do con un solo clic del ratón. Tam­bién es muy con­ve­nien­te no ser lo habi­tual­men­te inge­nuos que somos en la red, mucho más que en nues­tra vida del mun­do físi­co. La diná­mi­ca de las redes socia­les está pen­sa­da como pro­duc­to de sofis­ti­ca­dos sis­te­mas algo­rít­mi­cos de alcan­ce gene­ral por las empre­sas due­ñas de las pla­ta­for­mas glo­ba­les como Meta –solo la pla­ta­for­ma Meta es due­ña de las redes socia­les Face­book, Ins­ta­gram, WhatsApp y Mes­sen­ger, entre otras, con unos ingre­sos anua­les con­jun­tos de 134.902 millo­nes de $; más que todo el gas­to anual de la sani­dad públi­ca espa­ño­la–; o como X, Tik­Tok y otras. Es ese poder algo­rít­mi­co de sus sis­te­mas onli­ne el que, ade­más de gene­rar adic­ción digi­tal o sin sus­tan­cia, domi­na a sus usua­rios en sus casi infa­li­bles tram­pas cog­ni­ti­vas. Ade­más, con­si­guen que cai­ga­mos en un esta­do de ansio­sa como­di­dad nihi­lis­ta cuyo fin es que sea­mos más pro­duc­ti­vos para ellas, aumen­tan­do la velo­ci­dad en que desea­mos trans­mi­tir y re-enviar lo que nos ha lle­ga­do a nues­tros con­tac­tos con tru­cos, entre otros el scroll infi­ni­to que apa­re­ce en nues­tra pan­ta­llas, que usa­mos sin pen­sar y sin dar­nos cuen­ta de que, en reali­dad, hacien­do eso, esta­mos tra­ba­jan­do gra­tis para ellas muchas hora al día, y con­tri­bu­yen­do de modo ino­cen­te con nues­tra pro­pio tiem­po y aten­ción a sus ingen­tes bene­fi­cios eco­nó­mi­cos. Las micro­des­car­gas cons­tan­tes de dopa­mi­na que pro­vo­can nos hacen creer que ese tiem­po es ale­gre y diver­ti­do pero, en reali­dad, se tra­ta de una ale­gría momen­tá­nea e indu­ci­da, y  duran­te el mis­mo esta­mos dedi­ca­dos a gene­rar dóla­res en sus cajas regis­tra­do­ras,

Como ejem­plo sig­ni­fi­ca­ti­vo en webs de direc­cio­nes abier­tas y públi­cas, dan por hecho que no vamos a negar­nos a acep­tar los coo­kies, el ins­tru­men­to más gene­ral para reco­lec­tar datos de los usua­rios (inclu­so la web de La Mon­cloa tie­ne una fra­se de un supues­to que dice: «Este sitio web asu­me que acep­ta el uso de coo­kies para nave­gar por el mis­mo»); o las de los Minis­te­rios; o las de otras enti­da­des públi­cas, por ejem­plo, uni­ver­si­da­des, que pare­cen no dar impor­tan­cia a la reco­lec­ción de datos a tra­vés de sus pági­nas web.

Es decir, que has­ta nues­tras enti­da­des públi­cas con­tri­bu­yen a la reco­lec­ción y fago­ci­ta­ción de nues­tros datos, en aspec­tos que, sutil­men­te, hacen que noso­tros, al menos en par­te, sea­mos con­tri­bui­do­res y algo astro­tur­fers, inclu­so de modo invo­lun­ta­rio, eli­mi­nán­do­nos el tiem­po de refle­xión, y mane­jan­do los con­te­ni­dos en la pan­ta­lla del móvil, casi de for­ma auto­má­ti­ca y sin pen­sar, median­te herra­mien­tas como el cita­do scroll infi­ni­to y otras herra­mien­tas muy pen­sa­das para ello, que nos indu­cen a par­ti­ci­par en una carre­ra por ser los pri­me­ros en publi­car o en re-enviar la infor­ma­ción, así como en pro­mo­ver su retrans­mi­sión o pro­mo­ción y, tam­bién, a reac­cio­nar casi siem­pre de for­ma irre­fle­xi­va ante las decla­ra­cio­nes de otros que, en muchos casos, en reali­dad no sabe­mos ni quie­nes son (hay mucha iden­ti­dad fin­gi­da en las redes socia­les). Muchas per­so­nas están aho­ra inter­ac­tuan­do en su pan­ta­lla con ava­ta­res que apa­ren­tan ser per­so­nas que, en reali­dad, no exis­ten y solo son soft­wa­re. Esto se está mul­ti­pli­can­do con la IA gene­ra­ti­va.

Tam­bién, de modo cons­tan­te las per­so­nas conec­ta­das sue­len caer en la lla­ma­da tram­pa del meme, sobre todo nave­gan­do en el móvil con inter­faz tác­til, en cuya pan­ta­lla apa­re­ce en nues­tro feed –corrien­te con­ti­nua e ince­san­te de con­te­ni­do for­ma­da por publi­ca­cio­nes, fotos y vídeos–, en las redes socia­les, ali­men­ta­do por el suso­di­cho scroll infi­ni­to. Cuan­do apa­re­ce algo en nues­tro telé­fono con algún matiz atrac­ti­vo o gra­cio­so, casi siem­pre par­ti­ci­pa­mos sin pen­sar­lo, como víc­ti­mas y sier­vos de la gle­ba digi­tal, en el comer­cio de la cade­na de sumi­nis­tro glo­bal de difu­sión de nume­ro­sos memes o infor­ma­cio­nes que, en reali­dad, han sido crea­dos para que los usua­rios los mova­mos por la red, cayen­do una y otra vez en esa tram­pa cog­ni­ti­va casi infa­li­ble, como ocu­rre con millo­nes de per­so­nas.

Todo esto que a mucha gen­te aún le pare­ce nue­vo fue des­cri­to hace tiem­po por la Unes­co. El explo­si­vo cre­ci­mien­to del uso en las redes socia­les de las pla­ta­for­mas glo­ba­les, uni­do a prác­ti­cas más insi­dio­sas como la dis­tri­bu­ción inten­cio­na­da de des­in­for­ma­ción para obte­ner bene­fi­cios eco­nó­mi­cos o polí­ti­cos, ha crea­do lo que la Orga­ni­za­ción de las Nacio­nes Uni­das para la Edu­ca­ción, la Cien­cia y la Cul­tu­ra (Unes­co) deno­mi­na una «tor­men­ta per­fec­ta».

Para con­cluir, quie­ro recor­dar y actua­li­zar aquí, dada la coyun­tu­ra en la que hoy nos encon­tra­mos inva­di­da por múl­ti­ples for­mas de infor­ma­ción fal­sa, las tres cau­sas que per­mi­ten que una ingen­te can­ti­dad de des­in­for­ma­ción nos atra­pe cada día, como seña­ló la Unes­co:

  1. Colap­so de los mode­los de nego­cio tra­di­cio­na­les. El rápi­do des­cen­so de los ingre­sos publi­ci­ta­rios y la migra­ción de la publi­ci­dad a los medios digi­ta­les hacen que las redac­cio­nes tra­di­cio­na­les dis­pon­gan de muchos menos recur­sos. Esto, a su vez, ha pro­vo­ca­do una reduc­ción de la cali­dad de las noti­cias y menos tiem­po para «con­tro­les y equi­li­brios». Tam­bién fomen­ta el pseu­­do-perio­­di­s­­mo de «cebo-de-clic» o «click­bait». Como resul­ta­do, los medios tra­di­cio­na­les están per­dien­do audien­cia, y los con­su­mi­do­res de medios se están pasan­do a pro­duc­tos de noti­cias «entre igua­les» que ofre­cen «acce­so bajo deman­da». Y lo que es más impor­tan­te, las noti­cias «de igual a igual» care­cen de éti­ca y nor­mas con­sen­sua­das, como sí exis­ten en el perio­dis­mo.
  2. Trans­for­ma­ción digi­tal de las redac­cio­nes, la narra­ti­va y el rela­to. Con el desa­rro­llo de la era de la infor­ma­ción, se obser­va una trans­for­ma­ción digi­tal per­cep­ti­ble en la indus­tria perio­dís­ti­ca. Esta trans­for­ma­ción obli­ga a los perio­dis­tas a pre­pa­rar con­te­ni­do para múl­ti­ples pla­ta­for­mas, lo que limi­ta su capa­ci­dad para ana­li­zar ade­cua­da­men­te los hechos. A menu­do, los perio­dis­tas apli­can el prin­ci­pio de «publi­ca­ción prio­ri­ta­ria en redes socia­les», median­te el cual sus artícu­los se publi­can de for­ma direc­ta en redes socia­les para satis­fa­cer la deman­da de la audien­cia en tiem­po real. Esto, a su vez, pro­mue­ve el perio­dis­mo de click­bait y la bús­que­da de la vira­li­dad en lugar de la cali­dad y la pre­ci­sión.
  3. La crea­ción de nue­vos eco­sis­te­mas infor­ma­ti­vos. Con el cre­cien­te acce­so a las redes socia­les, los usua­rios pue­den ges­tio­nar sus pro­pios flu­jos de con­te­ni­do y crear sus pro­pias «redes de con­fian­za» o «cáma­ras de reso­nan­cia» (uni­dad bási­ca de la arqui­tec­tu­ra de inter­ac­ción de una red social que son don­de se pola­ri­zan y cen­tri­fu­gan hacia los extre­mos las opi­nio­nes y las con­duc­tas), don­de se pro­pa­ga con­te­ni­do inexac­to, fal­so, mali­cio­so y pro­pa­gan­dís­ti­co. Estos nue­vos eco­sis­te­mas per­mi­ten el flo­re­ci­mien­to de la Misin­for­ma­ción y la Des­in­for­ma­ción, ya que los usua­rios son más pro­pen­sos a com­par­tir his­to­rias emo­cio­nan­tes o sen­sa­cio­na­lis­tas y mucho menos pro­pen­sos a eva­luar de for­ma ade­cua­da las fuen­tes o los hechos. Cabe des­ta­car que, una vez difun­di­da, un usua­rio que se per­ca­ta de que una decla­ra­ción pue­de cons­ti­tuir des­in­for­ma­ción es, en gran medi­da, inca­paz de retrac­tar­se o corre­gir­la.

Como con­clu­sión apre­su­ra­da. Estas estra­te­gias de mani­pu­la­ción masi­va que están tenien­do lugar son como un torpe­do en la línea de flo­ta­ción de la con­fian­za en la gen­te nor­mal del Inter­net abier­to que cono­cía­mos. Si no pode­mos estar segu­ros de que lo que vemos o lee­mos en la red o en redes socia­les es obra de quien dice ser, ¿cómo se va a resen­tir nues­tra con­fian­za en la valo­ra­ción u opi­nio­nes sobre un hotel, una pelí­cu­la, un res­tau­ran­te o un pro­duc­to o ser­vi­cio? Creo que se va a resen­tir en una dimen­sión enor­me.

Y voy más allá. Si la fal­sa infor­ma­ción inva­de tam­bién las noti­cias u opi­nio­nes sobre la demo­cra­cia, cuya lim­pie­za se basa en gran modo en la con­fian­za, ¿qué pue­de ocu­rrir con nues­tra demo­cra­cia si cre­ce en las pan­ta­llas, ante nues­tros ojos, la comu­ni­ca­ción pro­fu­sa­men­te basa­da en men­ti­ras digi­ta­les mer­ce­na­rias que no se dis­tin­guen de la ver­dad? Creo que esta es una nue­va ame­na­za sobre la que refle­xio­nar y a la que debe­re­mos hacer fren­te. Será esen­cial no rela­ti­vi­zar a la baja la impor­tan­cia de toda esta des­in­for­ma­ción, así como los per­ni­cio­sos efec­tos sobre noso­tros de todas estas nue­vas estra­te­gias de mani­pu­la­ción que nos ame­na­zan. No hay que ceder ante la posi­ción del pen­sa­mien­to nihi­lis­ta de que estos usos de la tec­no­lo­gía que nos impo­nen o con que nos inten­tan mani­pu­lar son algo inevi­ta­ble. En modo alguno creo que sea así. La pasi­vi­dad ante todo ello es lo menos reco­men­da­ble. Lo reco­men­da­ble es deci­dir por noso­tros mis­mos, y sin excep­cio­nes: qué debe o pue­de entrar, y qué no, en nues­tro sis­te­ma cog­ni­ti­vo. Si nos pro­te­ge­mos con­tra el exce­so de infor­ma­ción no desea­da con aser­ti­vi­dad, nos irá mejor. Dicho que­da.

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia