No solo los algoritmos de TikTok están causando daños. También los de las otras plataformas sociales que funcionan igual, lo hacen. Pero los algoritmos del sistema de recomendación de YouTube, y el de la red social TikTok son los más adictivos de todo el internet social.

El Juez Paul Matey, del tri­bu­nal fede­ral del ter­cer cir­cui­to (tri­bu­nal inter­me­dio en EE.UU. entre los tri­bu­na­les fede­ra­les y el Supre­mo), ha toma­do una deci­sión his­tó­ri­ca con­tra­di­cien­do con su sen­ten­cia al tri­bu­nal ante­rior de pri­me­ra ins­tan­cia, decla­ran­do res­pon­sa­bles a la empre­sa Tik­Tok Inc. y a su matriz chi­na Byte­Dan­ce, empre­sas due­ñas de la pla­ta­for­ma Tik­Tok, de la muer­te de Nylah Ander­son una niña de diez años que par­ti­ci­pó en la red social en el «reto del apa­gón», un horro­ro­so e irra­cio­nal reto, que le aca­bó cos­tan­do la vida a la niña. Lue­go vere­mos deta­lles.

La infor­ma­ción cita­da me lle­gó por Matt Sto­ller direc­tor de Inves­ti­ga­ción del Ame­ri­can Eco­no­mic Liber­ties Pro­ject y autor del libro Goliat que tra­ta de la gue­rra de los 100 años entre el poder mono­po­lís­ti­co y la demo­cra­cia. Fue Matt quien me seña­ló pri­me­ro la impor­tan­cia his­tó­ri­ca de esta sen­ten­cia y del juez que ha dic­ta­mi­na­do que Tik­Tok debe ser juz­ga­da por mani­pu­lar a niños para que se hagan daño, sal­tán­do­se los ante­rio­res cri­te­rios de apli­ca­ción de la ley duran­te años cono­ci­da como la Sec­ción 230 de la Ley de Decen­cia en las Comu­ni­ca­cio­nes de EE.UU. Ley que con­ce­dió de fac­to una lar­ga impu­ni­dad a las empre­sas de pla­ta­for­mas de redes socia­les sobre los daños que cau­sen, siem­pre y cuan­do pudie­ran decir que «el algo­rit­mo fue quien lo hizo». Una sen­ten­cia valien­te la de este juez, que hace retro­ce­der la ley 230 y pone fin al escu­do sobre la res­pon­sa­bi­li­dad que las gran­des empre­sas tec­no­ló­gi­cas uti­li­zan para come­ter malas accio­nes sin con­se­cuen­cias y con casi total impu­ni­dad.

Las reac­cio­nes no se han hecho espe­rar. Por ejem­plo, la pro­fe­so­ra y juris­ta Zephyr Tea­chout de la Escue­la de Leyes de la Fordham Uni­ver­sity de Nue­va York, ha mani­fes­ta­do que «La sen­ten­cia es una deci­sión real­men­te sus­tan­cial e impor­tan­te, que por fin inter­pre­ta la Direc­ti­va 230 tal y como esta­ba con­ce­bi­da, y no amplía la inmu­ni­dad a los con­te­ni­dos pro­mo­vi­dos algo­rít­mi­ca­men­te». En el mis­mo sen­ti­do su cole­ga Mike Sacks seña­la que «el tri­bu­nal CA3 afir­ma en la sen­ten­cia que la Sec. 230 no pro­te­ge a Tik­Tok y Byte­Dan­ce por crear un algo­rit­mo que ali­men­tó el ‘desa­fío blac­kout ‑apa­­gón-’ y tuvo como víc­ti­ma direc­ta a una niña de 10 años que inten­tó seguir este irra­cio­nal reto has­ta las últi­mas con­se­cuen­cias y se ahor­có acci­den­tal­men­te».

La Sec­ción 230 de la Ley de Decen­cia en las Comu­ni­ca­cio­nes ha sido un pun­tal en los mode­los de nego­cio de las actua­les gran­des tec­no­ló­gi­cas y pla­ta­for­mas de redes socia­les, dotán­do­les de impu­ni­dad legal des­de hace mucho tiem­po, a pesar de que ya es un cla­mor el enor­me daño en salud men­tal que cau­san sus pla­ta­for­mas. y que ha hecho que el mis­mí­si­mo Ayun­ta­mien­to de Nue­va York haya decla­ra­do que las redes socia­les son un «peli­gro para la salud públi­ca» y una toxi­na medioam­bien­tal».

No solo los algo­rit­mos de Tik­Tok están cau­san­do daños. Tam­bién los de las otras pla­ta­for­mas socia­les que fun­cio­nan igual, lo hacen. Una inves­ti­ga­ción de 2022 de Finan­cial Times lo seña­la­ba en deta­lle. Los grá­fi­cos a con­ti­nua­ción, hablan por sí mis­mos.

Y los daños no solo son de adic­ción, sino tam­bién de diver­sos tipos de pro­ble­mas de salud men­tal que, en el caso de algu­nas eda­des ado­les­cen­tes, se ha con­ver­ti­do en un autén­ti­co pro­ble­ma social. En el mis­mo infor­me de FT se pue­de ver el grá­fi­co de la evo­lu­ción esta­dís­ti­ca de sui­ci­dios infan­ti­les y ado­les­cen­tes tan­to en chi­cos como en chi­cas en los últi­mos 30 años en EE.UU. y Rei­no Uni­do, tie­nen un pun­to de infle­xión al alza, jus­to el año 2008, –año del naci­mien­to a la popu­la­ri­dad de este tipo de pla­ta­for­mas de red social y de la explo­sión de Face­book–. En este año, cam­bió la ten­den­cia y se ace­le­ró en el núme­ro de casos:

Nor­mal­men­te estas dispu­tas lega­les aca­ban, –y se aca­llan–, median­te un acuer­do eco­nó­mi­co de indem­ni­za­ción. Pero, yo creo que este pro­ble­ma, ya va mucho más allá de indem­ni­za­cio­nes con­cre­tas y dine­ro. Es ya un pro­ble­ma humano y social en cre­ci­mien­to. Y ya se ha demos­tra­do que las deman­das no han ser­vi­do para que estas enor­mes empre­sas tec­no­ló­gi­cas cam­bien su con­duc­ta sobre el con­trol y las prác­ti­cas de sus usua­rios. Y las mul­tas que se les impo­nen son como pin­char a un ele­fan­te como un alfi­ler. En el mis­mo infor­me apa­re­ce otro muy preo­cu­pan­te grá­fi­co (ver a con­ti­nua­ción) que da una idea de dicho cre­ci­mien­to y de que en salud men­tal en los jóve­nes vamos casi hacia una epi­de­mia social. Y los usos de la tec­no­lo­gía digi­tal que impo­nen las pla­ta­for­mas socia­les tie­nen que ver con ello.

Muchos padres y legis­la­do­res cul­pan, y con razón, a las empre­sas de redes socia­les que, según ellos, desa­rro­llan pro­duc­tos alta­men­te adic­ti­vos que expo­nen a los jóve­nes a mate­rial noci­vo con, a veces, fata­les con­se­cuen­cias en sus vidas en el mun­do real. Resul­ta iró­ni­co que las pla­ta­for­mas se defien­dan ale­gan­do que su tec­no­lo­gía per­mi­te a las per­so­nas esta­ble­cer rela­cio­nes bene­fi­cio­sas para la salud men­tal. Lo cual, no siem­pre es cier­to. A veces suce­de lo con­tra­rio.

Jonathan Haidt, psi­có­lo­go social y pro­fe­sor de la Escue­la de Nego­cios Stern de la Uni­ver­si­dad de Nue­va York decla­ró a FT que «Cuan­do apa­re­cie­ron las redes socia­les o Inter­net de alta velo­ci­dad, dis­tin­tas inves­ti­ga­cio­nes se encon­tra­ron, casi todas, con la mis­ma his­to­ria. La de que la salud men­tal está cayen­do en pica­do, espe­cial­men­te en el caso de las chi­cas». Sin embar­go, algu­nos aca­dé­mi­cos seña­lan que cada vez hay más estu­dios que son difí­ci­les de igno­rar. La pro­li­fe­ra­ción de telé­fo­nos inte­li­gen­tes com­bi­na­dos con Inter­net de alta velo­ci­dad y apli­ca­cio­nes de redes socia­les, están recon­fi­gu­ran­do el cere­bro de los niños y pro­vo­can­do un aumen­to de los tras­tor­nos ali­men­ta­rios, depre­sión y ansie­dad. El infor­me de FT seña­la­ba casos per­so­na­les con la cola­bo­ra­ción y per­mi­so de las fami­lias para con­cien­ciar a la socie­dad.

Dos casos de sui­ci­dio ado­les­cen­te docu­men­ta­dos en el Infor­me de Finan­cial Times.

Le empre­sa Meta, due­ña de Face­book e Ins­ta­gram, insis­te en que sus pla­ta­for­mas tam­bién eli­mi­nan con­te­ni­dos rela­cio­na­dos con el sui­ci­dio, las auto­le­sio­nes y los tras­tor­nos ali­men­ta­rios. Estas polí­ti­cas se apli­ca­ron con más vigor tras la muer­te de la cole­gia­la bri­tá­ni­ca de 14 años Molly Rus­sell, que se qui­tó la vida en 2017 des­pués de ver miles de publi­ca­cio­nes sobre el sui­ci­dio. Los casos simi­la­res aumen­tan.

En octu­bre de 2023, 41 de esta­dos fe EE.UU. deman­da­ron a Meta, empre­sa matriz de Ins­ta­gram, por supues­tas fun­cio­nes adic­ti­vas y daños a la salud men­tal de los jóve­nes. Se han pre­sen­ta­do deman­das lega­les en 41 esta­dos, inclui­da una con­jun­ta de 33 fis­ca­les gene­ra­les, en las que se acu­sa al pro­pie­ta­rio de Ins­ta­gram y Face­book de «sacar pro­ve­cho eco­nó­mi­co del dolor de los niños». En cier­to modo es un nue­vo sis­te­ma digi­tal de explo­ta­ción infan­til. Las deman­das debe­rían ser un paso ade­lan­te en exi­gir res­pon­sa­bi­li­da­des a las, has­ta aho­ra, into­ca­bles pla­ta­for­mas de redes socia­les gra­cias a la Ley 230. Pero los hechos indi­can que la socie­dad y sus auto­ri­da­des no reac­cio­nan, insis­to, por­que no hay nin­gu­na sen­sa­ción de peli­gro en la gen­te ante unos ins­tru­men­tos y usos tec­no­ló­gi­cos que acti­van a todos cons­tan­te­men­te, sin des­can­so y per­so­na­li­za­da­men­te, el cir­cui­to cere­bral de recom­pen­sa.

La pers­pec­ti­va sobre todo ello te cam­bia, doy fe, cuan­do cono­ces un caso cer­cano y per­so­nal, o cuan­do te cuen­tan cómo es el reci­bir en tu día a día en el hos­pi­tal, tan fre­cuen­te­men­te, y cada vez más, casos de fami­lias con un niño o niña que se aca­ba de inten­tar sui­ci­dar, como le ocu­rre a Fran­cis­co Villar, psi­có­lo­go infan­til y juve­nil, exper­to en psi­co­lo­gía clí­ni­ca y con­duc­ta sui­ci­da en la ado­les­cen­cia, y autor del libro Cómo las pan­ta­llas devo­ran a nues­tro hijos, que pre­sen­ta­mos jun­tos. Lo nor­mal es que nos digan que esta­mos exa­ge­ran­do, pero créa­me el lec­tor. No exa­ge­ra­mos en abso­lu­to. Pero resul­ta difí­cil decir­le a toda esa gen­te que son­ríe a su móvil por la calle pre­sos de una acti­tud nihi­lis­ta, usan­do una App que pue­de ser mor­tí­fe­ra, no para todo el mun­do, pero sí para per­so­nas vul­ne­ra­bles, ya que no tie­nen el menor nivel de aler­ta sobre ello.

Para enten­der cómo es posi­ble que Nylah Ander­son una niña de diez años que se metie­ra de for­ma extre­ma en el oscu­ro pozo, del «Reto del apa­gón» (así se lla­ma), que aca­bó con la vida de esta la niña, hemos devol­ver al caso de Tik­Tok y ver en deta­lle, cómo actúan sus algo­rit­mos en casos como este y otros. La muer­te pre­ma­tu­ra de Nylah y otras como la de ella, todas evi­ta­bles, ya jus­ti­fi­can, por sí solas esta dia­tri­ba que estás leyen­do, lec­tor.

Tik­Tok, no es lo mis­mo den­tro que fue­ra de Chi­na

Como expli­ca Móni­ca Torres en la revis­ta del Ins­ti­tu­to Poli­téc­ni­co de Mon­te­rrey, los algo­rit­mos de Tik­Tok, son los más adic­ti­vos de los cono­ci­dos has­ta la fecha. Lo hacen glo­bal­men­te, y ade­más guia­dos por datos que le pro­por­cio­na ino­cen­te­men­te el pro­pio usuario/a, que en muchos casos aca­ba, por sí mis­mo, den­tro de una sofis­ti­ca­da tram­pa de adic­ción, hoy por hoy casi infa­li­ble, y que, ade­más, lle­va siem­pre con­si­go. Sin impor­tar tu ciu­dad o lugar de resi­den­cia, a qué te dedi­ques, o cómo sea tu tiem­po de ocio o tra­ba­jo, Tik­Tok es una red social que pro­me­te engan­char a sus usua­rios en solo unas horas, envian­do, para que no te dis­trai­gas en otra cosa, de mane­ra indi­vi­dua­li­za­da, cons­tan­tes noti­fi­ca­cio­nes sono­ras y grá­fi­cas que se super­po­nen cons­tan­te­men­te a cual­quier cosa que esté en ese momen­to en la pan­ta­lla. Esas con­ti­nuas inte­rrup­cio­nes des­tru­yen, por ejem­plo, los pro­ce­sos de apren­di­za­je en las aulas, si no se les pone coto de algu­na mane­ra.

Algo que pare­ce ser el obje­ti­vo del algo­rit­mo de dicha App en el móvil, ‑median­te un com­ple­jo sis­te­ma dise­ña­do para enviar a sus usua­rios todo tipo de con­te­ni­dos–, son aque­llos que más los harán reac­cio­nar emo­cio­nal­men­te, seña­la­dos en los picos de su esta­dís­ti­ca pre­dic­ti­va emo­cio­nal regis­tra­da cons­tan­te­men­te por el móvil en el algo­rit­mo per­so­na­li­za­do de la App de Tik­Tok. Tam­bién ocu­rre en las demás.

Hay que hacer la sal­ve­dad de que esto ocu­rre en el Tik­Tok inter­na­cio­nal de la empre­sa chi­na Tik­Tok inc. que tie­ne su sede fis­cal en las Islas Salo­món, un paraí­so fis­cal. Pero no, –y esto es impor­tan­te–, en Dou­yin, la ver­sión de Tik­Tok de la mis­ma empre­sa, que solo está dis­po­ni­ble para usua­rios del inte­rior de Chi­na y que usa un algo­rit­mo dife­ren­te, aun­que ambas per­te­ne­cen al gigan­te empre­sa­rial Byte­Dan­ce, con sede en Chi­na y en cuyo con­se­jo se sien­ta un miem­bro del Comi­té Cen­tral del Par­ti­do Comu­nis­ta de Chi­na. La empre­sa Byte­dan­ce fun­cio­na bajo la super­vi­sión y regu­la­ción del Gobierno de Chi­na, al que entre­ga datos de ado­les­cen­tes de todo el mun­do ante cual­quier peti­ción de su gobierno «si fue­ra nece­sa­rio”. Aun­que Tik­Tok y Dou­yin com­par­ten esté­ti­ca, ofre­cen con­te­ni­dos con méto­dos dis­tin­tos. La ver­sión para el inte­rior de Chi­na de esta red social sí tie­ne sal­va­guar­dias y limi­ta­do­res de tiem­po para evi­tar el exce­so de uso sobre todo en los niños. Has­ta las auto­ri­da­des chi­nas cono­cen el daño que un mal uso de las pla­ta­for­mas pue­den hacer. De ahí que impon­gan seve­ras res­tric­cio­nes. Cual­quier padre cuyos hijos infrin­jan estas limi­ta­cio­nes pue­de aca­bar en la cár­cel ipso fac­to por ello.

Por lo vis­to, a los ges­to­res del Tik­Tok inter­na­cio­nal, –el que cono­ce­mos por ejem­plo en Espa­ña–, en cam­bio los niños y ado­les­cen­tes occi­den­ta­les no les pare­cen dig­nos de pro­tec­ción. Al con­ta­rio, para el uso por niños y niñas chi­nos impo­nen todo tipo de sal­va­guar­dias y res­tric­cio­nes. Por ejem­plo: para evi­tar la sobre­ex­po­si­ción, Dou­yin esta­ble­ce por defec­to un tiem­po máxi­mo de 40 minu­tos en la App para los usua­rios chi­nos meno­res de 14 años. Tam­bién para el inte­rior de Chi­na, el tiem­po de uso para ado­les­cen­tes entre los 15 y los 17 años se redu­ce a una hora. Ya los niños, niñas y ado­les­cen­tes en Chi­na se les impi­de y no pue­den usar Dou­yin de 22:00 a 06:00 horas. Ade­más, las temá­ti­cas de Dou­yin están muy limi­ta­das y deben cum­plir con las polí­ti­cas ema­na­das del Par­ti­do Comu­nis­ta Chino. Lo cual no digo que sea tran­qui­li­za­dor. Ade­más. en esta red en Chi­na se pro­mue­ven, como era obvio, con­te­ni­dos que impul­san valo­res nacio­na­les y men­sa­jes ofi­cia­les del esta­do. ¿Impor­ta todo esto a los usua­rios del mun­do y de Espa­ña, y a los perio­dis­tas que hablan y usan Tik­Tok? Pare­ce que no, en abso­lu­to. Es una moda digi­tal y eso pare­ce ser lo úni­co impor­tan­te para los nihi­lis­tas social media vic­tims.

La afi­la­da herra­mien­ta del scroll infi­ni­to de Tik­Tok

Hay otro deta­lle. El algo­rit­mo de Tik­Tok es alta­men­te per­so­na­li­za­ble y ali­men­ta el feed (una ban­da ver­ti­cal de con­te­ni­do con­ti­nuo y sin fin) que apa­re­ce la inter­faz de la App Tik­tok en pan­ta­lla del móvil al ele­gir For You Page (para tu pági­na). Téc­ni­ca­men­te esto se lla­ma scroll infi­ni­to y fue crea­do para ofre­cer a los usua­rios un flu­jo inter­mi­na­ble de con­te­ni­do, prio­ri­za­do a par­tir de lo que se ha regis­tra­do median­te la Apti­graphy y la Typ­po­graphy ‑como ya expli­qué en estas pági­nas– por los sen­so­res de su Smartpho­ne. Nada que apa­re­ce en la pan­ta­lla de al App es casual ni alea­to­rio como sue­le creer el usua­rio. El obje­ti­vo es aso­ciar lo que apa­re­ce en pan­ta­lla coin­ci­dien­do con picos de emo­ción en la esta­dís­ti­ca de uso de ese usua­rio en par­ti­cu­lar. Y ese tipo de con­te­ni­do es el que prio­ri­za el algo­rit­mo para enviar­lo cons­tan­te­men­te, con el fin de que no ten­gas tiem­po de tomar nin­gu­na deci­sión, ni haya tiem­pos muer­tos e inter­ac­túes al ins­tan­te, com­pul­si­va­men­te, sin pen­sar. Esto hace que la apli­ca­ción sea no sola­men­te entre­te­ni­da, sino que sea par­ti­cu­lar­men­te adic­ti­va. Es una sofis­ti­ca­da herra­mien­ta ante la que los usua­rios están inde­fen­sos, que les bom­bar­dea sin tiem­po para deci­dir, des­de que, engan­cha­dos, le siguen el jue­go al algo­rit­mo.

Car­los Sola­res, res­pon­sa­ble de Mar­ke­ting Digi­tal del Tech. Ins­ti­tu­te de Mon­te­rrey seña­la «El algo­rit­mo de Tik­Tok es mucho más agre­si­vo que el de otras pla­ta­for­mas. Ves un vídeo y lue­go, de inme­dia­to, ya caes en una cate­go­ría». Por su par­te, David Gue­rra, res­pon­sa­ble nacio­nal de Salud Emo­cio­nal de la Uni­ver­si­dad Tech. Mile­nio expli­ca: «Nos encie­rran en una bur­bu­ja y sólo nos mues­tran lo que supues­ta­men­te ‘que­re­mos ver’, esto ses­ga nues­tras opi­nio­nes des­de un ini­cio y nos aís­la del mun­do real». Algo espe­cial­men­te gra­ve en las per­so­nas de cor­ta edad ya que sus efec­tos sobre las men­tes infan­ti­les son tre­men­dos, como la ha pasa­do a la niña cita­da Nylah Ander­son que con diez años ya esta­ba en Tik­Tok de for­ma ile­gal. Pero la red social, igual que sus cole­gas, no hace cum­plir sus pro­pias nor­mas, ni se moles­ta en com­pro­bar la edad de los usua­rios. Me reite­ro, va en direc­ción con­tra­ria a lo que per­si­gue su mode­lo de nego­cio.

Ade­más, dicho algo­rit­mo bus­ca que no haya dos usua­rios que vean exac­ta­men­te los mis­mos vídeos en su pági­na cen­tral debi­do a que cuen­ta con una fun­ción de apren­di­za­je ite­ra­ti­vo. Gra­cias a ella, los vídeos que ves pue­den cam­biar con el tiem­po en fun­ción de tus pre­fe­ren­cias de visua­li­za­ción e inclu­so ape­lan­do al supues­to esta­do de áni­mo en el momen­to que te lo está midien­do los sen­so­res de su Smarpho­ne. Según Gue­rra «Este tipo de algo­rit­mos pue­den ser muy agre­si­vos según el uso que les demos, y el usua­rio debe­ría ser muy cons­cien­te de los datos con que él mis­mo lo ali­men­ta», cosa casi impo­si­ble en el uso com­pul­si­vo típi­co que sue­len hacer los ado­les­cen­tes y sin el tiem­po para pen­sar por si mis­mos, ya que les ha sido roba­do por inun­da­ción de infor­ma­ción.

Cómo fun­cio­na el algo­rit­mo de Tik­Tok y por qué es tan adic­ti­vo

El pres­ti­gio­so The Wall Street Jour­nal (WSJ) inves­ti­gó  ya en 2021 más de 100 cuen­tas para enten­der cómo fun­cio­na el algo­rit­mo de esta red, que ya se está con­si­de­ran­do como un ejem­plo pun­te­ro cuyas capa­ci­da­des de engag­ge­ment (engan­che) son un ejem­plo para las dis­tin­tas Apps con las que inter­ac­túan sobre todo los ado­les­cen­tes.

En tér­mi­nos inte­li­gi­bles para los no ini­cia­dos, el algo­rit­mo de Tik­Tok es un pode­ro­so sis­te­ma de reco­men­da­ción que deter­mi­na los vídeos que apa­re­ce­rán en la pági­na prin­ci­pal o For You Page del usua­rio, en cuan­to este abre la App de Tik­Tok en su móvil.

La pla­ta­for­ma gene­ra un nivel de adic­ción y de dopa­mi­na que ni Face­book, ni Twit­ter ni Ins­ta­gram ni WhatsApp con­si­guie­ron en su momen­to. Para lle­gar a su pun­to álgi­do, ini­cial­men­te el algo­rit­mo libe­ra una bate­ría de vídeos popu­la­res basán­do­se en los datos de regis­tro, y su tipo demo­grá­fi­co. Al ir aumen­tan­do la inter­ac­ción y las emo­cio­nes, cuyos picos mide la esta­dís­ti­ca pre­dic­ti­va de la App­ti­gra­fía y Tap­pi­gra­fía en la pan­ta­lla tác­til, del Smarpho­ne, esto se tra­du­ce en que la pla­ta­for­ma a par­tir de los sha­res (con­te­ni­dos com­par­ti­dos, re-envia­­dos, etc.); datos sobre el tiem­po en que se ve cada vídeo; qué  patro­nes de pau­sas y pul­sa­cio­nes se hacen sobre la pan­ta­lla (tip­po­graphy) y los likes (me gus­ta), el algo­rit­mo hará una con­fi­gu­ra­ción para poner en pan­ta­lla aque­llo que haga reac­cio­nar más inten­sa­men­te al usua­rio. El algo­rit­mo se adap­ta como un guan­te per­so­na­li­za­do a la res­pues­ta emo­cio­nal del usua­rio. Esto es tre­men­do por­que no deja de actuar nun­ca. Estos algo­rit­mos no duer­men ni des­can­san. La adic­ción está ser­vi­da.

En muy poco tiem­po, inclu­so en menos de una hora en cier­tos casos, la App habrá crea­do y cla­si­fi­ca­do un per­fil per­so­nal y según él y, retro­ali­men­ta­do sin que él lo sepa, por las pro­pias accio­nes del usua­rio. Irá envian­do suce­si­va­men­te y/o reco­men­dan­do una enor­me can­ti­dad de deter­mi­na­dos vídeos (has­ta el 90% en oca­sio­nes) rela­cio­na­dos y aso­cia­dos a los intere­ses que detec­tó en el pro­pio usua­rio. No olvi­de­mos que esta­mos hablan­do (aun­que no solo) de una gran can­ti­dad de usua­rios niños y/o ado­les­cen­tes.

Todo ello tie­ne obje­ti­vo de faci­li­tar el enga­ge­ment de los usua­rios con la App, con­su­mien­do el con­te­ni­do que fue selec­cio­na­do «sólo para ti» y hacien­do más pro­ba­ble que cai­gas en un hoyo de infor­ma­ción o rab­bit hole (es una refe­ren­cia a la gua­ri­da del cone­jo de Ali­cia en el País de las Mara­vi­llas), que es lo que le pasó a la niña Nylah Ander­son con 10 años, quien se aca­bó auto-estra­n­­gu­­la­n­­do a sí mis­ma.

«La con­se­cuen­cia es que el usua­rio lle­ga a un pun­to en el que el algo­rit­mo sólo le mues­tra con­te­ni­do de per­so­nas que están opi­nan­do exac­ta­men­te lo mis­mo que él, algo que es bas­tan­te peli­gro­so para la segu­ri­dad de niños y ado­les­cen­tes que aún están solo empe­zan­do a desa­rro­llan­do cri­te­rios racio­na­les pro­pios», opi­na David Gue­rra.

Esto impli­ca ries­gos muy serios. Los indu­cen estos algo­rit­mos de Tik­Tok por­que la con­duc­ta de los jóve­nes es re-con­­du­­ci­­da drás­ti­ca­men­te sin que ellos sean cons­cien­tes de que dejan de pen­sar y tomar gran par­te de las deci­sio­nes sobre su pro­pia con­duc­ta en el pro­ce­so. Su tiem­po para refle­xio­nar o deci­dir por sí mis­mos les ha sido, sutil­men­te, roba­do. Y ade­más todo ello pue­de refor­zar el con­su­mo hacia lo nega­ti­vo en muchas per­so­nas. La empre­sa ha infor­ma­do, (solo ponen paños calien­tes), que se encuen­tra tra­ba­jan­do por mejo­rar esto, pero yo creo que va a ser algo difí­cil que lo hagan, ya que su algo­rit­mo no dis­cri­mi­na o fil­tra los tipos de con­te­ni­do. Y otra con­se­cuen­cia muy nega­ti­va es que, dado que los jóve­nes toda­vía se encuen­tran en un gra­do de desa­rro­llo cere­bral inci­pien­te, su cen­tro de gra­ti­fi­ca­ción cere­bral se pue­de acos­tum­brar a estar cons­tan­te­men­te sobre­es­ti­mu­la­do. Y, por tan­to, la adic­ción emo­cio­nal está solo a un paso. Como seña­la el espe­cia­lis­ta Solano, del Mon­te­rrey Tech, ade­más, apa­re­ce una para­do­ja: «las varia­bles esti­mu­lan­tes de con­su­mo que esta­ble­ce Tik­Tok son apa­ren­te­men­te de bajo invo­lu­cra­mien­to, pero ello ayu­da a que el sis­te­ma de gra­ti­fi­ca­ción del usua­rio, –habla­mos de cere­bros de ado­les­cen­tes, sobre todo, con esca­so auto­con­trol– se ali­men­te vía digi­tal, cons­tan­te­men­te, con una sobre­car­ga de endor­fi­nas y dopa­mi­na de un nivel nun­ca vis­to antes».

Por todo ello, y el con­tex­to (la cone­xión siem­pre se hace en soli­ta­rio), resul­ta que los tiem­pos muer­tos sin usar la pla­ta­for­ma Tik­Tok gene­ran un esta­do emo­cio­nal simi­lar a un sín­dro­me de abs­ti­nen­cia. Por su par­te, Gue­rra, advier­te que, en esa situa­ción, exis­ten altas posi­bi­li­da­des de que se gene­ren con­duc­tas auto-dañi­­nas como tras­tor­nos ali­men­ti­cios o pen­sa­mien­tos sui­ci­das que serán refor­za­dos, al pun­to de gene­rar una adic­ción a los mis­mos. Lo cual es abe­rran­te y muy peli­gro­so. Pero las esta­dís­ti­cas que seña­lan los grá­fi­cos de arri­ba no dejan lugar a dudas de que esto suce­de a muchos jóve­nes.

«El mayor ries­go es que el algo­rit­mo afec­ta nues­tro cir­cui­to cere­bral de gra­ti­fi­ca­ción y empe­za­mos a sus­ti­tuir con él otras acti­vi­da­des de nues­tra vida dia­ria, por­que nues­tro cere­bro reci­be incan­sa­ble­men­te más y más estí­mu­los de la App, sin tener que rea­li­zar ape­nas esfuer­zo», acla­ra. Pero hay más. Inde­pen­dien­te­men­te de la edad, el algo­rit­mo pue­de lograr que cual­quie­ra de sus usua­rios incre­men­te de mane­ra expo­nen­cial su tiem­po en la App Tik­Tok, cuan­do cae en un rab­bit hole de infor­ma­ción, sobre todo cuan­do se tra­ta de uno nega­ti­vo. Esto se sabe. Los due­ños de las pla­ta­for­mas saben el dolor que están cau­san­do a muchas per­so­nas. Inclu­so lo que los usua­rios debe­rían hacer. Lo seña­lan has­ta las nor­mas para el Dou­yin del inte­rior de Chi­na: limi­tar drás­ti­ca­men­te el tiem­po en que se está en la App. O sea, sim­ple­men­te des­co­nec­tar­se. Pero eso va radi­cal­men­te con­tra sus mode­los de nego­cio y de lo que sus algo­rit­mos pro­mue­ven incan­sa­ble­men­te. Ir a con­tra­co­rrien­te en eso, es muy muy difí­cil en el mun­do actual infec­ta­do de modas digi­ta­les vira­li­za­das.

Dicho lo ante­rior, esto no afec­ta solo a los ado­les­cen­tes. Todos esta­mos invo­lu­cra­dos; todos usa­mos Smartpho­ne, pero la vul­ne­ra­bi­li­dad es dis­tin­ta en cada uno. Cuan­do digo en el súper que no quie­ro la App me miran raro. En Espa­ña, muchos medios abren sec­cio­nes con cosas de Tik­Tok pen­san­do que todo el mun­do esta ahí y que tam­bién están ahí muchas cla­ves de lo que pasa. Pen­san­do que refi­rién­do­se a ello gana­rán audien­cia, o pare­ce­rán infor­ma­dos. Es una ilu­sión. El fun­cio­na­mien­to del nue­vo algo­rit­mo que ha impues­to Elon Musk en X des­mien­te eso. Cuan­to más te infor­mes y per­ma­nez­cas en las redes socia­les más des­in­for­ma­do esta­rás. Aho­ra mis­mo, X no es en abso­lu­to como Twit­ter; se ha con­ver­ti­do en un motor de infor­ma­ción fal­sa y extre­ma median­te una deci­sión cons­cien­te, sim­ple­men­te por­que hoy sus algo­rit­mos modi­fi­ca­dos pro­mue­ven, difun­den y ace­le­ran expo­nen­cial­men­te la infor­ma­ción men­ti­ro­sa ya que es mucho más nego­cio que la ver­da­de­ra, y pro­du­ce mucho más enga­ge­ment. En reali­dad, es muy sim­ple: solo bus­can maxi­mi­zar el tiem­po de per­ma­nen­cia en cada cone­xión a X, y el núme­ro de acce­sos a X por uni­dad de tiem­po en cada usua­rio. Siem­pre. Y los algo­rit­mos no hacen ni saben hacer excep­cio­nes. Pero modas, popu­la­ri­dad y lo viral, man­dan aho­ra. Inclu­so nume­ro­sos pro­fe­sio­na­les de los medios son hoy ver­da­de­ras víc­ti­mas pro­pi­cia­to­rias de su pro­pia depen­den­cia de algo­rit­mos y sis­te­mas de reco­men­da­ción, simi­la­res a los de Tik­Tok.

Vol­vien­do al tema cen­tral, me pre­gun­to si los legis­la­do­res, como están empe­zan­do a hacer los de EE.UU. y Euro­pa, o jue­ces valien­tes como ha hecho Paul Matey serán los que comien­cen a abrir un camino que creo, sal­va­rá muchas vidas jóve­nes y ado­les­cen­tes. ¿Cuan­tas muer­tes han de ocu­rrir como la de Nylah Ander­son de 10 años, Ian Ezque­rra de 16 o Molly Rus­sell de 14, que ya no están entre noso­tros, para que la socie­dad al com­ple­to tome con­cien­cia?

Lo peor es que estoy con­ven­ci­do de que inclu­so estas muer­tes ado­les­cen­tes que he cita­do como ejem­plo, entre muchas más, se podrían haber evi­ta­do. Este lado oscu­ro de unas sofis­ti­ca­das socie­da­des glo­ba­les siem­pre con ale­gría apa­ren­te, fans enlo­que­ci­dos y con­su­mi­do­res com­pul­si­vos sin fin pre­sos de las modas digi­ta­les, por mucho que se le igno­re, sigue ahí. No soy nada ludi­ta y me gus­ta­ría haber habla­do hoy de for­ma más opti­mis­ta sobre estas tec­no­lo­gías y sus mejo­res usos. Las he usa­do duran­te años con mis alum­nos en mi eta­pa del MIT, casi ocho años antes de que nacie­ra Face­book, sin likes, ni algo­rit­mos per­ver­sos, ni Sour­vei­llan­ce, y son una mara­vi­lla. Estas de Tik­Tok, FB, Ins­ta­gram, WhatsApp, o las de Meta, no tie­nen en su uso nada que ver con aque­llo. Pero creo que lo que he con­ta­do hoy debe saber­se. Espe­ro que con la cita­da sen­ten­cia valien­te por enci­ma de la ley 230 y de sus impu­ni­da­des lega­les, se abra un nue­vo camino de mejo­ra hacia una eta­pa más espe­ran­za­do­ra. Fal­ta nos hace.

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia