Robert Epstein / Information Clearing House Traducción para Rebelión por Carlos Riba García.
Durante el pasado siglo más de un gran escritor expresó su preocupación respecto del futuro de la humanidad. En El talón de hierro (de 1908), el escritor estadounidense Jack London imaginó un mundo en el que un puñado de riquísimos titanes corporativos –los ‘oligarcas’– mantenía a raya a las masas mediante una combinación de premios y castigos. La mayor parte de la humanidad vivía en una virtual esclavitud que permitía una vida confortable a cambio de la renuncia de cada uno al control de su vida.
En Nosotros (de 1924), el brillante autor ruso Yevgeny Zamyatin, anticipando los excesos de la joven Unión Soviética, describió un mundo en el que el pueblo era controlado mediante un omnipresente monitoreo. Las paredes de las casas eran de cristal transparente de modo que pudiera observarse todo lo que hicieran quienes vivieran en ellas. Las personas tenían permitido bajar las persianas una hora por día para que tuvieran relaciones sexuales, aunque tanto el momento de los encuentros como la identidad de los amantes debían ser registrados previamente en las oficinas del Estado.
En Un mundo feliz (de 1932), el escritor inglés Aldous Huxley imaginó una sociedad casi perfecta en la que tanto la infelicidad como la agresividad habían sido quitadas a los seres humanos mediante una combinación de modificaciones genéticas y condicionamiento psicológico. Y en la novela –más sombría– 1984 (de 1949), el compatriota de Huxley, George Orwell describe una sociedad en la que el propio pensamiento estaba controlado; en el mundo de Orwell, se enseña a los niños el uso de una forma simplificada del idioma inglés llamada ‘Nueva habla’ de modo que no tengan jamás la posibilidad de expresar ideas que serían peligrosas para la sociedad.
Sin lugar a dudas, se trata de relatos de ficción; en todos ellos, los gobernantes en el poder utilizaban conspicuos procedimientos de control que al menos algunas personas resistían activamente y ocasionalmente conseguían sortear. Pero en el ensayo y éxito editorial Las formas ocultas de la propaganda (de 1957) – reeditado recientemente con motivo del 50º aniversario de la primera edición– el periodista estadounidense Vance Packard describió un “extraño y más bien exótico” tipo de influencia que estaba surgiendo rápidamente en Estados Unidos y que, en cierto modo, era más amenazador que las categorías de control imaginadas en las ficciones mencionadas más arriba. Según Packard, los ejecutivos corporativos y los políticos estadounidenses estaban empezando a emplear métodos sutiles y, en muchos casos, completamente indetectables para cambiar el pensamiento, las emociones y el comportamiento de las personas. Estos métodos estaban basados en la psiquiatría y las ciencias sociales.
Muchos de nosotros hemos oído hablar de al menos uno de esos métodos: la estimulación subliminal, o lo que Packard denominó “efectos por debajo del umbral”: la presentación de mensajes muy breves que nos dicen qué debemos hacer aunque sean tan breves –una fracción de segundo– que no tenemos conciencia de haberlos visto. En 1958, empujada por la preocupación de los espectadores de un cine de New Jersey, que habría introducido mensajes ocultos en una película para aumentar la venta de helados, la Asociación Nacional de Locutores –la asociación que establece las normas para la televisión de Estados Unidos– cambió sus criterios para prohibir el uso de mensajes subliminales. En 1974, la Comisión Federal de Comunicaciones consideró que la utilización de ese tipo de mensajes era “contraria al interés público”. En el Congreso de Estados Unidos también se presentaron proyectos de ley para prohibir los mensajes subliminales pero nunca fueron promulgados. Tanto Reino Unido como Australia tienen leyes que los prohíben estrictamente.
Es probable que la estimulación subliminal todavía se use profusamente en Estados Unidos –después de todo, su detección es difícil, y nadie está ocupándose de seguirle los pasos–, pero es posible que no valga la pena preocuparse de ella. Algunas investigaciones sugieren que su impacto es pequeño y que ejerce influencia sobre todo en las personas que ya están motivadas para seguir sus dictados; la orden subliminal de beber afecta a quienes tienen sed.
No obstante, Packard dejó al descubierto un problema mucho más importante; concretamente, que las corporaciones más poderosas buscaban sin parar, y en muchos casos ya estaban aplicando, una gran variedad de técnicas de control de las personas sin su conocimiento. Packard describió una maquinación en la que los comerciantes trabajaban en estrecha colaboración con científicos sociales para encontrar, entre otras cosas, la forma de conseguir que la gente comprara cosas que no necesitaba y de condicionar a los niños pequeños para que se convirtieran en buenos consumidores –unas inclinaciones que habían sido explícitamente cultivadas y entrenadas en el Mundo feliz, de Huxley–. Aconsejados por las ciencias sociales, los comerciantes aprendieron rápidamente los procedimientos para aprovechar las inseguridades, las flaquezas, los temores inconscientes, la agresividad y el deseo sexual de las personas, para modificar su forma de pensar, sus emociones y comportamientos sin que ellas tengan conciencia de que son manipuladas.
Según Packard, a principios de los cincuenta los políticos captaron el mensaje y empezaron a venderse como si fueran una mercancía, utilizando las mismas fuerzas sutiles que se habían usado para vender un jabón. Encabezó el capítulo dedicado a los políticos con esta inquietante cita del economista inglés Kenneth Boulding: “Es concebible un mundo de dictadores ocultos que continúen empleando formas democráticas de gobierno”. ¿Podría pasar esto, realmente?, y de ser así, ¿cómo funcionaría?
A medida que ha ido pasando el tiempo, las fuerzas descritas por Packard se han hecho aún más sutiles. La música relajante que oímos en el supermercado hace que caminemos más lentamente y compremos más alimentos, los necesitemos o no. Muchos de los insustanciales pensamientos e intensos sentimientos que viven nuestros adolescentes desde que se levantan hasta que se acuestan están cuidadosamente orquestados por habilísimos profesionales del marketing que trabajan en las industrias de la moda y el entretenimiento. Los políticos trabajan con una gran variedad de consultores que estudian cada cosa que hace su jefe con el propósito de que atraiga un votante más; la vestimenta, la entonación, la expresión facial, el maquillaje, el peinado y el discurso; todo es optimizado al máximo, tal como se hace con el envase del cereal para el desayuno.
Afortunadamente, todas esas fuentes de influencia operan en mutua competencia. Algunos tratan de convencernos de que compremos o creamos una cosas determinada; otros, que compremos o creamos otra distinta. Es la naturaleza competitiva de nuestra sociedad la que nos permite, después de todo, una relativa libertad.
Pero, ¿qué pasaría si empezaran a surgir unas nuevas formas de control que compitieran poco o nada entre ellas? ¿Y qué pasaría si se desarrollaran nuevas herramientas de control que fueran mucho más potentes –y mucho más invisibles– que cualquier otra del pasado? ¿Y qué pasaría si los nuevos instrumentos de control permitieran que un puñado de gente ejerciera una enorme influencia no solo sobre los ciudadanos de Estados Unidos sino sobre la mayoría de los habitantes de la Tierra?
Es posible que el lector se haya sorprendido al leer esto, pero todas esas cosas ya han pasado.
Para entender cómo funcionan las nuevas herramientas de control mental se necesita examinar los motores de búsqueda en Internet, sobre todo uno: el mayor y el mejor de todos ellos, concretamente Google. El motor de búsqueda Google es tan bueno y tan popular que el nombre de la empresa se ha convertido en un verbo usado normalmente en todos los idiomas del mundo. ‘Guglear’ algo es buscarlo con el motor de búsqueda Google; de hecho, así es como la mayoría de los usuarios de ordenadores de todo el mundo consiguen la mayor parte de la información que necesitan, en estos días prácticamente acerca de cualquier cosa. Estas personas guglean la información. Google ha llegado a ser la principal puerta de entrada de virtualmente todo el conocimiento, sobre todo porque el motor de búsqueda es muy bueno y nos da exactamente la información que estamos buscando, casi instantáneamente y casi siempre en la primera posición de la lista que aparece después de que lanzamos la búsqueda –la lista de ‘resultados de la búsqueda’–.
La ordenación de esta lista es tan buena que, de hecho, alrededor del 50 por ciento de la que buscamos está en los dos primeros ítems y más del 90 por ciento entre los 10 ítems de la primera página de resultados; muy pocas personas miran las demás páginas de resultados, a pesar de que a menudo puede haber miles, es decir, es probable que ellas contengan mucha información valiosa. Google decide cuál –de los miles de millones de páginas web– será la página web que aparecerá en nuestra lista de resultados; también decide el orden en que las presentará. Cómo decide estas cosas es un secreto profundo y oscuro; uno de los mejor guardados del mundo, como la fórmula de la Coca-Cola.
Debido a que es muy probable que los navegantes lean los primeros ítems de la lista de resultados y hagan click en alguno de ellos, las empresas están gastando miles de millones cada año tratando de engañar al algoritmo de búsqueda –el programa informático que selecciona y ordena los ítems buscados– de Google para que ponga su página uno o dos escalones más arriba. Un peldaño más arriba puede ser la diferencia entre el éxito y el fracaso de un negocio, y estar entre los 10 primeros ítems puede ser la posibilidad de hacer muchísimo dinero.
Al final de 2012, empecé a preguntarme si acaso los mejores resultados en las búsquedas podrían tener más impacto que las opciones del consumidor. Tal vez, pensé, un resultado en lo más alto de la lista podía tener un impacto reducido en la opinión que las personas tuvieran de las cosas. A principios del año siguiente, junto con mi colega Ronald E. Robertson, del Instituto Estadounidense de Investigación y Tecnología del Comportamiento de Vista, California, pusimos a prueba esta hipótesis mediante un experimento en el cual 102 personas de la zona de San Diego formaron tres grupos elegidos al azar. En el primer grupo, las personas veían resultados de la búsqueda que favorecían a un candidato político, esto es, resultados que llevaban a páginas web que hacían que este candidato tuviera mejor aspecto que su oponente. En un segundo grupo, las personas veían resultados de la búsqueda que favorecían al candidato oponente. Y en el tercer grupo –el grupo de control– las personas veían una mezcla de ordenamientos que no favorecían a ningún candidato. En cada grupo se utilizaron los mismos resultados de la búsqueda y las mismas páginas web; lo único diferente en los tres grupos era el orden de los resultados de la búsqueda.
Para que nuestro experimento fuera más realista, usamos resultados de la búsqueda verdaderos, que se vinculaban con auténticas páginas web. También utilizamos unas elecciones existentes: las de 2010, para elegir el primer ministro de Australia. Nos remitimos a unas elecciones fuera de Estados Unidos para tener la seguridad de que nuestros participantes fueran ‘indecisos’. Su desconocimiento de los candidatos aseguraba esto. También nos ocupamos –mediante anuncios– de que hubiera diversidad étnica entre los participantes en el experimento de modo de reproducir las características demográficas del votante estadounidense.
A cada participante le entregamos una breve descripción de los candidatos y les pedimos que los valoraran de varias maneras; como era de esperar, al principio los participantes no favorecieron a candidato alguno en ninguna de de las categorías que propusimos, y los votos se distribuyeron uniformemente en los tres grupos. Después, los participantes tuvieron 15 minutos para hacer una búsqueda online utilizando ‘Kadoodle’, nuestro motor simulado de búsqueda, que les daba acceso a cinco páginas de resultados de la búsqueda vinculados a páginas web. Las personas podían moverse libremente entre resultados de la búsqueda y páginas web, tal como hacemos cuando usamos Google. Cuando los participantes completaron su búsqueda, les pedimos que volvieran a valorar a los candidatos, también les pedimos que nos dijeran una vez más por cuál votarían.
Nosotros pronosticamos que las opiniones y preferencias de entre el 2 y el 3 por ciento de las personas de los dos grupos de preferencia –los grupos en los que las personas estaban viendo clasificaciones que favorecían a un candidato– se inclinarían por ese candidato. Lo que encontramos en la realidad fue asombroso. La proporción de quienes elegían el candidato situado en la primera línea del motor de búsqueda llegó al 48,4 por ciento, y cinco de nuestras mediciones se inclinaron hacia ese candidato. Aún más, daba la impresión de que el 75 por ciento de las personas de los grupos de preferencia no tenía la menor conciencia de que estaba viendo clasificaciones de búsqueda que estaban manipuladas. En el grupo de control, las opiniones no variaron significativamente.
Éste parecía ser un descubrimiento importante. El desplazamiento que habíamos producido, al que llamamos Efecto Manipulador del Motor de Búsqueda (SEME, por sus siglas en inglés), parecía ser uno de los mayores efectos sobre el comportamiento jamás descubierto. Sin embargo, no nos apresuramos a echar las campanas a vuelo. Por una cosa: el grupo de prueba de nuestro experimento era demasiado pequeño, y todos sus integrantes eran de la zona de San Diego.
Más o menos en el año que siguió, repetimos nuestros hallazgos tres veces más y la tercera vez llegamos a reunir una muestra de más de 2.000 personas de los 50 estados de EEUU. En este experimento, el corrimiento en la preferencia de voto fue del 37,1 por ciento, e incluso mayor en algunos grupos demográficos; de hecho, llegó al 80 por ciento.
En esta serie de experimentos, también nos dimos cuenta de que si reducíamos la preferencia apenas un poco en al primera página de resultado de la búsqueda –específicamente, incluyendo un ítem de búsqueda que favorecía al otro candidato en la tercera o cuarta posición de los resultados– podíamos ocultar la manipulación y conseguir que muy pocas personas, o incluso ninguna, fueran conscientes de que estaban viendo clasificaciones que no eran imparciales. Incluso podíamos producir cambios espectaculares en la preferencia de voto, pero podíamos hacer eso sin ser vistos.
Aun así, las campanas todavía permanecieron en silencio. Nuestros resultados eran potentes y consistentes, pero todos nuestros experimentos utilizaban elecciones en el extranjero: los comicios de 2010 en Australia. ¿Pueden modificarse las preferencias de voto con votantes de verdad en medio de una campaña electoral real? Nosotros éramos escépticos. En elecciones auténticas, la gente es bombardeada desde distintas fuentes de información y los votantes saben bastante sobre los candidatos. Parecía improbable que una simple experiencia con un motor de búsqueda pudiera tener mucho impacto en la preferencia de voto.
Para comprobarlo, a principios de 2014 fuimos a India justo antes de que empezara la votación en las elecciones democráticas más grandes del mundo: los comicios Lok Sabha para elegir al primer ministro. Los tres candidatos más importantes eran Rahul Gandhi, Arvind Kejriwal y Narendra Modi. Utilizando grupos sujeto online y anuncios tanto online como impresos, reclutamos a 2.150 personas de 27 de los 35 estados y territorios de India para que participaran en nuestra experiencia. Para poder participar, esas personas debían ser votantes empadronados que todavía no hubieran votado y que estuviesen indecisos acerca de cuál sería su voto.
Los participantes fueron distribuidos al azar en tres grupos de motores de búsqueda que cada uno de ellos favorecía respectivamente a Gandhi, Kejriwal o Modi. Como era de esperar, el nivel de conocimiento de los candidatos era alto: entre 7,7 y 8,5 en una escala de 1 a 10. Nosotros pronosticamos que nuestra manipulación produciría una consecuencia muy pequeña, si acaso, pero no fue eso con lo que nos encontramos. En promedio, fuimos capaces de modificar la proporción de gente que votaría por un candidato dado por más del 20 por ciento en el conjunto del experimento, y de más del 60 por ciento en algunos grupos demográficos. Algo aún más inquietante: el 99,5 por ciento de los participantes no mostró conciencia alguna de que estaba viendo resultados de la búsqueda que habían sido modificados; en otras palabras, que estaban manipulados.
La virtual invisibilidad del SEME es algo ciertamente curioso. Significa que cuando las personas –usted, lector; yo mismo– tienen ante sus ojos unos resultados de la búsqueda que han sido modificados, los ven como si fueran excelentes. De este modo, si ahora mismo el lector busca en Google “candidatos a la presidencia de Estados Unidos”, es posible que el resultado de la búsqueda parezca bastante aleatorio, aunque favorezca a un candidato determinado. Hasta yo tengo dificultades para detectar la manipulación en una ordenación de resultados que sé que ha sido manipulada (porque mi propio equipo lo ha hecho). Aun así, nuestros experimentos aleatorios y controlados nos dicen una y otra vez que cuando algunos ítems situados en lo más alto de la lista de resultados conectan con páginas web que favorecen a un candidato se produce un espectacular impacto en la opinión de los votantes indecisos, en gran parte por la sencilla razón de que las personas suelen hacer click solo en los primeros ítems de las listas de resultados. Esto es verdaderamente estremecedor: al igual que sucede con el estímulo subliminal, el SEME es una fuerza que no se puede percibir pero, a diferencia del estímulo subliminal, su impacto es enorme.
En agosto de 2015, publicamos en la prestigiosa Proceedings of the National Academy of Sciences (PNAS) un pormenorizado reportaje sobre nuestras cinco primeras experiencias con el SEME. Ciertamente habíamos encontrado algo importante, sobre todo si se tiene en cuenta la preponderancia de Google en la búsqueda de información online . La posición de Google en las búsquedas en Internet es prácticamente monopólica: según el Centro de Investigación Pew, un 83 por ciento de los estadounidenses declara que Google es el motor de búsqueda que utiliza más a menudo. Por lo tanto, si Google favorece a un candidato en unas elecciones, el impacto en los votantes indecisos podría decidir el resultado de esa votación.
Es necesario tener en cuenta que con nuestros participantes nosotros teníamos no más que una posibilidad. ¿Cuál habría sido el impacto de favorecer a un candidato en búsquedas que se realizan desde varios meses o semanas antes de una elección? Sin duda será mucho mayor que lo que nosotros observamos en nuestros experimentos.
Durante una campaña electoral existen otros tipos de influencia que se equilibran unos con otros –una gran variedad de periódicos, programas de radio y televisión, por ejemplo– pero a todos los efectos, Google no tiene competencia y la gente confía en sus resultados de la búsqueda, suponiendo que el misterioso algoritmo de búsqueda de la empresa es completamente objetivo e imparcial. Este alto nivel de fiabilidad, junto con la falta de competencia, coloca a Google en una posición única para producir impacto en unas elecciones. Algo todavía más inquietante, el negocio de la búsqueda y ordenación está absolutamente desrregulado, es por eso que Google podría favorecer a cualquier candidato sin violar ninguna ley. Algunos tribunales han dictaminado incluso que el derecho de Google a ordenar sus resultados de la búsqueda como le parezca está protegido por tratarse de una forma de la libertad de expresión.
¿Ha favorecido alguna vez esta empresa a algunos candidatos en particular? En la elecciones presidenciales de 2012 en estados Unidos, Google y sus principales ejecutivos donaron más de 800.000 dólares al presidente Barack Obama y solo 37.000 a su oponente, Mitt Romney. Y en 2015, un equipo de investigadores de la Universidad de Maryland y otros sitios demostró que los resultados de la búsqueda de Google favorecían invariablemente a los candidatos demócratas. ¿Están realmente sesgados los ordenamientos de resultados de búsqueda? Un informe interno expedido en 2012 por la Comisión Federal de Comercio de Estados Unidos llega a la conclusión de que en la ordenación de las búsquedas de Google sus intereses económicos priman respecto de los de sus competidores; las acciones antimonopólicas que en estos momentos se están llevando tanto en la UE como en India se basan en hallazgos similares.
En la mayoría de los países, el 90 por ciento de las búsquedas online se realiza con Google, lo que brinda a la empresa aún más poder para dar la vuelta a elecciones del que tiene en Estados Unidos; gracias al rápido aumento de la penetración de Internet, este poder está en crecimiento. En nuestro artículo en la PNAS, Robertson y yo consideramos que hoy día Google tiene la posibilidad de darle la vuelta al 25 por ciento de las elecciones nacionales de todo el mundo sin que nadie se dé cuenta de lo que está ocurriendo. De hecho, estimamos que los ordenamientos de resultados de la búsqueda de Google –hayan sido deliberadamente planificados por los directivos de la empresa o no– han hecho impacto en muchas elecciones durante mucho tiempo, un impacto que crece de año en año. Y debido a que los resultados de la búsqueda son fugaces, no dejan huella escrita y pueden ser negados tajantemente por la compañía.
Este grado de poder junto con este nivel de invisibilidad no tiene precedente en la historia de la humanidad. Sin embargo, lo que nosotros descubrimos sobre el SEME era apenas la punta de un descomunal iceberg.
Algunos informes recientes sugieren que la candidata presidencial del Partido Demócrata Hillry Clinton está haciendo un uso intenso de las redes sociales –en principio, Twitter, Instagram, Pinterest, Snapchat y Facebook– para tratar de aumentar sus seguidores. En este momento, tiene 5,4 millones de prosélitos en Twitter y su equipo está tuiteando varias veces cada hora en las horas diurnas. El favorito republicano, Donal Trump, tiene 5,9 millones de seguidores en Twitter y su equipo tuitea tan laboriosamente como el de Hillary.
¿Son las redes sociales una amenaza tan grande para la democracia como parecen serlo los ordenamientos de los resultados de la búsqueda? No necesariamente. Cuando las nuevas tecnologías compiten unas contra otras, no representan una amenaza. Incluso las plataformas más nuevas, en general se utilizan como se usaron las vallas publicitarias y los anuncios en la televisión durante décadas. Un partido pega sus carteles en un lado de la calle y el otro partido pega los suyos en el otro lado. Unos tienen más dinero para carteles que otros, pero el procedimiento sigue siendo competitivo.
No obstante, ¿qué pasa si esas redes sociales son usadas incorrectamente por las empresas propietarias? Un estudio realizado por Robert M. Bond, profesor de Ciencia Política en la Universidad Estatal de Ohio, y otros, publicado en 2010 en la revista Nature describe un experimento –cuestionable desde el punto de vista de la ética– en el que Facebook envió recordatorios del tipo “vaya y vote” a más de 60 millones de sus usuarios el día de las elecciones de 2010. Los recordatorios hicieron que 340.000 personas votaran por un candidato al que no habrían votado de no haber recibido el mensaje de Facebook. En 2014, en una nota en New Republic, Jonathan Zittrain, profesor de Derecho Internacional en la Universidad de Harvard, señaló que gracias a la enorme volumen de información recogida entre sus usuarios, Facebook podía mandar muy fácilmente ese tipo de mensajes solo a la personas que apoyaban a un partido o un candidato en particular y que, al hacerlo, con la misma facilidad podía influir en una elección de resultado incierto –todo esto, sin que nadie se diese cuenta de lo que estaba sucediendo–. Y dado que los recordatorios, al igual que los ordenamientos de resultados de la búsqueda son fugaces, la manipulación de una votación no deja ninguna huella documental.
¿Existen leyes que prohíban a Facebook el envío selectivo –a determinados usuarios– de anuncios. No, absolutamente; de hecho, con la publicidad dirigida Facebook hace mucho dinero. ¿Está actualmente Facebook manipulando elecciones? Nadie lo sabe pero, según mi punto de vista, sería tonto que Facebook no lo hiciera e incluso tal vez incorrecto. Para una empresa, algunos candidatos son mejores que otros, y los ejecutivos de Facebook tienen la responsabilidad económica de defender los intereses de la firma en beneficio de sus accionistas.
El estudio de Bond fue mayormente ignorado, pero otro experimento con Facebook, que en 2014 fue publicado en la PNAS dio lugar a protestas en todo el mundo. En este estudio, a 689.000 usuarios de Facebook se les envió durante una semana noticias que contenían ya fuera un exceso de términos positivos, o un exceso de términos negativos, o ninguno. Después de eso, los del primer grupo emplearon términos ligeramente positivos en sus comunicaciones, mientras que los del segundo usaron términos ligeramente negativos en las suyas. Se dijo que esto demostraba que el “estado emocional” de las personas podía manipularse deliberadamente y a gran escala mediante una empresa de las redes sociales, una noción que mucha gente encontró alarmante. Muchas personas se sintieron molestas por el hecho de que se realizara un experimento a gran escala sobre las emociones sin el consentimiento explícito de las participantes.
Sin duda, los perfiles de usuario de Facebook son muchísimos, pero no son tantos si se los compara con los que maneja Google, que está recogiendo información las 24 horas de cada día de la semana durante todo el año y utiliza 60 plataformas de observación distintas: por supuesto, el propio motor de búsqueda, pero también Google Wallet, Google Maps, Google Adwords, Google Analytics, Google Chrome, Google Docs, Android, YouTube y tantas otras. Por lo general, los usuarios de Gmail hacen caso omiso del hecho de que Google almacena y analiza cada correo electrónico que ellos escriben, incluso los borradores que nunca serán enviados, así como todos los correos que reciben tanto sea de otros usuarios de Gmail como de todos los demás servicios de correo electrónico.
Si Google decidiera arreglar unas elecciones, podría identificar a aquellos votantes que están indecisos. Después, podría enviarles ordenaciones personalizadas justamente a esas personas.
Según la política de privacidad de Google –a la que uno da su consentimiento cada vez que utiliza un producto Google, incluso aunque no haya sido informado/da de que está usando un producto Google– esta empresa puede compartir la información que recoge sobre usted, lector/lectora, con casi todo el mundo, incluyendo las agencias gubernamentales. Pero nunca con usted mismo/ma. La privacidad de Google es sagrada; la de usted no existe.
¿Podría Google y “aquellos/llas con quienes trabajamos” (en el lenguaje de la política de privacidad) utilizar la información que acumulan sobre usted, lector/lectora, para propósitos perversos, como manipular o coaccionar, por ejemplo? ¿Podría un información inexacta en el perfil de las personas (que no hay modo de corregir por parte de esas personas) limitar la posibilidad que tienen de arruinar la reputación de esas personas?
Ciertamente, si Google decidiera arreglar unas elecciones, en principio podría buscar en su gigantesca base de datos personales para identificar justamente a aquellos votantes que están indecisos. Entonces, podría enviarles justamente a esas personas –un día sí y el otro también– ordenaciones personalizadas para favorecer a un candidato determinado. Una ventaja de este enfoque es que para los investigadores la manipulación por parte de Google sería extremadamente difícil de detectar.
Las formas extremadas de control –la de la KGB en la Unión Soviética, la de la Stasi en la República Democrática Alemana, o la del Gran Hermano en 1984– son el dispositivo esencial de toda tiranía; al mismo tiempo, el avance tecnológico está haciendo que tanto el control como la acumulación de información para la vigilancia sea más fácil que nunca en la historia. En 2020, China habrá puesto en marcha el más ambicioso sistema gubernamental de control jamás creado –una base única de datos llamada Sistema de Crédito Social en el que múltiples registros y ordenamientos de datos de los 1.300 millones de ciudadanos de ese país estarán anotados para facilitar el acceso a ellos por parte de funcionarios y burócratas. Con apenas una mirada los funcionarios sabrán tanto si alguien ha plagiado un trabajo escolar como si se ha atrasado en el pago de una factura, si ha orinado en público o si bloguea inadecuadamente online.
Ya lo ha revelado Edward Snowden con toda claridad: estamos moviéndonos rápidamente hacia un mundo en el que los gobiernos y las corporaciones –a veces trabajando juntos– están recogiendo cada día cantidades ingentes de información sobre cada uno de nosotros, sin casi ninguna –o ninguna– restricción legal sobre el uso que puede darse a esos datos. Cuando se combina la recogida de datos con el deseo de controlar y manipular, las posibilidades son ilimitadas, aunque quizás la contingencia que más intimida sea la expresada en la afirmación de Boulding sobre la posibilidad de una “dictadura oculta que emplee formas democráticas de gobierno”.
Desde que en 2015, Robertson y yo presentamos a la PNAS nuestro primer informe sobre el SEME, hemos completado una elaborada serie de experimentos que han aumentado mucho nuestra comprensión del fenómeno; además, realizaremos otras experiencias en los próximos meses. Ahora tenemos una idea mucho más amplia del porqué de la potencia del Efecto Manipulador del Motor de Búsqueda y, hasta cierto punto, de cómo puede ser eliminado.
También nos dimos cuenta de algo muy inquietante: que los motores de búsqueda son capaces de influir en mucho más que en la compra de un producto o en el voto en unas elecciones. Ahora tenemos evidencias que sugieren que casi en cualquier asunto en el que en principio las personas estén indecisas, la ordenación de resultados de la búsqueda tiene consecuencias en casi todas la decisiones que ellas adopten. Tienen intensas consecuencias en las opiniones, las creencias, las actitudes y los comportamientos de quienes en todo el mundo navegan en Internet, todo ello sin que las personas tengan conocimiento alguno de que eso está sucediendo. Esto viene pasando con la intervención deliberada de los directivos de la empresa o sin ella; incluso los llamados procesos “orgánicos” de búsqueda por lo general producen resultados de la búsqueda que favorecen un punto de vista determinado, el que a su vez tiene el potencial de influir en la opinión de millones de personas que están indecisas en alguna cuestión específica. En uno de nuestros últimos experimentos, resultados de la búsqueda que habían sido manipulados cambiaron la opinión de algunas personas sobre las ‘bondades’ del fracking en un 39 por ciento.
Quizás todavía más perturbador es el hecho de que el puñado de gente que efectivamente es consciente de que está ante un ordenamiento de resultados de la búsqueda que ha sido manipulado se inclina todavía más en la dirección pronosticada; sencillamente, saber que una lista de resultados ha sido manipulada no necesariamente protege del poder del SEME.
Recuerde el/la lector/tora qué es lo hace el algoritmo de búsqueda: en respuesta a su pregunta, selecciona un conjunto de páginas web entre los miles de millones disponibles y las ordena utilizando unos criterios que son secretos. Segundos más tarde, la decisión que usted adopte o la opinión que usted se forme –acerca del mejor dentífrico, si el fracking es una tecnología fiable, dónde irá en las próximas vacaciones, quién sería el mejor presidente o si es real o no el calentamiento global– está determinada por la breve lista que tiene en la pantalla de su ordenador, aunque usted no tenga la menor idea de cómo se ha confeccionado la lista.
La tecnología ha hecho que sea posible realizar la manipulación –indetectable y que no deja huella alguna– de poblaciones enteras que no están cubiertas por las regulaciones y leyes existentes.
Mientras tanto, entre bastidores, ha tenido lugar una silenciosa consolidación de los motores de búsqueda, de modo tal que más y más personas están utilizando el motor de búsqueda dominante, incluso aunque crean que no lo están usando. Porque Google es el mejor motor de búsqueda y porque cualquier avance en Internet –en veloz expansión– se ha convertido en algo prohibitivamente caro, cada vez más motores de búsqueda extraen su información del motor líder en lugar de crear uno. El acuerdo más reciente, revelado en octubre de 2015 por la Comisión de Seguridad e Intercambio (SEC, por sus siglas en inglés), fue entre Google y Yahoo! Inc.
Observando las elecciones presidenciales de 2016 en Estados Unidos, veo claras señales de que Google está respaldando a Hillary Clinton. En abril de 2015, Clinton consiguió que Google le cediera a Stephanie Hannon para que fuera su principal funcionaria en cuestiones de tecnología y, hace pocos meses, Eric Schmidt, presidente del holding de empresas que controla Google, puso en marcha una firma semisecreta –The Groundwork– con el propósito específico de poner a Clinton en la Casa Blanca. La creación de The Groundwork animó a Julian Assange, fundador de Wikileaks, a asignar a Google el apodo de “el arma secreta” de Clinton en su intento de acceder a la presidencia de Estados Unidos.
Nuestra estimación es que los viejos amigos de Hannon pueden hacer que entre 2,6 y 10,4 millones de votantes se inclinen por Clinton en el día de las elecciones sin que ninguno de ellos sepa lo que esté pasando y sin dejar la menor huella documental. Por supuesto, también pueden ayudarla a que gane su nominación influyendo en los votantes indecisos en las primarias. Cambiar la inclinación de los votantes siempre ha sido la clave para ganar elecciones; jamás ha habido una herramienta tan potente, tan eficiente y tan barata para influir en ellos como lo es el SEME.
Vivimos en un mundo en el que unas cuantas empresas de alta tecnología, a veces trabajando en estrecha colaboración con los gobiernos, no solo están vigilando nuestras actividades sino también controlando –cada día más– lo que pensamos, sentimos, hacemos y decimos. La tecnología en la que estamos inmersos en estos momentos de ninguna manera es un juguete inofensivo; ha hecho posible la manipulación de poblaciones enteras en un grado que no tiene precedentes en la historia de la humanidad, una manipulación que es indetectable y no deja huella alguna, una manipulación que comúnmente está fuera de las leyes y regulaciones existentes. Los nuevos persuasores ocultos son más grandes, más audaces y más malignos que todo aquello que pudo imaginar alguna vez Vance Packard. Si optamos por ignorar esto, lo mismo hacemos con el peligro que corremos.
Robert Epstein es investigador principal en temas de psicología en el Instituto Estadounidense de Investigación del Comportamiento y la Tecnología (AIBRT, por sus siglas en inglés) de California. Es autor de 15 libros. Fue jefe de edición de Psychology Today. Este artículo es un anticipo de su próximo libro: The New Mind Control.
Fuente: http://www.informationclearinghouse.info/article44353.htm
http://rebelion.org/noticia.php?id=209881