Itziar Ituño: Una gran actriz y mucho más.

Itziar Ituño
Por: Wikipedia

Itziar Ituño Martínez (Basauri, Vizcaya; 18 de junio de 1974) es una actriz y cantante española, conocida principalmente por interpretar a la inspectora Raquel Murillo en la serie La casa de papel de Antena 3 y Netflix​ y también por su papel de Nekane Beitia​ en Goenkale, la telenovela de más duración del País Vasco.

Nació en Basauri, Vizcaya, el 18 de junio de 1974. Es ahí, concretamente en la Escuela de Teatro de Basauri, donde estudia interpretación. Ituño es además licenciada en Sociología urbano-industrial y política por la Universidad del País Vasco.

Su primer trabajo en la televisión fue a los 19 años, en 1993 para Antena 3 en el programa «Lo que necesitas es amor» luego le siguió la TV movie Agur Olentzero, agur (en español ‘Adiós Olentzero, adiós’) en 1997.

El 3 de marzo de 1999 apareció por primera vez en la serie Goenkale, en aquel entonces la serie más conocida y popular del País Vasco. En la telenovela encarna al personaje Nekane Beitia, una ertzaina lesbiana del pueblo ficticio de Arralde.6 Permaneció en la serie hasta 2015. El papel de Nekane le otorgó a Ituño una gran popularidad en Euskadi.

Ituño participó en las películas Loreak e Igelak, estrenadas en 2015 y 2016 respectivamente. En 2017 sus trabajos salen más allá del País Vasco y da el salto nacional con La casa de papel, serie de Antena 3 que posteriormente fue adquirida por la plataforma Netflix.

La actriz compagina sus trabajos en cine, televisión y teatro junto a la música, siendo vocalista en tres grupos: Dangiliske, EZ3 e INGOT.​

El 26 de septiembre de 2017 fue la presentadora de la gala del cine vasco y ETB en la 65 edición del Festival de San Sebastián.

En octubre de 2020, apareció en el segundo episodio de la segunda temporada de Mask Singer en Francia, como estrella internacional. Interpretó el papel de Bailarina y la canción «Million Reasons» de Lady Gaga.

Pepe: ¿Presidente en pantuflas? Por: Jorge Lanata

Acabo de recibir de una de nuestras colaboradoras: Silvia Valle, este artículo escrito por uno de los comunicadores más importantes de la Argentina, creo que es muy importante leer lo que opinan sobre nosotros desde el otro lado del río como mar.Pepe: Presidente en Pantuflas?
por Jorge Lanata

(Lanata, periodista argentino)

Son tipos raros. A mediados del ’84,cuando se resquebrajaba la dictadura del general Gregorio “Goyo” Alvarez,hijo del general Gregorio Alvarez Lezama, nieto del general Gregorio Alvarez, el pequeño dictadorcito de 1,70 metro que gobernó el Uruguay entre el ’81 y el ’85, vi cómo cientos de señoras con cacerolas salían a los balcones de la Rambla para apoyar el paro de colectiveros.
Tipos y minas raros: en el barrio de La Teja se organizaba la pobreza de Montevideo en ollas populares; en cada olla, además de comida, había un psicólogo. Y había, también, consultas populares para todo: se…

Ver la entrada original 1.434 palabras más

Los centros secretos donde Facebook maneja la censura

Los centros secretos donde Facebook maneja la censura: «Aquí se permite el fascismo y el acoso machista»

Más de 15.000 revisores subcontratados por Facebook toman 500 decisiones al día y dan forma a los límites de la censura global en la plataforma de contenidos con más impacto del mundo
eldiario.es accede a fuentes y documentos que exponen contradicciones con las normas públicas: «Tenemos orden de borrar el contenido sobre Hitler, pero no el de Franco»
Jóvenes sin cualificación están expuestos diariamente y en precario a imágenes traumáticas: «Vemos cosas que no te dejarían dormir»

DERECHOS Y LIBERTADES
Juan Luis Sánchez / David Sarabia
25 de febrero de 2019 21:39h
@juanlusanchez @DSRELD

En una oficina sin ventanas, cientos de personas fijan la mirada en una pantalla durante 8 horas para analizar una a una las miserias de la humanidad y determinar lo que puede ser visto y lo que no. Es ‘el búnker’ de Facebook en la ciudad polaca de Varsovia, uno de los 20 centros que existen en el mundo para administrar censura sobre los comentarios, vídeos y fotos que 2.271 millones de personas publican cada día. eldiario.es ha tenido acceso a fuentes de los centros de Varsovia o Lisboa y a documentos que revelan las condiciones en las que se toman las decisiones sobre la red de contenidos con más impacto del mundo.

Insultos, drogas, abusos sexuales, terrorismo, decapitaciones, pezones. Existe un mito de épica tecnológica sobre algoritmos que retiran automáticamente contenidos inapropiados en Facebook. Detrás de esa idea moderna y aséptica de la censura, hay en realidad más de 15.000 revisores de contenido, personas que se dedican a filtrar los excesos de medio mundo, como Albert o Johan, que desde su experiencia señalan la arbitrariedad de las normas para decidir lo que se publica o lo que no. «Es imposible no cometer errores porque el sistema es muy contradictorio».

El trabajo de los que filtran el contenido de Facebook es trascendental, confidencial y también precario. Los trabajadores de la censura en la oficina de Varsovia o Lisboa cobran un salario de unos 700 euros al mes, subcontratados a través de consultoras internacionales como Accenture o empresas de trabajo temporal. No pueden decir a nadie que trabajan para Facebook, a quien por escrito siempre se refieren como «el cliente». Para este reportaje, tres personas con experiencia en este trabajo han pedido que protejamos su identidad y ocultemos sus nombres reales.

Un revisor de contenido está siempre vigilado: si alguien saca el móvil del bolsillo o una botella de agua, será sancionado por los jefes, que tienen un sistema para que los trabajadores se denuncien unos a otros a cambio de premios por buen comportamiento. Para toda la jornada laboral tienen un contador de 30 minutos de descanso, que se tienen que dosificar a lo largo del día para comer, ir al baño, estirar las piernas; si alguien tarda 20 minutos en comer, es mejor que no tenga un problema de estómago ese día porque sobrepasaría fácilmente el límite estipulado.

Así funciona la revisión de contenidos
Los equipos de trabajo se dividen por tipo de contenido y por idioma. En Varsovia y en Lisboa se ha filtrado en los últimos años el contenido en español. Hace unos meses se ha abierto oficina en Barcelona. Cada moderador tiene en su puesto una pantalla que les va mostrando los casos de contenidos en Facebook que acumulan más ‘denuncias’ de usuarios que los consideran inapropiados. Cada vez que un número relevante de personas denuncia (‘reportar’, en lenguaje de Facebook) un contenido, este acaba llegando a una de esas pantallas. Hay dos opciones: ‘Delete’ para borrar el contenido o ‘Ignore’ para dejarlo publicado.

«Analizamos entre 400 y 600 casos diarios. Tenemos 30 segundos para decidir en cada caso. No siempre da tiempo a tomar decisiones adecuadas», explica Johan. Decisiones como las de estos ejemplos, recogidos en un documento de formación para nuevos trabajadores del equipo de moderación de Facebook, al que ha tenido acceso eldiario.es. Repasamos con Johan y Albert lo que habría que hacer en cada caso, según su experiencia.

«Prestad atención a los síntomas del cáncer», dice la imagen. En este caso, a pesar de que Facebook no permite los pezones en su red social con un algoritmo automático que ya ha empezado a funcionar (y que a veces borra por error obras de arte clásico donde aparece el pecho de una mujer), según las normas el moderador debe desbloquear y publicar el contenido ya que se trata de una imagen divulgativa sobre salud y no una imagen de desnudo explícito o pornográfico.

En casos como este, el moderador tiene que hilar fino en muy poco tiempo. Primero debe buscar en Google a qué se refiere este meme. ¿Es un caso de bullying infantil? Encontrará que el diálogo de los rótulos es real y pertenece a una entrevista en televisión a una niña sobre su obesidad. Pero la obesidad no está considerada como una discapacidad. «Ofender a alguien no es motivo para borrar nada, salvo que se considere un colectivo protegido como los discapacitados. Pero la obesidad no es una discapacidad, así que habría que saber si la niña tiene algún tipo de problema mental». Hay que decidir en 30 segundos. Johan marcaría ‘Ignorar’.

Hay una categoría específica en Facebook para etiquetar todo contenido que invite a la autolesión. En teoría, con las normas en la mano, sería un caso de borrado. Pero Johan apunta: «Como es un dibujo, la sensibilidad cambia. Hay muchas imágenes así en Facebook que no se borran. Si vemos varias así, entonces sí que al menos avisamos a los superiores para que lo notifiquen a las autoridades», algo que pasa solo con las cuentas de algunos países.

«Recuerdo este caso», dice Johan. Es el logo del Frente de Liberación Nacional de Córcega. «Por alguna razón, en una sesión de formación semanal nos dijeron que era una organización terrorista pero que no lo marcáramos como un borrado por terrorismo», que es una etiqueta en su sistema de revisión, «sino como un borrado general sin especificar por qué». El FLNC renunció a la actividad armada en 2014.

Entre las fotos que se muestran a los trabajadores en formación de Facebook, en la documentación a la que ha tenido acceso eldiario.es, consta también la de un cadáver tumbado sobre una camilla y abierto en canal, con todos los órganos internos visibles. No la publicaremos en este reportaje. No se ven pezones ni genitales, pero sí intestinos, el hígado, los pulmones. Según las indicaciones de Johan, al tratarse de un contenido de divulgación médica o sanitaria, podría ser marcado como ‘perturbador’ y por tanto ser visible para cualquier usuario mayor de edad. «Este tipo de casos me sigue asombrando», dice.

Estos son casos más o menos sencillos, de entrenamiento, aunque ya deja patentes que las decisiones son complejas. Las normas generales de Facebook son públicas, generales y extensas, en un ejercicio de transparencia reciente que sin embargo choca con la rutina de trabajo en los centros de filtrado. A falta de tiempo o cualificación, Facebook intenta imponer a sus trabajadores unas normas internas muy estrictas para cada caso posible, tan precisas que a veces se vuelven arbitrarias.

Los moderadores de Facebook reciben constantemente casos de usuarios que insultan a las mujeres en general o a alguna en particular. En ese caso, la norma pública de Facebook es clara: «No debes atacar mediante términos despectivos relacionados con actividades sexuales (p. ej.: puta, zorra)». Sin embargo, aquí nos topamos con una de esas normas no escritas que denuncian los trabajadores. «Si la palabra puta está escrita dentro de una imagen o una foto de una mujer, como en un meme, se elimina. Pero si a una chica se le tilda de puta en el comentario de un post, eso no se borra». ¿Por qué? «Pues no lo sé. Es lo que pide el cliente y tenemos que seguir las normas», dice Albert.

Hay muchos hombres, chicos jóvenes, insultando a mujeres en Facebook. Algunos lo hacen tanto que al final comprenden los pequeños trucos para burlar la censura. «Al final acaban entendiendo cómo trabajamos. Hay muchas páginas de Facebook donde hay acoso machista, donde a las mujeres se les llama de todo y nadie está haciendo nada para evitarlo».

Hitler no, Franco sí
«Si una persona hace comentarios para ensalzar a Hitler, se borra. El mismo comentario hecho por un español para ensalzar a Franco, se deja publicado», explica Albert sobre lo que sucede, al menos, en la sede de Facebook en Varsovia. «El fascismo está permitido por Facebook», dice abiertamente Johan, uno de los trabajadores que más tiempo ha aguantado en esta oficina. «Puedes hacerte una página llena de fotos de Mussolini o Franco y no pasa nada, está totalmente permitido», continúa.

Según las fuentes con experiencia en la oficina de Varsovia, la compañía dudó en el pasado acerca de cómo tratar el contenido relacionado con Hitler. «Primero nos dijeron que no se borraba ninguna foto o comentario sobre Hitler; luego nos dijeron que lo marcáramos como ‘disturb’ [contenido al que no acceden los menores de edad], y luego nos volvieron a decir que borráramos», explica.

María, otra fuente consultada por eldiario.es, que estuvo un mes trabajando en la oficina de Lisboa en 2017, asegura que la norma no hacía distinciones teóricas entre Franco o Hitler. «Pero es verdad que con Hitler y el nazismo son superrígidos. No se pueden mostrar fotografías de ellos sin decir el nombre o quién es. Si muestras solo una foto con el nombre y no dices «dictador» o denuncias un poco lo que hizo, lo tienes que eliminar porque Facebook intuye que lo estás ensalzando».

A veces los trabajadores hacían preguntas sobre estas contradicciones. «Los jefes te lo explican con que, claro, dónde ponen el límite. Que si empezamos a borrar… dónde decimos basta. Es la excusa que ponen», asegura Albert. La apología del franquismo no es delito en España y la apología del nazismo sí es delito en Alemania, pero las normas de Facebook van por libre, no dependen de las leyes de cada país donde tienen usuarios. Solo se adapta a cada idioma, pero la política de contenidos de Facebook es global y lleva sello norteamericano.

En investigaciones recientes, medios como Los Angeles Times han documentado cómo Facebook no solo permitía la existencia de grupos neonazis en EEUU sino que permitía que negocios u organizaciones pudieran hacer publicidad segmentada específicamente para sus usuarios, lo que sustenta el modelo de negocio de la red social.

Geopolítica en cada contenido
Tanto Albert como Johan destacan dobles raseros y mayor protección a colectivos específicos, independientemente de lo que digan las normas escritas. «Insultar a determinadas creencias o ideologías está de facto permitido e insultar a otras no. Hay algunas creencias o ideologías que están especialmente protegidas en Facebook». La primera de ellas, según la experiencia de Albert y Johan, «es el sionismo». Al menos en la oficina radicada en Polonia, donde la exterminación de los judíos durante el nazismo fue especialmente trágica. Según su testimonio, en Facebook se cumple la lógica de que toda crítica contra el sionismo o la política de Israel en Palestina corre el riesgo de ser identificada como antisemitismo. La llamada al boicot a Israel por sus acciones en Palestina está prohibida. «Las campañas del Movimiento de Boicot, Desinversiones y Sanciones (BDS) están prohibidas en Facebook. No nos las denuncian mucho, pero si las reporta alguien, hay que borrarlo», explican. «No se puede ni llamar asesino a un soldado israelí que está pegando a un niño. También eso hay que borrarlo».

Antes de convertirse en analistas de Facebook, los trabajadores pasan un entrenamiento de dos semanas para interiorizar las políticas de censura y practicar con ejemplos. En una de esas sesiones, cuenta Johan, una chica preguntó «qué es el sionismo». La respuesta fue que era «una minoría perseguida en Palestina y por lo tanto, cualquier comentario contrario al sionismo tiene que ser eliminado». En ninguna política pública de Facebook esto está así establecido, y en las normas internas no se deja tan claro por escrito, pero las fuentes consultadas aseguran que ese clima es el que diariamente se respira en el trabajo y por tanto tiene influencia directa en las decisiones que se toman en la oficina de Varsovia.

¿Cómo define Facebook el terrorismo? «Actos de violencia premeditados contra personas o propiedades a fin de intimidar a la población civil, el gobierno u organizaciones internacionales, con un propósito político, religioso o ideológico». ¿Dónde pone el límite Facebook? Donde diga EEUU. Los trabajadores tienen acceso a un listado de organizaciones terroristas elaborado por el gobierno norteamericano. «Si un comentario ensalza a una organización o alguien comparte la foto de su logo y esa organización está en la lista, borramos».

«Esto es problemático», explican los trabajadores. «Hay gente que sube comentarios a Facebook porque considera héroes a grupos políticos armados que en muchos países no son considerados terroristas sino guerrilleros o soldados o líderes, pero en la lista de EEUU sí lo son». Pedimos ejemplos. «Hamás en Palestina o el PKK en Turquía». Hamás no está considerado un grupo terrorista por la Unión Europea, que tiene su propia lista de organizaciones terroristas. Pero la que cuenta es la lista de EEUU.

En ocasiones esa lista se queda corta. «A veces nos llegan de arriba órdenes específicas sobre organizaciones o personas que no están en esa lista. Te dicen, así de claro: a partir de este momento, hay que tratarle como terrorista. Y tú te preguntas… ¿quién lo decide?», explican Johan y Albert.

Para tomar decisiones sobre un acto de guerra o sobre un atentado terrorista, los moderadores tienen que estar bien informados sobre lo que pasa en el mundo cada día. Los jefes les avisan por correo de acontecimientos que probablemente les vayan a dar trabajo: «Tiroteo en una Iglesia cerca de El Cairo. Todo el contenido que muestre el ataque o lo celebre, debe ser eliminado. Clasificamos el acto como atentado terrorista», dice un superior a los analistas en un correo electrónico interno al que ha tenido acceso eldiario.es.

La cosa se complica cuando los censores, como hacía quien medía la longitud de la falda en las películas del blanco y negro, tienen que pararse a medir la longitud de la barba de los hombres árabes. «Es surrealista… Si nos llega denunciado el perfil o la foto de un hombre de Oriente Medio con barba larga… Tenemos que buscarle en Google para saber quién puede ser y decidir si lo etiquetamos como posible simpatizante terrorista. No sé cuántas veces hemos estado delante de la pantalla mirando la foto de alguien con barba, incluso pidiendo ayuda a otros compañeros, para decidir… ¿Este es terrorista o no? Es cómico… pero es triste».

Facebook defiende la interpretación política que hace EEUU del mundo, dicen Albert, Johan y también María. «Y al resto de países que les den». Esa asimetría se aplica no solo a cuestiones políticas. «Hemos visto vídeos de niños de países árabes diciendo en vídeos en su Facebook que se van a suicidar; eso a Facebook le da igual. Pero si lo hace un niño en EEUU o Europa, llaman a las autoridades», como prometen hacer sin distinciones en sus normas públicas.

La probabilidad de que te borren un contenido en Facebook es directamente proporcional al poder y la capacidad organizativa del colectivo que se sienta aludido o agredido. Los sistemas automáticos para la censura son, reconoce Facebook, un proyecto en el que se está invirtiendo y que empieza a funcionar poco a poco. Pero por ahora el mecanismo requiere la denuncia pública y la revisión humana. Si hay un número suficiente de denuncias, eso llegará a las pantallas de los moderadores de Facebook.

Si un pequeño grupo de alumnos de un instituto hace bullying a través de Facebook a un compañero de clase, probablemente otros compañeros no se atrevan a denunciar la publicación y, en todo caso, permanezcan callados. Por tanto, el bullying persiste. «Además, para que podamos borrarle el perfil a alguien, y no solo el contenido, hace falta que incumpla las normas en más de un 30% de los posts», explica Johan. «Seamos realistas: si elimináramos todos los perfiles de gente que acosa, comparte porno o vende marihuana en Facebook, tendríamos que borrar muchos perfiles. Y Facebook no quiere quedarse sin usuarios».

Precariedad y trauma: «Vemos cosas que no te dejarían dormir»
«Le damos todo el valor al duro trabajo de nuestros revisores de contenido», afirma un portavoz de Facebook a eldiario.es. «Todos reciben un salario por encima del estándar del mercado». Los empleados de Facebook en Barcelona, Varsovia o Lisboa cumplen con el perfil de teleoperadores y de hecho suelen estar contratados a través de empresas de ‘atención al cliente’ como Competence Call Center en Barcelona. Esto permite a la empresa distanciarse legalmente de sus condiciones laborales, así como aumentar y recortar la plantilla con trabajadores temporales. El salario varía en las diferentes oficinas en diferentes partes del mundo, para adaptarse al mercado de trabajo local de la población inmigrante que maneje los diferentes idiomas que se necesiten, lo que permite la deslocalización y los salarios más bajos.

En cada centro, un grupo de jefes analiza aleatoriamente entre el 5% y el 10% de los casos moderados por los trabajadores para comprobar que las decisiones cumplen con lo que se les pide. «El objetivo es tener, por lo menos, un 98% de acierto cada mes», dice Johan. «Si no lo tienes, tus opciones de ascender o de conseguir bonus trimestrales o mensuales se van al garete», continúa. Los bonus no suelen ser superiores a 100 euros al mes.

La mayoría de los moderadores de Facebook son personas jóvenes, sin una cualificación específica, expuestas todo el día a horas de contenido extremadamente perturbador. «Hay un psicólogo para los trabajadores del equipo, pero no es obligatorio ir… Lo que vemos es muy fuerte y a un ritmo muy estresante», confiesa Johan. Pederastia, asesinatos, vejaciones de todo tipo y discursos de odio en todas las direcciones. Los trabajadores no aguantan mucho en el puesto, suelen irse pronto, saturados. «Es un trabajo muy duro: estuve un mes y yo salía de ahí con la cabeza machacada. Estás 8 horas, cronometradas, sin parar de consumir vídeos y fotografías en las que muchas veces hay pedofilia, agresiones a menores, a animales… Está fatal pagado», dice María de su experiencia en la oficina de Lisboa. Algunos trabajadores ya han iniciado acciones legales contra Facebook por causarles daños psicológicos derivados del síndrome de estrés postraumático. El medio estadounidense The Verge ha publicado un extenso relato de los horrores que viven los trabajadores de otro centro, en Phoenix (EEUU).

Los bonus de los trabajadores dependen de su resistencia a la hora de ver los vídeos que después censurarán o no. “Hemos visto cerebros desparramados, hemos visto niños muertos, hemos visto soldados pegando palizas a civiles hasta la muerte”, dice Johan. «Si no has sido lo suficientemente fuerte como para ver el vídeo hasta el final y has tomado una decisión antes, repercutirá en tu calidad», lo que se traduce en menos bonus y compensaciones a final de mes. Por ejemplo, «si alguien se prende fuego en un vídeo, solo lo marcamos como censurado para menores de 18 años. Pero si la persona se muere en el vídeo por el fuego, hay que borrarlo. Así que tienes que ver el vídeo hasta el final».

Los oscuros mecanismos de censura de Facebook

Los oscuros mecanismos de censura de Facebook
Los criterios de aprobación de la red social son tan opacos como sus algoritmos.
Expertos alertan de una urgente necesidad de transparencia
JAVIER CORTÉS
Madrid – 01 AGO 2017 – 07:27 CEST

El pasado 3 de mayo, el fundador de Facebook, Mark Zuckerberg, aseguró que ampliaría el equipo de censores en su plataforma en 3.000 personas. El empresario justificó esta medida por la necesidad de responder con rapidez ante el auge de contenidos que fomentan discursos de odio. Este equipo, compuesto actualmente por 4.500 trabajadores, se encarga de supervisar las actualizaciones en los muros de los usuarios de todo el mundo, eliminando aquellas que consideran inapropiadas. Sin embargo, la red social nunca ha desvelado cuáles son los criterios en los que se basa para borrar una publicación.

El diario The Guardian accedió en exclusiva a más de un centenar de archivos privados de la empresa que definen estos parámetros y publicó un artículo tres semanas después del anuncio de Zuckerberg exponiendo sus conclusiones sobre cómo la plataforma modera temas como la violencia, el terrorismo, la pornografía y el racismo. La controversia que generó puso sobre la mesa el debate sobre la necesidad de una mayor transparencia en una red social que alcanzó los 2.000 millones de usuarios el mes pasado, casi un tercio de la población mundial.

“Lo que Facebook está haciendo para erradicar el discurso de odio de la plataforma puede ser la operación de censura global más opaca y extensa de la historia”, escribían Julia Angwin y Hannes Grassegger en un reportaje para la web de investigación ProPública el pasado junio. En él, analizaban otros de los documentos internos del gigante social que marcan las directrices que sus censores utilizan para distinguir entre un discurso de odio y una expresión política legítima. Estos documentos reflejan que Facebook no elimina las esvásticas bajo una regla que permite “exhibir símbolos de odio para mensajes políticos” y protege a los hombres blancos antes que a los niños negros en base a una serie de reglas que tienden a perjudicar a las minorías.

Esta diapositiva forma parte de los documentos internos de Facebook que examinó ProPública para su investigación. En ella se identifican tres grupos: conductoras, niños negros y hombres blancos. ¿Qué grupo está protegido del discurso del odio? La respuesta correcta: los hombres blancos.
Esta diapositiva forma parte de los documentos internos de Facebook que examinó ProPública para su investigación. En ella se identifican tres grupos: conductoras, niños negros y hombres blancos. ¿Qué grupo está protegido del discurso del odio? La respuesta correcta: los hombres blancos.


Estas normas establecen el sexo, la raza, la orientación sexual y la afiliación religiosa como categorías protegidas frente a la clase social, la edad, la apariencia y la ideología política, que etiquetan como no protegidas. Un ataque dirigido a un segmento que comparta categorías de ambos segmentos se considera no protegida. De esta forma, y volviendo al ejemplo antes mencionado, la red social no elimina un comentario que ataque a niños negros porque la edad no constituye una categoría protegida y no lo considera un discurso de odio.

«No existe un camino que haga a la gente feliz», afirmó en una ocasión Dave Willner, exdirector del equipo de contenido y autor de uno de los principales libros de reglas para censurar publicaciones de Facebook que sigue vigente en la empresa. «Debido al volumen de decisiones, nuestro enfoque es más utilitario de lo que estamos acostumbrados en nuestro sistema de justicia. Fundamentalmente no está orientado a los derechos”.

El enfoque de Facebook es más utilitario que el de un sistema de justicia: no está orientado a los derechos
Dave Willner, autor de uno de los principales libros de reglas para censurar publicaciones de Facebook

El artículo de ProPública cita casos sonados de censura que ni siquiera se corresponden con los parámetros antes mencionados y que sacan a la luz el debate sobre la existencia de racismo en la red social, una cuestión de la que se han hecho eco medios como Techcrunch. Algunas reacciones han tenido repercusión fuera de los periódicos y han sido bastante aplaudidos, como la respuesta de una afectada por la censura en un artículo titulado Mark Zuckerberg odia a la gente negra.

En diciembre de 2015, un mes después de los atentados de París, la Unión Europea presionó a las empresas tecnológicas para que trabajaran más para evitar la propagación del extremismo violento en internet. Casi un año después, Facebook, en alianza con otras tres compañías, acordó un código de conducta contra discursos de odio que le obliga a eliminar la mayoría de peticiones justificadas sobre contenido ilegal en menos de un día y permitía que fuera auditada por reguladores europeos. La primera auditoría reflejó que las cuatro compañías apenas revisaban el 40% del discurso de odio dentro del plazo definido y apenas eliminaban una cuarta parte de las publicaciones.

El 19 de junio, Facebook publicó un artículo en el que aseguraba que está eliminando cerca de 15.000 mensajes de estas características cada mes. Esta explicación servía como respuesta a una iniciativa del Gobierno alemán expuesta tres meses antes para posibilitar multar a las redes sociales que no sean capaces de eliminar informaciones falsas o que fomenten el odio con hasta 50 millones de euros.

Informaciones falsas y manipulación en las redes

El artículo con más interacciones en Facebook en los tres meses previos a las últimas elecciones estadounidenses, según un análisis del portal de contenidos Buzzfeed, fue una información falsa que aseguraba que el Papa Francisco respaldaba la candidatura de Donald Trump. Este informe ponía de manifiesto que las 20 noticias falsas más populares de 2016 tuvieron prácticamente un millón y medio más de interacciones que las 20 verídicas más compartidas.

Pero las mentiras van más allá de los medios. Un estudio de la universidad de Oxford publicado en julio de 2017 sobre manipulación organizada en redes sociales expone una lista de una treintena de países —entre los que figuran Alemania, Reino Unido, Brasil, Israel, EE UU, Rusia y México— en los que diversas organizaciones han utilizado bots para inundar Facebook y Twitter con noticias falsas con fines políticos.

En marzo de 2016, Bloomberg publicó un extenso artículo sobre la historia de Andrés Sepúlveda, un hacker colombiano que ayudó a manipular la opinión pública durante las campañas presidenciales de distintos países de América Latina. Sepúlveda creó un software para administrar y dirigir un ejército virtual de cuentas falsas en Twitter al que bautizó como Depredador de Redes Sociales. Con él, creó todo tipo de tendencias para desprestigiar a distintos candidatos políticos en México, Colombia, Nicaragua, Panamá, Honduras, El Salvador, Costa Rica, Guatemala y Venezuela. Afirmó que tuvo que rechazar encargos políticos en España por estar demasiado ocupado. “Cuando me di cuenta de que las personas creen más lo que dice internet que la realidad, descubrí que tenía el poder de hacer creer a la gente casi cualquier cosa», confesó a la revista.

El caso de Sepúlveda es uno de los más sonados, pero no el único. En 2015, The New York Times publicó un reportaje de investigación titulado The Agency, que cuenta la historia de la Organización de Investigación de Internet, un organismo con sede en San Petersburgo en el que trabajan más de 400 personas encargadas de publicar miles de mensajes en redes sociales a través de cuentas falsas para favorecer al Gobierno ruso y generar caos en EE UU. La agencia inventó un escape de gas tóxico en Luisiana que terminó atribuyendo al ISIS y propagó infecciones de ébola en Atlanta sin que estas hubieran tenido lugar.

Facebook premia la viralidad de los contenidos y expone la información más compartida por considerarla más relevante. Esto posiciona los artículos más llamativos, como los antes mencionados, por delante de otros contrastados menos interesantes.

La plataforma afirma que está trabajando en acabar con las noticias falsas y ha lanzado algunas iniciativas destinadas a este fin. En 2016, anunció siete puntos de actuación contra estas informaciones, que incluían una detección más rápida de las cuentas que difunden bulos y un ataque a sus ingresos publicitarios Desde abril de este año, dispone de un sistema de filtrado para detectar bulos y frenar su difusión, que solo funciona en 14 países entre los que no se encuentra España. Desde junio, ha empezado a restringir la edición de las descripciones e imágenes en los artículos publicados a través de su red para evitar engaños que solo buscan atraer más usuarios. Según Gizmodo, a finales del año pasado desarrollaron una actualización que facilitaba la localización de información falsa, aunque decidieron archivarla porque perjudicaba a los medios centrados en la derecha política.

Los problemas de la personalización
Sin negar el avance que suponen estas medidas en la lucha contra la desinformación, la opacidad del algoritmo del gigante social le hace un flaco favor a la transparencia informativa. Las variables que influyen en la selección de los contenidos que encuentra un usuario cuando accede a su plataforma no son accesibles al público y nadie sabe cuáles son exactamente los factores que determinan los artículos que le están ofreciendo. Los algoritmos pueden equivocarse o dejar de ser objetivos involuntariamente por no tener en cuenta factores relevantes en la inclusión de una u otra entrada. Porque el hecho de que sea privado no implica que sea perfecto.

Zuckerberg aclaró en noviembre de 2014 que su objetivo era “construir un periódico personalizado perfecto para cada persona en el mundo”. Con esta pretensión, ha ayudado a conformar lo que Eli Pariser definió tres años antes como la burbuja de filtros, un entorno en el cual las personas pierden acceso a las fuentes de información con la que no están de acuerdo y se limita su visión del mundo a aquello que suelen compartir.

En una reciente entrevista a EL PAÍS, Pariser alertaba de que ceder el poder de distribución de la información a plataformas como Facebook implicaba aceptar que decidan lo que entra y lo que no y ahondaba en la diferencia entre el potencial de la red y su realidad, bien distinta. “Internet puede ser una herramienta extraordinaria para descubrir ideas. Puedo leer cualquier diario del mundo, algo imposible hace 20 años. Pero, ¿realmente lo hago?”.

Katrina & The Waves: Spider-Man

Letra de «Spiderman»

Katrina & The Waves

Yo creo en mi tv

Y mi Spiderman ABC
La gente puede decirme que no es real

Pero yo – yo me volví loco por esa seda y acero

Quiero ser rescatado de las garras de los malos

Quiero saber que es ese toque de Spiderman

hombre araña

hombre araña

Me enamoré de un operador suave

Él me amaba ahora, así que te veo luego.

Caí en su red de Spiderman

Ahora soy tan feliz como una chica puede ser

hombre araña

hombre araña

hombre araña

hombre araña

hombre araña

hombre araña

El Estornino

El Estornino
Por: Darío Valle Risoto

Melissa McCarty en esta película no hace su acostumbrado rol de comediante sino que encara un papel dramático, más no exento de algún momento con cierto humor en tanto tiene un enfrentamiento con el Estornino que da título a esta película.

Todo trata nada menos que de un matrimonio que intenta superar la muerte de su hija bebé con diferentes luchas personales y en pareja en tanto el está internado en un psiquiátrico por intento de suicidio y ella a su manera intenta salir adelante incluso recuperando el jardín de su casa hasta que cierto pájaro la ataca.

Muy buena historia excelentemente equilibrada que nos hará pensar en nuestras propias pérdidas y como hemos logrado salir adelante, o no. Kevin Kline interpreta a un particular veterinario y el actor Christ O´Dowd a su marido, actor este último que se merecerá ser seguido ya que en esta ocasión demuestra con creces estar a la altura de sus dos compañeros de ruta en una película muy recomendable que reitero: indefectiblemente nos hará pensar y/o repasar aquellas pérdidas que todos hemos tenido en nuestro tránsito por este mundo.

¿Quién determina el buen gusto? 3

¿Quién determina el buen gusto?
3ª Parte
Por: Darío Valle Risoto

“La vida está llena de cosas insignificantes pero algunas de ellas son más importantes de lo que creemos”   (Yo)

Noche de asma e insomnio, pongo HBO y están exhibiendo la película Sex and the city 2 donde las cuatro protagonistas, verdaderas pelotillas neoyorquinas viajan a Abu Dhabi invitadas por un Jeque árabe a un hotel de más o menos diez estrellas. Entonces aparte de comprobar que a medida que se va poniendo vieja la actriz Sarah Jessica Parker se parece más a un transvertí, veo que los chistes habituales sobre carteras, zapatos y atuendos de moda siguen en pie y parece que venden entre una audiencia que probablemente sea de clase media para abajo.

El secreto del cine y la televisión es mostrarnos aquellos mundos a los que raramente accederemos en nuestra vida cotidiana paupérrima y aburrida, la condición…

Ver la entrada original 875 palabras más

Free Guy: Esto ya lo vi antes.

Free Guy
Por: Darío Valle Risoto

Con un ultra sobrecargado caudal de efectos digitales Free Guy trata de un personaje “De relleno” dentro de un videojuego de mundo abierto que de pronto cobra conciencia de que está vivo y de allí en más veremos cómo interactúa con la gente real “de este lado” mientras que enamorado del personaje de una usuaria poco a poco nos veremos inmersos en una película hecha a la manera de Ryan Reynolds (Deadpool) con buenos momentos y muchas menciones a personajes conocidos.

Bien, la película tiene un enorme aroma a “Ready Player One” y para colmo le roba la idea de los lentes que hacen ver la realidad a un enorme clásico como “Están vivos” lo que me pareció un verdadero insulto sobretodo porque recrean la famosa escena en que el protagonista le quiere prestar dichos lentes a su amigo y este se niega a ver la realidad. Esto no me gustó por más que reitero que la película es suficientemente buena, más está hecha a la sombra y medida de Reynolds que funciona con su humor adolescente y medio idiota casi a lo Adam Sandler.

Por lo pronto el cameo de algún actor del universo Marvel vale la pena pero creo que toda la película está especialmente dirigida a aquellos que pasan varias horas jugando a este tipo de juegos de mundos abiertos estilo Vice City y muchas otras pero reitero que con Ready Player One estaba todo mejor hecho, dicho y demostrado, así que Free Guy creo que lo intenta pero no lo logra y queda sometida a la ley de ese hermoso monstruo llamado “plagiosaurio” que suele asolar las tierras de Hollywood desde el Rey león a nuestros días.

Como dato que no puedo saber si será así, supongo que los usuarios que aparecen durante esta película desde diversas plataformas, youtubers y todo ese grupo de niños de treinta que viven en el sótano de la casa de sus madres serán reales e invitados a esta fiesta de color y acción…solo lo supongo.