Trump, Twitter y el gran debate sobre la “censura”: quién tiene el poder para marcar qué puede decirse en las redes sociales

Share on facebook
Share on google
Share on twitter
Share on linkedin
Click here to view original web page at www.xataka.com

Artículo seleccionado, original en www.xataka.com


Trump, Twitter y el gran debate sobre la

Una empresa privada silenciando al mismísimo presidente de los EE.UU. Hay quien interpreta la decisión de Twitter como un acto de censura hacia Trump, mientras que también puede verse como un acto de responsabilidad de la red social para evitar propagar mensajes que incitan a la violencia. En medio está el gran debate sobre la libertad de expresión y qué poder de decisión tienen las redes sociales sobre el contenido que se publica en ellas.

Hemos hablado con cinco expertos juristas y abogados en libertad de información y comunicación digital para conocer qué impacto tiene el bloqueo de la cuenta de Trump, qué sustento legal tiene la decisión de Twitter y hasta qué punto las grandes tecnológicas deben jugar el papel de moderador sobre lo que publicamos.

Un punto de inflexión en el debate sobre libertad de expresión

Donald Trump
Captura del perfil de Twitter de Donald Trump, previa a la suspensión de la cuenta.

"Si lo han hecho con el todavía presidente de los Estados Unidos, qué no harán con los demás", explica Borja Adsuara, profesor y abogado en derecho. Ante la pregunta sobre si ha habido censura contra Donald Trump, el experto expresa que "claramente sí". "Si ha cometido un delito, que lo diga un juez. Si no es claramente ilegal, ¿por qué lo borran?", explica Adsuara. "Que un juez impute a Trump con una relación de causa-efecto, todavía está por verse".

La suspensión de la cuenta de Trump representa uno de los episodios más importantes de los últimos años en cuanto a libertad de expresión en redes sociales. Si Twitter, a iniciativa propia, puede cerrar la cuenta de Trump sin que se haya demostrado que sus mensajes eran ilegales, ¿qué les separa de convertirse en responsables directos de lo que se publica?

En juego está el papel que tienen que adoptar las redes sociales. O bien son meros intermediarios y permiten publicar todo aquello que no sea claramente ilegal o bien toman una posición más activa, eliminando contenido que pudiera derivar en una "conversación menos sana", según acostumbran a describirlo las propias redes sociales.

"Las redes sociales no son como un periódico, que tiene línea editorial propia", repasa Adsuara. "Si a un medio digital se le cuela un artículo, la responsabilidad va en cascada. La culpa sería del director del periódico. Imagina que eso fuera así en redes sociales. Tecnológica y jurídicamente no tiene sentido". Es la diferencia entre las redes y los medios.

Adsuara

"Si yo mando una carta al director y no me lo publica, no es censura. Porque tiene línea editorial y puede elegir", expone Adsuara. "Cuando empezó la moda de los blogs, lo de Twitter era microblogging. Mi cuenta en Twitter es mi medio. Es igual que la plataforma Wordpress o Blogger. Imagina que Wordpress fuera responsable de todas las webs que aloja. Salvo blogs claramente ilegales como con pornografía infantil, que entonces sí deben cerrarlos, Wordpress no puede etiquetar las entradas de todos los blogs con un aviso sobre su veracidad".

Con el caso de Trump, Adsuara apunta a la gravedad del caso precisamente porque ni siquiera en una situación tan excepcional se ha acudido a un juez: "Ha habido gente a la que le han suspendido la cuenta durante días. No es el primero. Pero si lo han hecho con él, ¿qué podemos esperar el resto de Twitteros? La más absoluta arbitrariedad. No se ha acudido al juez ni con el presidente de los EE.UU. Me parece que habría merecido la pena".

"No se ha acudido al juez ni con el presidente de los EE.UU. Si lo han hecho con Trump, ¿qué podemos esperar el resto? La más absoluta arbitrariedad".

"Somos absolutamente partidarios de la libertad de expresión, pero también entendemos la libertad de empresa. El poder tener cierto control sobre cómo funciona su empresa", explica Ofelia Tejerina, abogada y presidenta de la asociación Internautas.

"Puedo poner un atril en un pueblo y decir a todo el mundo que se puede hablar libremente. Pero si alguien utiliza eso para mentir o crear alarma social, puede llevar a ser constitutivo de delito. Como empresario, no puedo permitir que esa persona cometa ilícitos a través de mi herramienta. ¿Cómo funciona la libertad de expresión? ¿Soy yo quien decide cuándo le quito el micrófono? En mi opinión, es menos arriesgado informar a las autoridades competentes de que alguien está cometiendo delitos. Y no ha sido el caso de Trump", explica Tejerina.

"En España y Europea tenemos una cosa que se llama la Teoría del Conocimiento Efectivo. Si avisan al prestador de servicios y no lo paran, entonces se hace responsable. Se impone por ley una responsabilidad directa", apunta Tejerina. Sin embargo, ¿quién determina que eso no se puede publica? ¿sirve con que cualquier usuario denuncie un contenido? "Es una batalla que llevamos desde 2007-2009, ya con el Tribunal Supremo y los foros. Las redes sociales se podían acogen a un puerto seguro, donde simplemente actuaban como un intermediario técnico, pero la tendencia es hacia exigirles cada vez más responsabilidad".

Ofelia Tejerina

Lo que puede parecernos ilegal, y por tanto marcar el límite de la libertad de expresión, no siempre es tan fácil. Tejerina nos expone el caso #putaSGAE. "En la asociación Internautas fuimos multados. Sin embargo, Jiménez Losantos dijo que eran unos ladrones, algo que puede identificarse como calumnias, y el juez dijo que no era ilegal, que era el sentir popular. Hay cosas que pueden parecer evidentes, pero un juez dijo que no eran ilegales". De ahí la dificultad que sea una empresa privada la que tome estas decisiones.

"Yo creo que Twitter hasta la fecha lo ha hecho bien en campañas para evitar el ciberacoso o contra las fake news... pero también ha eliminado muchísimas cuentas sin que mediara un juez. Hasta ahora no ha pasado nada. Pero ahora es Trump", concluye Tejerina.

Eliminar mensajes de odio sin pasar por un juez es un plan peligroso: las dudas que plantea la proposición de Unidas Podemos

¿Una decisión llevada a cabo por la gravedad del asalto?

Camilo Jimenez

"Fue la decisión correcta, pero sienta un precedente peligroso", reconocía Jack Dorsey, CEO de Twitter. No es el único que ha publicado su opinión ante este espinoso asunto.

La cancillera alemana, Angela Merkel, explicaba a través de su portavoz, que el veto de Twitter a Trump era "problemático", apuntando que "lo correcto" era que el Estado y el Parlamento establecieran un "marco" para regular las redes. Los operadores "tienen la gran responsabilidad de garantizar que la comunicación política no se vea envenenada por el odio, la mentira o la incitación a la violencia", pero estas intervenciones "solo pueden tener lugar según la ley y en el marco definido por el legislador, y no según la decisión de la dirección de las plataformas de medios sociales", apuntaban desde Alemania.

I believe this was the right decision for Twitter. We faced an extraordinary and untenable circumstance, forcing us to focus all of our actions on public safety. Offline harm as a result of online speech is demonstrably real, and what drives our policy and enforcement above all.

— jack (@jack) January 14, 2021

“La regulación de los gigantes digitales no puede hacerse por la misma oligarquía digital”, expresaba Bruno Le Maire, ministro francés de Economía y Finanzas, muy crítico con las grandes tecnológicas. Por parte del Comisario Europeo, Thierry Breton, se ha comparado esta decisión de Twitter con el "11-S de las redes sociales". "Esto justifica totalmente lo que venimos haciendo desde hace un año, esta regulación de las redes sociales (…) que responde muy precisamente a este tipo de interrogantes. Y si alguna vez se pone en práctica, lo que ha pasado en Estados Unidos nunca podría reproducirse", explicó Breton.

Alexéi Navalni, opositor ruso, denunciaba en Twitter el "acto de censura" basado en "sentimientos y preferencias políticas". Mientras, Kate Ruane, de la asociación estadounidense en defensa de los derechos cívicos, explicaba que "todo el mundo debería preocuparse cuando estas empresas tienen el poder de retirar a personas de sus plataformas que se han convertido en indispensables para la expresión de millones de individuos". Margrethe Vestager, Comisaria de Competencia de la Unión Europea, describía el bloqueo como una "situación extrema".

Las grandes tecnológicas han declarado la guerra a Trump. Ahora temen por su seguridad

El bloqueo de Trump lleva a preguntarse sobre si se trata de un caso único o nos alerta de lo que está por llegar. ¿Se ha actuado de la misma forma que con el resto de usuarios? ¿Pueden extrapolarse conclusiones del caso Trump o se trata de un bloqueo excepcional?

Sergio Carrasco

"No se trata de un incumplimiento puntual, sino reiterado en el tiempo, lo que ha provocado la eliminación. Ha sido un caso extremo, todo lo relacionado con el asalto al Capitolio", explica Sergio Carrasco, abogado de Fase Consulting y experto en telecomunicaciones. "Creo que incluso se ha sido más flexible con Trump, debido a su cargo, que no en otros casos".

Carrasco es de la opinión que no ha habido censura contra el presidente de los EE.UU: "no ha habido censura como la que viene por la norma, que es una protección que se refiere a poderes públicos. Lo que ha habido es una empresa privada que ha limitado los derechos, pero no toda limitación es una vulneración".

"No todo discurso queda amparado con libertad de expresión", explica Carrasco. Y nos apunta a un caso con un afiliado de Vox, José Luis Sánchez Saliquet, donde la audiencia avaló el cierre de la cuenta de Twitter que vinculó pederastia y homosexualidad. "Twitter le devolvió la cuenta y antes del juicio, la persona la lió de nuevo y entonces se la quitaron. La sentencia dijo que los primeros tuits sí quedaban amparados, pero luego no", repasa Carrasco. "No toda limitación de derechos la tiene que hacer un juez. Eso no siempre es cierto. Si no estás de acuerdo con una decisión, puedes impugnarlo judicialmente".

¿Podría Trump recuperar su cuenta si demandara a Twitter? "En el caso de Trump, la cuenta había excedido el ámbito personal. Por su cargo y porque se trata de discurso político, hay una protección muy grande", nos responde Carrasco. "Si denunciase, yo entiendo que sí. Por mi experiencia profesional como abogada, diría que sí", contesta Tejerina. La propia Twitter explicaba en 2019 la aproximación especial hacia los líderes mundiales y políticos.

Joan Barata, experto en libertad de expresión y jurista de la Plataforma en Defensa de Libertad de Información, cree que habría sido posible una solución menos drástica: "además de la ley, cuando aplicamos normas internas nos inspiramos en estándares internacionales de libertad de expresión. Por ejemplo la idea de proporcionalidad. ¿Es proporcional lo de Trump? Hay margen para preguntárselo. ¿Era la suspensión una medida estrictamente necesaria para conseguir el fin perseguido? Quizás habría bastado con un intersticial, con un aviso. En algunos casos hay que dar especial visibilidad a lo que dicen los políticos, para saber sus propios juicios. Si se silencian, será más difícil poder juzgarlos. Si un político dice un disparate, es bueno que sepamos lo que dice".

"Espero que Twitter haya conservado los tuits. Esos tuits de Trump pueden tener un interés histórico. También desde el punto de vista legal, con el proceso de impeachment", apunta Barata.

Samuel Parra

Samuel Parra, jurista especializado en privacidad y protección de datos, expone que "ha habido una actuación desproporcionada ante unos mensajes que no requerían de un cierre definitivo. Twitter tiene unas normas de uso, para todos iguales. Da igual si eres presidente de EE.UU u otro".

"El problema es que todo es muy abstracto. Una incitación al odio, ¿qué significa eso? Según cada organismo jurídico puede ser distinto. Son términos coloquiales", apunta Parra. "Lo que le ha pasado a Trump es que hay unos intereses económicos más allá. Yo estoy seguro de que si navegas hacia lo que se publicó hace uno o dos años, eran más brutos".

"Hay que establecer medidas claras de qué está permitido y qué no. Si no la gente no entenderá por qué le suspenden la cuenta a Trump y no a gente que dice cosas peores. Para que no parezca que quien tiene el dedo encima del botón lo hace subjetivamente. La suspensión de la cuenta es una medida legítima y válida, mientras se discute. Mientras discutimos se puede suspender el mensaje o la cuenta; dejarla en cuarentena. ¿Qué sucede si al final el Tribunal decide que se publicó haciendo uso de la libertad de expresión? Eso debería tener consecuencias, en forma de multas. Esa persona debería ser resarcida, con dinero."

La doctrina del "buen samaritano": esto es lo que dice la popular Sección 230

Barata nos explica su visión sobre la "censura" a Trump: "depende del concepto de censura que utilicemos. Legalmente, es un poco más complicado. La censura es una prohibición de control previo a la publicación de un contenido por parte de los poderes públicos. La libertad de expresión se reconoce a los ciudadanos aquí frente a los poderes públicos, no frente a los sujetos de carácter privado".

En el caso de los Estados Unidos, también hay conceptos que varían. "Si vemos las características del sistema jurídico de los EE.UU, donde en la primera enmienda se defiende el derecho a la libertad expresión. Este derecho comprende la libertad de establecer dentro del espacio privado aquellas normas de no permitir determinado contenido. Cuando las plataformas toman decisiones en materia de contenidos que van más allá de la ley, están haciendo uso de su libertad de expresión dentro de su espacio", explica Barata. "En realidad si un juez en EE.UU obligase a la plataforma a incluir lo que dice Trump, estaríamos ante lo que se llama un "speech forzado". Una violación de la primera enmienda pero para Twitter, pues se le estaría obligando a decir cosas que no quieren decir. Desde ese punto de vista, no se puede decir que haya habido censura en el sentido estricto".

"Lo que dice Trump no es ilegal. El juez no tendría ningún papel, pues podríamos llegar a la conclusión que se trata de un speech protegido por la primera enmienda. El debate es sobre las normas internas y si se han cumplido o no. En Estados Unidos hay una especial protección a las plataformas en lo que se refiere a sus decisiones sobre su propio contenido", expone Barata.

Buen Samaritano
Doctrina del "buen samaritano" de la Sección 230 de la 'Communication Decency Act'. Imagen:

Las redes sociales en Estados Unidos se rigen por la Ley de Decencia de las Comunicaciones. En concreto por la conocida como Sección 230, que hace referencia a la moderación de contenido y las normas que rigen los contenidos que publican terceros.

Joan Barata

"En EU.UU existe la famosa sección 230, que establece dos cosas desde finales de los 90. Las plataformas no son responsables del contenido subidos de terceros (como en Europa) y un segundo punto donde, en relación a materia de contenidos, no se les hace responsables frente a las acciones tomadas de buena fe con contenidos objetables", nos explica Barata, describiendo lo que se conoce como la doctrina del "buen samaritano". "Usted tiene toda la libertad para sacar el contenido, porque nadie le va a responsabilizar", asegura Barata.

Se trata de un punto importante para entender la postura adoptada por Twitter, pues esa doctrina del "buen samaritano" no tiene equivalente europeo en la Directiva 2000/31/CE sobre el Comercio Electrónico.

"La doctrina permite a las plataformas moderar contenidos, incluso incentiva la moderación. Se les dice que tomen decisiones, que si se equivocan, no les vamos a pedir responsabilidad. La Sección 230 estimula a las plataformas a moderar", explica Barata.

Lo que Joe Biden opina sobre las 'Big Tech', Internet, el conflicto con Huawei y la tecnología en general

"Twitter realizó una publicación justificando el criterio de por qué borraban la cuenta de Donald Trump. Ellos justifican esa buena fe del "buen samaritano" y ante una demanda, no habría responsabilidad hacia Twitter. En todo caso una restitución de la cuenta", explica Sergio Carrasco.

"El derecho en los EE.UU es distinto que en Europa. Son muy contractualistas y ha habido un incumplimiento del contrato. En España y Europa no es así, no es contrato entre dos particulares iguales", explica Adsuara. "Se presta un servicio, pero no hay uno alternativo. No hay un Twitter B. Si me cierran mi Twitter; me quedo sin los miles de tuits, me quedo sin el histórico y sin los seguidores. No puedo coger, empaquetarlos y llevármelos a otro lugar", expone Adsuara.

"En Europa nunca adoptamos la doctrina del "buen samaritano". Tienen una ética calvinista, con moralinas bastante hipócritas. La Sección 230 hablaba de contenidos lascivos, sucios.. relacionados con pornografía, luego se metieron en otros contenidos. En un primer momento el Tribunal Supremo echó esa ley para atrás, pero luego ha ido avanzando", describe Adsuara. "No me creo que estas acciones de Twitter hayan sido de espaldas a la administración Biden".

"Trump era mucho más capitalista. Pro-empresa. Biden va a ser más conservador y va a imponer más límites y responsabilidades para las empresas. Pero cuidado, es una trampa. Es un discurso peligroso porque no se está poniendo el foco en la otra cara de la moneda. Se les está dando un poder tremendo, sobre el contenido que los usuarios podemos acceder", alerta Tejerina.

Cómo van a adaptarse las leyes

En este 2021, se espera que la administración Biden intente iniciar una reforma de la sección 230, para obligar a las redes sociales a regular más sus contenidos. "Yo creo que las plataformas se encuentran ante una presión muy intensa. Por un lado tienen partidos como el demócrata o el centro izquierda europeo, que dicen que las plataformas tienen que hacer más para controlar discursos de odio y desinformación. Por otro lado, desde el republicano, se quiere modificar la sección 230, pero para que las plataformas hagan menos", describe Barata. "La sección 230 en ningún momento dice que las plataformas sean neutrales. No está claro tampoco qué puede significar la neutralidad. Sí se recoge la libertad para decidir qué es objetable".

"La reforma desde el lado demócrata no sería tanto quitar la exención, que hasta la fecha ha funcionado relativamente bien, sino obligar de forma estructural y con mecanismos internos a que haya más transparencia, poder presentar recursos, denuncias y que el usuario sepa por qué le cancelan la cuenta. Una mejor coherencia a la hora de tomar decisiones", anticipa Barata.

Las ideas propuestas para una posible reforma de la sección 230 están en línea con la Digital Services Act, la reforma europea del mundo digital que se presentó el pasado mes de diciembre. "La DSA estimula las iniciativas de las plataformas para regular contenidos nocivos. En principio no tendrían responsabilidad por esas decisiones, pero se dice de una forma un poco ponderal", describe Barata. "Hay mucho que pulir en la redacción. Hay como una cláusula del "buen samaritano" un poco matizada. No es tan sólida como en los EE.UU y todavía quedan ambigüedades interpretativas".

"En la DSA, el artículo más importante es calcado al de la Directiva del año 2000. Luego hablan de evaluación de riesgos técnicos para la salud pública, la seguridad y el discurso cívico, como una obligación añadida para las grandes plataformas. Y que deben adoptar medidas para mitigarlos", explica Adsuara. "Por otro lado, también hablan de hacer una evaluación de los riesgos en libertad de expresión. Es muy ambiguo, pero lo uno por lo otro". Adsuara se refiere a que la propuesta de la Comisión Europea deja la puerta abierta a que las redes sociales tengan ciertas responsabilidades añadidas que podrían derivar en un mayor control del contenido. Un control en base a moderar el discurso cívico, pero donde también deben controlar que se mantenga la libertad de expresión.

Asalto Capitolio

En la misma dirección apunta la Electronic Frontier Foundation (EFF), quien explica que las decisiones de Twitter, Facebook y otras redes están protegidas por la Sección 230 pero no deberían "aplicar un conjunto de reglas más permisivo a los políticos". Sí defienden que las plataformas "sean más transparentes y consistentes en la forma en que aplican sus reglas".

A la espera de que la Comisión Europea apruebe la futura regulación, algunos países han dado pasos para cambiar sus leyes nacionales. Es el caso de Alemania o de Francia, donde se aprobó una ley para regular los mensajes de odio, pero fue declarada inconstitucional. En España, la propuesta más cercana para regular el contenido de las redes ha sido una Proposición No de Ley del Grupo Parlamentario Unidas-Podemos.

¿Está la Justicia adaptada al mundo digital?

El límite de la libertad de expresión lo marca la ley. El juez es quien tiene la última palabra, pero casos como el de Donald Trump y la eliminación de cuentas cuestionan la agilidad de la justicia. Ante un internet con millones de usuarios y mensajes, ¿pueden los jueces asumir la carga de trabajo requerida?. Preguntamos a los distintos expertos sobre ello.

"En caso de vulnerar derechos fundamentales, podríamos hablar de una cautelarísima. Es un procedimiento especialmente rápido, sin necesidad de escuchar a la otra parte. En España existe, a través de un Tribunal de Primera Instancia", explica Carrasco. "La parte de la Justicia es contar con más medios. Pero sí hay casos bastante ágiles, de un día para otro, como grabaciones de terrorismo o suicidios. Ahí la red también actúa rápido. Si la Justicia tuviera medios infinitos, el debate posiblemente no existiría. Pero eso es como siempre. La SGAE por ejemplo decía que se tardaba mucho tiempo en eliminar contenido de propiedad intelectual".

"Todo esto habrá que ver en qué queda al final. A lo mejor esto de Trump ha venido bien, para aclarar conceptos", reflexiona Adsuara. "¿Quién va a decir lo que yo puedo ver y lo que no puedo ver? ¿Dorsey y Zuckerberg? Yo reservaría para los jueces los temas gordos. Con mecanismos internos de reclamación y luego un organismo de autocontrol sectorial. Una segunda instancia donde se puedan revisar decisiones. Se quedaría todo ahí. Un comité para armonizar criterios. Justamente se hacen estos organismos para que sea una trinchera y no se pasen salvo los casos más gordos".

"Cuando alguno no está de acuerdo con las decisiones de autocontrol y acude a los tribunales, los jueces le dan la razón en un 98% a autocontrol. Porque hablan con los jueces, tienen muy clara la jurisprudencia y aplican los criterios de los jueces", explica Adsuara sobre la propuesta de un organismo de autocontrol, similar al que existe en publicidad. "Se trata de un organismo para revisar los "falsos positivos" que producen los algoritmos, así como las decisiones humanas en dichas empresas".

"La solución es más medios, aunque no descartamos soluciones arbitrales, como las de Consumo o Publicidad", explica Tejerina. "Lo que no queremos es un Ministerio de la Verdad". ¿Cómo evitarlo? "Que las personas que lo dirijan no tengan corte político ni sean un cargo de confianza que puedan nombrar", expone Tejerina.

Este organismo se contempla en la Directiva de Servicios Digitales, pero Samuel Parra reconoce que "es difícil un control a nivel europeo. Las sensibilidades de lo que es tolerable va por países y culturas."

Buscando la solución: un estándar abierto para redes sociales

Network Decentraliced

Una de las propuestas llegaba de la mano del propio Jack Dorsey: un estándar abierto para redes sociales. Un estándar sobre el cual Twitter trabajaría al mismo nivel que el resto. Con este sistema, en caso de que Twitter decidiera cerrarnos la cuenta, únicamente tendríamos que irnos a otro lado, pero todos nuestros tuits y seguidores se mantendrían.

"Cambiaría el marco de competencia. Si me expulsan de Twitter, no me puedo ir a ningún sitio equivalente. Es un debate reforzado con lo que ha pasado con Parler", explica Carrasco. "Si hay un estándar y hay conexiones, se podría entender mejor que te expulsen de una porque no te afecta ya que puedes ir a otra y llevarte todo, sin perder nada".

"Es la línea a seguir", explica Barata. "Me recuerda a los debates sobre la liberación de las telecomunicaciones y la desagregación del bucle local. Si tienes un teléfono, deben dejar que sus competidores se conecten. Si no la competencia es imposible. El camino, que las propias plataformas han asumido, no es tanto que sean diferentes sino hacer que las plataformas se vuelvan cada vez más interoperables".

"Desde un punto de vista técnico y jurídico, veremos cómo se acaba aplicando la idea de interoperabilidad. Habrá que ver cómo se articula. La historia de la regulación de las redes es la historia de los 'gatekeepers'. Hace unos años era el ordenador, luego pasó a ser el sistema operativo. Quien controla el sistema lo controla todo. Luego fue el navegador y ahora las redes sociales. Acabará apareciendo una nueva tecnología que romperá el poder, y habrá otros", describe Barata apuntando al debate de fondo.

"Las grandes plataformas como Facebook, al final, pueden sentirse tentadas a rendirse. Me piden detectar grupos terroristas, aplicar sistemas de inteligencia artificial, hacerme responsable... al final dirán que cada usuario defina lo que quiere ver y ya está", contrapone Barata. "El debate existe desde hace muchos años y expulsar a la periferia a los movimientos extremistas no necesariamente peligrosos puede radicalizarlos".

El dilema 'cyberpunk': hacia una privatización del control de la libertad de expresión

El 'cyberpunk' nos alerta de los peligros de un mundo controlado por multinacionales. Los Estados se presentan como defensores de nuestros derechos fundamentales, entre ellos el de libertad de expresión. Sin embargo, los expertos apuntan que nos encaminamos hacia un futuro donde las grandes plataformas tendrán más responsabilidad (y poder) sobre lo que permiten decir en ellas.

"La DSA hace un esfuerzo para concretar cuáles son esas obligaciones. Intenta decir en qué ámbitos las plataformas deben ser transparentes. Lo negativo es que, usted genera unos riesgos y yo le obligo a evaluar cuales son esos riesgos y tomar medidas necesarias. Y yo, como autoridad pública, le puedo sancionar. Ahí es donde está el peligro", avisa Barata: "ahí donde la moderación privada se vuelve peligrosa es en aquellos casos donde es el resultado de una presión de los poderes públicos. Hay una tendencia a sobre reaccionar y tomar medidas surgidas de una presión del poder público".

Twitter

"Lo que quiere la Comisión Europea, en base a imponer más responsabilidad, es que las plataformas hagan más, más incluso de lo que pretende la ley. Sí, se está delegando poder en plataformas privadas, el de regulación de contenidos", asegura Barata. "Una cosa es que la plataforma decida libremente y otra que lo haga porque hay una autoridad pública detrás, que como no decidas, te impone una sanción de varios millones de euros. Y esta es la parte preocupante: el hecho que existe una mayor erosión de la protecciones de responsabilidad y una mayor imposición de obligaciones delegadas".

"Además se están adoptando normas que las plataformas solo pueden cumplir si utilizan algoritmos e inteligencia artificial, porque manualmente no pueden. Se asume que la IA es la solución. Vamos a obligar a que no tengan ningún contenido terrorista, porque sabemos que hay algoritmos para eliminarlos. Y si usted no tiene ese software, pues sanción. Por el camino quedarán atrapados contenidos y a la plataforma le va a dar igual. Y para evitar la sanción, aplicarán el filtro", explica Barata.

"Ha pasado con Google y Youtube. Es la tendencia y es peligrosísimo. Se está configurando muy mal la responsabilidad de las redes sociales. Se les exige que actúen sin que media un juez. Las propias plataformas se quejan continuamente, pero esa responsabilidad de la que se quejan, es un poder tremendo", expone Tejerina. "Desde la asociación les hemos defendido cuando se quejaban de la responsabilidad. Decían que el impacto económico era bestial, que la IA no podía con todo... estábamos en la misma línea, pero por dos cosas distintas".

Let's start a conversation

This website uses cookies to ensure you get the best experience on our website.