Cómo hacer responsables a las plataformas de internet cuando amplifican contenidos nocivos

Un caso del Tribunal Supremo que se debatirá oralmente el 21 de febrero podría transformar la web tal y como la conocemos.

El caso fue presentado por la familia de una mujer asesinada en 2015 en un atentado terrorista del Estado Islámico en París. Los demandantes alegaron que YouTube, propiedad de Google, permitió a sabiendas que se publicaran cientos de vídeos radicalizadores y que YouTube recomendaba vídeos del ISIS a los usuarios. Google alegó que en este caso está exento por la Sección 230, la poderosa legislación de 1996 que protege a las empresas de Internet y de medios sociales de la responsabilidad legal por el contenido publicado por los usuarios.

La posición de Google fue respaldada por un tribunal federal de distrito y por el Tribunal de Apelaciones del 9º Circuito de EE.UU.. El hecho de que el Tribunal Supremo se haga cargo del caso indica el interés de los jueces por pronunciarse sobre esta ley histórica, que sigue siendo un instrumento legislativo vital para proteger a las pequeñas y medianas empresas sin grandes bolsillos ni ejércitos de abogados para defenderse de innumerables demandas. Ofrece a las empresas un amplio margen para moderar sus sitios web a su discreción sin incurrir en responsabilidad y, lo que es más importante, permite a las nuevas empresas desafiar a las establecidas en el mercado libre.

La Sección 230 ha suscitado críticas de ambos bandos. El Presidente Biden reiteró su llamamiento a reformar la ley a principios de este año. Los políticos demócratas, incluido Biden, en general quieren reformar o revocar la Sección 230 para obligar a las empresas de medios sociales a moderarse más. Los políticos republicanos, entre ellos el ex presidente Trump y el senador Mitch McConnell, han pedido que se revoque para obligar a las empresas de medios sociales a moderar menos. El Tribunal Supremo también está considerando escuchar casos que desafían las leyes de Texas y Florida que limitan la capacidad de las plataformas para eliminar contenido o les impiden prohibir a los políticos.

Cuando se promulgó la Sección 230, la web era un lugar muy diferente. Las redes sociales eran incipientes. Las plataformas de entonces no espiaban, rastreaban, seleccionaban y manipulaban la actividad en línea de sus usuarios. Hoy, este modelo de negocio es la gallina de los huevos de oro de los gigantes de las redes sociales. Ahí radica el problema: gigantes como Facebook, Instagram, Twitter, TikTok y YouTube han abusado de los privilegios de la Sección 230. Se escudan en la responsabilidad de esta legislación. Se esconden tras el escudo de responsabilidad de esta legislación mientras dirigen a sus usuarios contenidos que no han solicitado ni buscado.

En lugar de eliminar el artículo 230, deberíamos reformarlo para permitir la libertad de expresión y apoyar a las empresas emergentes con financiación modesta, al tiempo que exigimos responsabilidades a todas las empresas. Sus escudos de responsabilidad deberían proteger el contenido en cuya promoción o amplificación una empresa web no tenga nada que ver y las decisiones de moderación que se ajusten específicamente a las condiciones de servicio de la empresa.

Pero la protección de la responsabilidad debería eliminarse en cuatro casos: contenido que los algoritmos de una empresa hacen “tendencia” frente a usuarios que de otro modo no lo habrían visto; contenido que ha sido impulsado a través de un sistema de anuncios de pago de un sitio; contenido eliminado que no infrinja ninguna de las normas de publicación del sitio -por ejemplo, las que prohíben el acoso selectivo, la intimidación, la incitación a la violencia, el spam o el doxxing- vigentes el día de su publicación; y contenido recomendado o insertado en el feed de un usuario, algorítmica o manualmente por el sitio, que el usuario no haya aceptado explícitamente.

Los sitios pueden elegir: ¿Quieren participar en la segmentación y manipulación del feed de noticias de sus usuarios y, por tanto, ser considerados responsables? ¿O simplemente quieren ofrecer una plataforma en la que los usuarios sigan los contenidos de los amigos, grupos y personas influyentes con los que decidan conectar y ver? En este escenario, las recomendaciones algorítmicas tendrían que ser mucho más transparentes. Los sitios tendrían que identificar claramente qué contenido se ha promocionado mediante sus algoritmos y obtener el permiso expreso de los usuarios para ofrecerles ese contenido, lo que daría a los usuarios más control y transparencia.

Además, en línea con la justificación de Florida para su ley que puede llegar al Tribunal Supremo, la Sección 230 debería modificarse para exigir a los sitios “ser transparentes sobre sus prácticas de moderación de contenidos y notificar adecuadamente a los usuarios los cambios en esas políticas.” La libertad de expresión debe protegerse de los caprichos políticamente motivados del equipo directivo o de los empleados de un sitio.

También es importante identificar de qué contenidos impulsados no serán responsables las empresas. Por ejemplo, ¿qué ocurre si una empresa de redes sociales recomienda un post sobre surf de olas grandes y un niño ve el post, sale a surfear y se ahoga? ¿Puede su familia demandar a la red social? La solución es aclarar en la nueva legislación 230 que las empresas son responsables de determinados tipos de delitos.contenidos que promueven, como la difamación y la incitación a la violencia, y no cualquier contenido que preceda a un resultado terrible.

Cualquier cambio más amplio de la Sección 230 causará una pérdida total de la privacidad del usuario en línea. Si las empresas web son consideradas responsables de todos y cada uno de los contenidos de sus plataformas, tendrán que examinar todo lo que publiquen los usuarios: el Gran Hermano con esteroides. Las empresas de nueva creación tendrían dificultades para sufragar los gastos de vigilancia o los honorarios de los abogados.

Si se revoca la Sección 230, para evitar responsabilidades, las empresas web censurarían cualquier contenido remotamente controvertido o adoptarían un enfoque de no intervención y evitarían por completo la moderación. Lo primero serían pesadillas orwellianas desprovistas de libertad de expresión, mientras que lo segundo significaría pozos negros de contenidos desagradables. Es un escenario en el que todos pierden.

El Tribunal Supremo debería mantener la Sección 230 para seguir protegiendo la libertad de expresión y fomentar la competencia. Después, es tarea del Congreso hacer reformas cuidadosas. Exigir responsabilidades a las empresas por los contenidos claramente definidos en los que participen activamente como objetivo, impulsores o censores. Al mismo tiempo, establecer normas que garanticen la protección de la privacidad de los usuarios y eviten demandas frívolas. Este es el mejor camino: un compromiso.

Mark Weinstein es el fundador de la red social MeWe y está escribiendo un libro sobre la curación de los medios sociales, la salud mental, la privacidad, el discurso civil y la democracia.

Read Previous

Sobre la crisis del techo de deuda – tened miedo, mucho miedo

Read Next

Altos funcionarios de la UE muestran su solidaridad con Ucrania en un arriesgado viaje