Facebook, Twitter, Instagram y otras redes sociales podrían enfrentarse a multas de hasta 50 millones de euros si no quitan de sus plataformas los discursos de odio que pudieran publicar sus usuarios. Así quedó plasmado en el texto de la Ley de Aplicación de Redes, aprobada el viernes en Alemania y que entrará en vigencia en octubre. De acuerdo con esta normativa, las compañías están obligadas a eliminar, en un lapso de 24 horas, discursos de odio, difamación y mensajes que inciten a la violencia. Ya no vale eso de “no nos hacemos responsables de las opiniones vertidas por los usuarios”…

Las multas irán de 5 a 50 millones de dólares y las empresas podrían tener hasta una semana de tiempo para tomar una decisión si se trata de “casos dudosos”.

El ministro de justicia de Alemania, Heiko Maas, así como otros que apoyan la norma, celebran esta decisión por considerarla necesaria para restringir la propagación de los discursos de odio, algo que está regulado por ley en ese país.

Sin embargo, hay detractores que consideran que esta ley limita la libertad de expresión y que otorga demasiada responsabilidad a las redes sociales a la hora de decidir si un contenido es legítimo o no.

En los últimos años, Alemania intensificó sus esfuerzos para eliminar los discursos de odio, sobre todo a raíz del creciente sentimiento xenófobo que surgió en ese país debido a la crisis de los refugiados.

Facebook, Twitter y Google acordaron eliminar contenido de ese tipo, conforme a un acuerdo suscrito con el gobierno alemán en 2015. Sin embargo, un informe presentado por el ministerio de Justicia en 2017 consideró que las compañías no estaban cumpliendo con sus obligaciones.

De acuerdo con un comunicado publicado en el blog de la red social de Zuckerberg, se considera discurso de odio todo aquello que ataque directamente a un grupo de personas por su raza, etnia, país de origen, religión, orientación sexual, género, enfermedad o discapacidad severa.

La compañía asegura haber eliminado, entre abril y mayo, 288 mil publicaciones con ese tipo de contenido. Y se remarca que se incentiva a los miembros de la comunidad para que identifiquen y reporten todos los posts que incluyan contenido de odio.

Parece que ahora sí que tendrán que poner medios suficientes, o humanos con dos dedos de frente, para ser capaces de discernir entre lo que se debe eliminar y lo que no. Porque es un tema que ha dado muchas vueltas en Facebook, ya hemos hablado de lo vergonzoso que puede ser lo que decide que es ofensivo y lo que no, y de las absurdas normas que sigue para tomar dicha decisión. Veremos si a partir de ahora es más coherente… ¿qué opináis?