Durante los primeros meses de la pandemia, hubo un aumento del 25% en la demanda de casos de uso de material relacionado con el abuso sexual de menores en muchos países. Estos datos, y muchos otros, son la “punta del iceberg” del problema para la Comisión Europea, que le ha llevado a proponer una normativa que pretende incluir a los proveedores de servicios digitales y de acceso a Internet en la lucha contra este delito. Y si sucede que estas empresas no cooperan, se verán obligadas a hacerlo bajo el control de funcionarios o jueces independientes, según una resolución aprobada por el ejecutivo comunitario este miércoles. La normativa, en la que Bruselas opera desde hace casi un año, ha provocado quejas de algunos sindicatos en la protección de la privacidad, ya que cuestiona el derecho a la intimidad.
“Muchas empresas no están haciendo nada para averiguar [estas situaciones] Hoy”, ha dicho este miércoles la sueca Ylva Johansson, comisaria europea de Interior. Consciente de las dudas que suscita este reglamento de estilo, ha subrayado que “no se hará detección sin orden”. [de una autoridad independiente o de jueces]Sin embargo, agregó nuevamente que “una vez emitida la orden, será imperativo rastrearla”.
El reglamento que la Comisión ha puesto sobre la mesa y que ahora debe ser modificado y aprobado por el Consejo de la Unión Europea y el Parlamento Europeo establece que las empresas tecnológicas (proveedores de servicios digitales, acceso a Internet, vendedores y servicios de descarga de aplicaciones) son ” Existe la necesidad de realizar un análisis de riesgo sobre “uso inapropiado para la explotación sexual de menores o la difusión de material de solicitación de niños” [de grooming]De igual forma, cuando las autoridades determinen que existe un riesgo, se podrá emitir una orden y serán las propias empresas las encargadas de implementar los sistemas de detección de estos materiales, estos métodos podrán ser automatizados, pero eventualmente se implementarán y será necesaria la supervisión humana.
“Poder obtener este permiso o pedir a otra autoridad o tribunal independiente que emita una orden por un período determinado es un proceso con una serie de garantías. Antes de eso, tienen que consultar y tener autoridades de protección de datos. Y solo cuando haya es una orden de detección, son empresas autorizadas, pero también obligadas, a rastrear y reportar este material”, dijo el comisionado Johansson en entrevista con varios medios, entre ellos EL Paso, explicó en la reunión.
La Comisión también espera la creación de una Oficina Europea contra el Abuso Sexual Infantil (EU Centre on Child Sexual Exploitation) con un presupuesto de 28 millones de euros, que cubrirá las investigaciones de las propias empresas, desarrollará herramientas de investigación y proporcionará intervenciones. . Comunicación en caso de desactivación por plataformas.
Una de las preguntas que pendía sobre las últimas palabras del texto era qué pasaría con los mensajes cifrados de extremo a extremo. Muchos servicios de mensajería, como WhatsApp o Signal, utilizan esta tecnología de encriptación de comunicaciones para garantizar que nadie más que el remitente y el receptor, incluso la propia plataforma, pueda ver el contenido. “El texto de la regulación no prohíbe el cifrado, pero sí desaconseja su uso para que una empresa pueda escanear contenido y demostrar que está tomando medidas preventivas para limitar la difusión de material sexual de menores”, dice la analista de privacidad Ella Jakuboska. Asociación Europea de Derechos Digitales (EDRI).
un año de conversación
El Parlamento Europeo aprobó el verano pasado una regulación temporal que permite a las empresas tecnológicas escudriñar las comunicaciones de los usuarios (correos electrónicos, mensajes de texto y documentos adjuntos, como fotos y videos) en busca de material pedófilo. La normativa, que fue bautizada como ChatControl (Chat Control), deroga temporalmente la Directiva 2002/58/CE, conocida como e-Privacy, que trata de la privacidad de la información, el tratamiento de datos personales y controla aspectos como las cookies de terceros . La suspensión tiene como fecha límite: 31 de diciembre de 2022. El objetivo de la comisión era crear una regulación permanente antes de ese momento que diera cobertura legal a las interferencias en las comunicaciones.
Ahora todas las empresas tienen que controlar que no se difunda material pedófilo. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de EE. UU. ha solicitado durante mucho tiempo la cooperación de las empresas de tecnología en este asunto. Este seguimiento se realiza mayoritariamente de forma automatizada: existen herramientas de inteligencia artificial que buscan palabras clave. Google rastrea documentos ya cargados en Google Drive; Apple anunció su intención de hacer lo mismo con las fotos tomadas con iPhones el año pasado, pero una ola de protestas llevó a la compañía de Cupertino a congelar la medida hasta que estudiara detenidamente sus pros y sus contras.
Según fuentes familiarizadas con el proceso, uno de los temas que impulsan el interés de la UE en crear una nueva regla es la intención de Facebook de cifrar de extremo a extremo los mensajes enviados por Facebook Messenger, su aplicación de mensajería instantánea. Raramente utilizada en Europa, es especialmente popular en EE. UU. y cuenta con alrededor de 1.300 millones de usuarios activos, lo que la convierte en la segunda herramienta más utilizada después de WhatsApp (alrededor de 2.000 millones de usuarios).
Varias uniones civiles han intentado sentarse con el comisionado Johansson para discutir los detalles del reglamento que se presenta hoy. No han tenido éxito. “Nuestra gran preocupación es que la regulación sea la puerta de entrada para examinar las comunicaciones de todos los ciudadanos, no solo de aquellos sospechosos de difundir material pedófilo”, dijo Jakuboska.
La comisaria Johansson ha defendido su proyecto señalando precedentes para el control de las comunicaciones y otros fines además de prevenir delitos como el abuso sexual de menores: “Hoy tenemos una directiva sobre privacidad [en las comunicaciones digitales] Lo que dice que las empresas siempre pueden escanear todas las comunicaciones interpersonales si es para protegerse de malware Y esto correo electrónico no deseado. En estos casos se les permite hacerlo y lo hacen. Lo hacen en toda comunicación, tanto en la comunicación interpersonal encriptada [o encriptada] como sin cifrar. Y lo hacen, claro, con ánimo de lucro, porque si tuviéramos mucho correo no deseado Tú malware No utilizaremos esa comunicación. Así que lo hacen puramente con fines comerciales. [Ahora] Imprimir, escanear, escanear material de abuso sexual infantil no es legal para hacer este tipo de escaneo”. El punto de vista de la Comisión es claro, si es apropiado brindar un mejor servicio y ganar dinero, entonces ¿por qué no prevenir el crimen?
El Supervisor Europeo de Protección de Datos también tiene reservas sobre la idoneidad de las comunicaciones privadas que están siendo examinadas por terceros. El organismo encargado de velar por el cumplimiento de la normativa de privacidad en las instituciones europeas publicó en 2020 un dictamen no vinculante en el que ya se había cuestionado si someter las comunicaciones de los ciudadanos a un escrutinio continuado podría favorecer el derecho a la privacidad. Desde la oficina del supervisor declinó comentar sobre las nuevas reglas, al menos por el momento.
PUEDES SEGUIR EL PAÍS TECNOLOGÍA: Facebook Tú Gorjeo o regístrate aquí para recibir nuestros periodico semanal,
Contenido exclusivo para clientes
leer sin limites