La línea entre la seguridad y la privacidad en Internet es muy delgada. El conflicto entre hasta qué punto las garantías del primero pueden ser infringidas por el segundo está permanentemente abierto. La Unión Europea debatirá y aprobará durante la presidencia española, si se cumple el programa previsto, una normativa (de aplicación directa) que permita a las empresas de servicios web “evaluar, mitigar riesgos y, en su caso, detectar, informar y obligar a eliminar los riesgos sexuales”. explotación de menores en sus servicios”. Apoyar la iniciativa en el tratamiento del problema que les afecta. uno en cinco, En cambio, organizaciones como Xnet, una red de defensores de los derechos digitales, y otros expertos creen que la propuesta es poco práctica, busca acabar con la privacidad en las comunicaciones y atenta contra las libertades fundamentales. La propia normativa reconoce que éstos se verán afectados, pero justifica su alcance.
El reglamento propuesto por la Comisión es defendido por la socialdemócrata sueca Ylva Johansson como comisaria de Asuntos Interiores de la UE, mientras que el canalla del reglamento es el eurodiputado español Javier Zarzalejos (PP). El principal argumento es que, según la exposición de motivos de la propuesta, “uno de cada tres encuestados en un estudio admitió que le habían pedido que hiciera algo sexualmente explícito durante su infancia y más de la mitad lo había hecho de alguna manera”. “. sexual”. Según la plataforma de la Asociación Eurochild, en los últimos 10 años los incidentes han aumentado un 6.000%. “Nosotros, como grupo de organizaciones que luchamos online y offline por los derechos, la seguridad y la protección de los niños, apoyamos la propuesta de la Comisión Europea como un paso importante hacia una mejor protección”, afirman las organizaciones en una carta abierta.
Hasta ahora, en Europa, la identificación de sospechas de pedofilia por parte de las empresas es voluntaria. La UE cree que “la mayoría de las quejas provienen de un puñado de ellos” y “un número significativo no toma medidas”. Por el contrario, el problema del abuso en línea va en aumento. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que exige a los proveedores de servicios en los Estados Unidos que denuncien el abuso infantil, recibe 30 millones de denuncias al año, de las cuales más de un millón son de estados miembros de la UE compatibles.
El reglamento establece que un Centro Europeo para la Prevención y Lucha contra la Explotación Sexual de Menores facilitará el acceso a “tecnologías fiables” y que las empresas “indicadoras” podrán “detectar, denunciar, bloquear y eliminar material de explotación sexual de menores”. ¿Qué buscarías? , Estos algoritmos de búsqueda, según la norma, intentarán evitar falsos positivos o denuncias falsas y se ajustarán a criterios “verificados por órganos judiciales o autoridades administrativas independientes de los Estados miembros”.
Las opciones regulatorias, sin embargo, incluyen la más completa de la Unión Europea, que requiere que las empresas detecten no solo el contenido conocido (confirmado), sino también aquellos que “podrían constituir contenido mal utilizado”, pero que aún no han sido confirmados por una autoridad. , así como destinados a la captación de menores.
“Las medidas contenidas en la propuesta afectan, en primer lugar, al ejercicio de los derechos fundamentales de los usuarios de los servicios de que se trate”, reconoce el texto del reglamento en contexto, “el respeto a la intimidad (incluida la intimidad de las comunicaciones, como privadas y familia parte del derecho al respeto a la vida), protección de datos personales y libertad de expresión e información”.
limitaciones de derechos
“Aunque son muy importantes, ninguno de estos derechos son privilegios absolutos y deben ser considerados de acuerdo con su papel en la sociedad (…). El artículo 52, párrafo 1, de la Carta de los Derechos Fundamentales de la Unión Europea, busca limitarlos permite, sujeto a las condiciones establecidas en dicha disposición”, argumenta la UE.
En este sentido, la normativa propuesta establece que las tecnologías a implementar serán “menos intrusivas para la privacidad” y se ejecutarán “de forma anónima”. “Garantiza el derecho a la tutela judicial efectiva en todas sus etapas, desde la detección hasta la eliminación, y limita la protección de material y datos a lo estrictamente necesario”.
La UE también reconoce que “entran en juego las libertades de empresa”, ya que “somete a los operadores a un recargo y puede afectar a la libre elección de clientes y proveedores o la libertad contractual”. “Este derecho ni siquiera es un privilegio absoluto; Es posible introducir una amplia gama de intervenciones que establezcan límites al ejercicio de la actividad económica por el interés común”, dice la UE.
rechazado
Las iniciativas de empresas y colectivos del sector en defensa de los derechos digitales han sido desestimadas alegando que “el abuso de menores es atroz, pero la regulación no soluciona el problema, instala vigilancia masiva, bloquea las comunicaciones, anula la inviolabilidad, socava la tutela judicial efectiva”. , ataca a las pymes tecnológicas a favor de los monopolios y generará falsos positivos que pueden implicar a cualquiera y bloquear a los investigadores”, según Xnet.
Sergio Salgado, miembro de este foro, sospecha que la iniciativa está destinada a combatir la pedofilia en Internet. “La idea es vieja: acabar con el cifrado de Internet y la privacidad de las comunicaciones”, dice. Salgado describe la regulación como una vuelta de tuerca a la primera regla, que se denominó Chat Control 1: “Es lo mismo, pero haciendo obligatorio el control: es el viejo sueño del poder, para el cual, en general, el cifrado y la privacidad es un problema”.
“Solo hay un derecho fundamental que no admite ningún tipo de restricción: la libertad de pensamiento. Los demás los aceptan, pero deben estar bajo una mínima y efectiva tutela judicial. No se puede cambiar. Es como decir que la policía puede entrar en la casa de cualquiera”. casa sin orden judicial, pero prometiendo que no entrarán”, dice.
Salgado apunta a los falsos positivos como uno de los mayores problemas. “Se dañará a personas inocentes”, dice, y agrega que “estas acusaciones sin fundamento también inundarán a los investigadores que procesan efectivamente la pedofilia”.
falso positivo
Google suspendió las cuentas de dos usuarios en Estados Unidos que enviaban fotos de sus hijos a pediatras para el seguimiento de contagios. En España, el profesor valenciano David Barbera se quedó sin acceso a miles de archivos privados en la nube por supuestas imágenes que la misma empresa consideró sospechosas.
“Las grandes empresas van a ser una policía privada y van a tener criterios conservadores: no quieren problemas legales ni riesgos. El contenido se elimina en caso de duda. Su prioridad es la libertad de expresión y la conversación abierta en Internet. Además , la tutela judicial efectiva se basa en que eres tú quien tiene que acudir a los tribunales”, argumenta Salgado.
“Esta es una ley que utiliza la pedofilia para diluir los derechos digitales y no funciona así; No se puede sacrificar la libertad por la seguridad”, concluyó.
European Digital Rights, un grupo internacional de organizaciones a favor de los derechos civiles, está de acuerdo con Xnet y pide que se retire el reglamento de la UE: “Obligará a los proveedores de todos nuestros chats digitales, mensajes y correos electrónicos a saber que Compartir lo que estamos escribiendo y hacerlo todo el tiempo y desde muchos lugares legítimos eliminará la posibilidad del anonimato en línea.
a favor de
Javier Zarzalejos, el eurodiputado encargado de la regulación, discrepa de todas las cautelas y defiende las bondades de la propuesta. Destacó que todas las empresas “tienen que hacer un análisis de riesgo” y que no es lo mismo en todos los casos: “No es lo mismo un servicio de pago que tiene mecanismos efectivos de verificación de edad que servicios como el chat cuyo atractivo comercial es que nadie libremente y de forma anónima. Será la autoridad competente de cada estado la que evaluará si el análisis de riesgo es adecuado, realista, y deberá aprobar las salvaguardias. No existen medidas que las empresas sin la autorización de las autoridades competentes”.
También rechaza las afirmaciones de que la compulsión de escanear las comunicaciones infringe su privacidad. “Se mantiene el cifrado. La tecnología que se aplica es excepcionalmente confiable y funciona de la misma manera que detectada por correo electrónico no solicitado [correo no deseado], Según ciertos indicadores, los algoritmos detectan casos. no tienen acceso al contenido de las comunicaciones y actúan como reservados”.
“Las empresas tendrán que introducir la verificación humana para determinar si se han detectado patrones compatibles con un caso de abuso sexual infantil. Los sospechosos deberán ser remitidos a las fuerzas y cuerpos de seguridad del Estado. Por una o dos penas o en la playa en su Para el envío de fotografías de nietos, nadie va a creer que estamos frente a un menor que está siendo acosado o atraído con fines de explotación sexual”, dijo la eurodiputada. En este sentido, Zarzalejos establece una analogía: “Todas las cartas pasan por un escáner para evitar que lleven productos ilegales. El hecho de que pase por el escáner no significa que la oficina de correos sepa lo que escribo en una carta.
También está de acuerdo con la opinión de la UE de que se pueden establecer límites a la libertad. “No hay derechos fundamentales absolutos y aquí estamos hablando de un delito muy grave”. “Afortunadamente tenemos un marco de garantías y potestad judicial muy completo, la idea es que tengamos una regulación que sea lo suficientemente adaptable, evidencia de los avances tecnológicos, y que dé un marco legal que nos permita adaptarnos a los cambios que permitan que continúe. operando en el medio ambiente”, agregó.
“No estamos estableciendo un control general de todas las comunicaciones. Estamos hablando de dispositivos que no requieren acceso a contenido y están sujetos a revisión de condiciones específicas impuestas por la ley. Esto ya es una regla aplicada en la prevención del terrorismo con lo que funciona y tiene muchos paralelismos con ella”, concluyó.
Ylva Johansson, la socialdemócrata sueca que trajo la propuesta de la comisión, también la defiende: “Como adultos, tenemos el deber de proteger a los niños. El abuso sexual infantil es una amenaza real y creciente. La propuesta busca garantizar la privacidad de todos, incluidos los niños”. .” Establece obligaciones claras para que las empresas detecten y denuncien el abuso de menores con fuertes garantías.
Puedes escribir a rlimon@elpais.es y seguir tecnologia del pais En Facebook Y Gorjeo o regístrate aquí para recibir nuestros periodico semanal,
Suscríbete para seguir leyendo
leer sin limites