El actual intento del Consejo de la UE de convertir en permanente el Control de Chat 1.0 (Reglamento (UE) 2021/1232) es legal y éticamente temerario. El propio informe de evaluación de la Comisión para 2025 admite un fracaso total en la recopilación de datos, incapacidad para vincular la vigilancia masiva con condenas reales, y tasas de error significativas en las tecnologías de detección. El hecho de consagrar permanentemente una derogación de los derechos fundamentales basándose en un informe que declara explícitamente que «los datos disponibles son insuficientes» para juzgar la proporcionalidad, supone una violación de los principios de la legislación de la UE.
Crítica detallada
1. El «Argumento por Ignorancia» sobre la Proporcionalidad
El Informe: En la Sección 3 (Conclusiones), la Comisión afirma que «los datos disponibles son insuficientes para proporcionar una respuesta definitiva» respecto a la proporcionalidad del Reglamento. Sin embargo, en el mismo párrafo, concluye: «no hay indicios de que la derogación no sea proporcionada».
La Crítica: Esto es una falacia lógica. La Comisión argumenta que, debido a que sus datos son demasiado fragmentados para probar que la ley es mala, debe ser buena. No se puede suspender permanentemente el derecho fundamental a la privacidad (Artículo 7 de la Carta de Derechos Fundamentales) basándose en una ausencia de datos. La carga de la prueba corresponde al legislador para demostrar la necesidad y eficacia, lo cual este informe no logra.
2. La Relación Rota entre Vigilancia y Condenas
El Informe: En la Sección 2.2.3 admite explícitamente: «Actualmente no es posible… establecer un vínculo claro entre estas condenas y los informes presentados por los proveedores». Además, grandes Estados miembros como Alemania y España no aportaron datos utilizables sobre las condenas vinculadas a este Reglamento.
La Crítica: Como se señaló en mi entrada de blog sobre la evaluación previa, no hay evidencia de que el escaneo masivo de mensajes privados contribuya significativamente a condenar a los abusadores. Si se escanean millones de mensajes privados y se generan cientos de miles de informes (708.894 en 2024), pero la Comisión no puede señalar un número específico de condenas resultantes, el sistema es una red que viola la privacidad sin un beneficio probado para la seguridad infantil. El sistema genera «ruido» para las fuerzas del orden en lugar de inteligencia procesable.
3. Altas Tasas de Error y Algoritmos de «Caja Negra»
El Informe:
- Microsoft (Sección 2.1.6) informó que sus datos eran «insuficientes para calcular una tasa de error».
- Yubo informó tasas de error del 20% en 2023 y 13% en 2024 para la detección de nuevo CSAM/acoso.
- El informe señala que «la revisión humana no se ha tenido en cuenta en las estadísticas», lo que significa que la intrusión algorítmica cruda es aún menos precisa de lo que se presenta.
La Crítica: Hacer permanente este reglamento avala el uso de tecnología que se admite defectuosa. Una tasa de error del 13-20% en la señalización de «acoso» o nuevo CSAM significa que miles de usuarios inocentes son marcados, sus comunicaciones privadas visualizadas por moderadores corporativos y, potencialmente, reportados erróneamente a la policía. El hecho de que una entidad como Microsoft no pueda calcular su tasa de error demuestra que las grandes tecnológicas operan sin rendición de cuentas ni transparencia. Según la Policía Alemana y la excomisaria de la UE Johansson, la tasa de error real es mucho mayor (50-75%).
4. Caos en los Datos y Falta de Control de la UE
El Informe: La Comisión admite que los proveedores «no usaron el formulario estándar para informar» (Sección 1) y que los Estados miembros proporcionaron datos «fragmentados e incompletos». La disparidad entre los informes del NCMEC enviados a los Estados miembros frente a los informes reconocidos por los Estados miembros es masiva (por ejemplo, Francia recibió 150 mil informes de NCMEC pero tiene datos de procesamiento incompletos).
La Crítica: La UE no puede supervisar eficazmente esta vigilancia. Si, después de tres años, la Comisión no puede obligar a los proveedores a usar un formulario de notificación estándar o conseguir que los Estados miembros rastreen estadísticas básicas, el Reglamento es disfuncional. Convertir un arreglo temporal disfuncional en algo permanente es una mala gestión. Se consolida un sistema en el que gigantes tecnológicos de EE.UU. (Google, Meta, Microsoft) actúan como fuerzas policiales privadas sin supervisión estandarizada.
5. Obsolescencia a través de la Encriptación
El Informe: El informe registra una caída del 30% en los informes relativos a la UE en 2024, atribuida en gran medida a servicios de mensajería interpersonal que pasan a la encriptación de extremo a extremo (E2EE) (Sección 2.2.1).
La Crítica: El Reglamento ya es obsoleto. Como se señaló en el comentario anterior, a medida que las plataformas se pasan a E2EE (como Meta), el escaneo voluntario se vuelve imposible sin romper la encriptación (escaneo del lado del cliente). La caída en los informes demuestra que el escaneo voluntario es un modelo en extinción. Convertir este Reglamento en algo permanente es un intento desesperado por aferrarse a un enfoque fallido en lugar de invertir en investigaciones específicas y «seguridad por diseño» que respete la encriptación.
6. Falta de Evaluación de la Intrusión a la Privacidad
El Informe: La conclusión establece: «No se presentó información por parte de los proveedores sobre si las tecnologías se desplegaron… de la forma menos intrusiva posible para la privacidad».
La Crítica: El Reglamento exige que la derogación se utilice solo cuando sea necesario y de la manera menos intrusiva. La Comisión admite que no tiene ninguna información sobre si se cumple este requisito legal. Extender una ley de manera permanente cuando no se supervisa la salvaguarda principal (minimización de la intrusión a la privacidad) es un incumplimiento del deber.
Conclusión
El Consejo busca legalizar de manera permanente un régimen de vigilancia masiva donde:
- La tecnología tiene tasas de error de dos dígitos (Yubo).
- La eficacia (condenas) no está probada.
- La supervisión (recopilación de datos) está rota.
- Los objetivos (chats encriptados) son cada vez más inmunes a ella.
Esto confirma los temores planteados en la evaluación anterior: es una seguridad performativa que sacrifica la privacidad de todos los ciudadanos por un sistema que la Comisión admite no puede medir ni validar adecuadamente.
Leer más en: chatcontrol.eu

















