Estás usando una versión desactualizada de este navegador (). Es probable que este sitio web no se muestre de forma adecuada o presente errores en su funcionamiento. Por favor, actualiza este navegador desde el sitio oficial del desarrollador. Haz click sobre este anuncio para cerrarlo. | You are using an outdated version of this browser. It is likely that this website will not display properly or could have errors. Please update this browser from the official developer site. Click on this ad to close it.

Este sitio web utiliza cookies propias y de terceros con fines estadísticos y para mejorar la experiencia del usuario. Más información

La Agencia Española de Protección de Datos (AEPD) ha publicado su Memoria de actuación 2023, que recoge las iniciativas de concienciación, difusión, colaboración e inspección puestas en marcha, los informes y procedimientos más relevantes del año, un análisis de las tendencias normativas y jurisprudenciales y los desafíos para la privacidad, tanto en un plano nacional como internacional. Asimismo, la Agencia también ha publicado de forma complementaria su Memoria de Responsabilidad Social 2023, en la que realiza el balance anual de 132 acciones de sostenibilidad agrupadas en cuatro grandes ejes: compromisos con la sociedad (76,5% de las acciones); buen gobierno, ética, integridad pública, transparencia, rendición de cuentas y participación (4,5%); medidas relacionadas con el personal (11,5%) y compromisos con el medioambiente (7,5%).

 

La Memoria 2023 pone de manifiesto el elevadísimo incremento de las reclamaciones planteadas ante la Agencia. La tendencia alcista de los últimos años se acentúa fuertemente en el número de reclamaciones recibidas. En cuanto a la gestión de reclamaciones, en 2023 se han presentado ante la Agencia 21.590 reclamaciones, lo que supone un incremento de un 43% respecto a 2022 y un 55% más que en 2021. Así, por tercer año consecutivo, se bate el récord en cuanto al número de reclamaciones recibidas, siendo ya más del doble de las recibidas en 2020. Esta cifra asciende a las 22.348 incluyendo casos transfronterizos y en los que la Agencia actúa por iniciativa propia.

 

 

En 2023 las reclamaciones resueltas han seguido aumentado (20.391, +37%). En este sentido, destaca la importancia de los traslados, una previsión recogida en la normativa para facilitar una respuesta ágil a los ciudadanos. En 2023, tras haber procedido al traslado de la reclamación, se ha finalizado la tramitación en el 86% de los casos, dando así una respuesta más rápida a los reclamantes. Se observa que solo el 8% de las resoluciones llegan al procedimiento sancionador. La principal vía de resolución de reclamaciones pasa por su traslado al responsable o encargado del tratamiento que, en un número significativo de casos, permite obtener una respuesta satisfactoria para el ciudadano en una media de tres meses.

 

La Memoria 2023 también recoge las Administraciones Públicas sancionadas por incumplir los requerimientos y medidas correctivas impuestas. Tanto la falta de respuesta a los requerimientos de información que envía la Agencia como el hecho de no acreditar que se han cumplido las medidas impuestas suponen infracciones muy graves. El texto también incluye las sanciones impuestas que superan el millón de euros (BBVA, Caixabank y Openbank), y un repaso por los procedimientos sancionadores más relevantes y de mayor impacto.

 

En casos transfronterizos, la Agencia ha liderado 25 en 2023 como autoridad principal y ha cooperado como interesada en más de 300. El texto detalla los principales procedimientos sancionadores transfronterizos en los que la Agencia ha sido autoridad principal (OpenBank, GlovoApp23 y The Mail Track Company) y en los que ha sido autoridad interesada (Facebook, TikTok, Instagram y Whatsapp). Asimismo, se han recibido 1.152 peticiones de otras autoridades, solicitudes de asistencia y consulta, y proyectos de decisión.

 

Las reclamaciones planteadas con mayor frecuencia por los ciudadanos en 2023 corresponden a recepción de publicidad no deseada (+114%), servicios de internet (+30%), videovigilancia (+29%), comercio, transporte y hostelería (+66%) y las relacionadas con entidades financieras/acreedoras (+78%). En lo relativo a los procedimientos sancionadores, se finalizaron 419, siendo las áreas más frecuentes la videovigilancia (33%), los servicios de internet (14%), los procedimientos relacionados con las Administraciones Públicas (6%) y publicidad (spam email/SMS) (6%).

 

El hecho de que en esas áreas se realice un mayor número de procedimientos sancionadores no implica que sean estas las que mayor número de sanciones acumulan. La Agencia ha dictado 367 resoluciones que incluyen imposición de multa. Las seis áreas de actividad con mayor importe global de multas son las relacionadas con brechas de datos personales (que pasa de los 821.800 euros en 2022 a 12.907.000 euros en 2023); entidades financieras/acreedoras (que asciende de los 596.200 euros en 2022 a 5.321.000 euros en 2023); derechos de protección de datos (2.633.400 euros); contratación fraudulenta (2.571.500 euros); telecomunicaciones (1.942.000 euros) y servicios de Internet (1.058.700 euros). Estas seis áreas suponen el 89% del importe global de sanciones, que en 2023 ascendió a 29.817.410 euros.

 

Por otro lado, en 2023 se han notificado más de 2.000 brechas de datos personales, de las que 16 se trasladaron a la Subdirección de Inspección de Datos por requerir una investigación en mayor profundidad. Además, en 30 de ellas se obligó al responsable a comunicar el hecho a los afectados.

 

En lo referente a las sentencias de la Audiencia Nacional recaídas en los recursos interpuestos contra resoluciones de la Agencia, de las 43 dictadas en 2023, 35 (81%) han sido desestimatorias o inadmitidas.

 

En cuanto a las reclamaciones gestionadas a través del Canal Prioritario para solicitar la retirada urgente de contenido sexual o violento publicado en internet sin el permiso de las personas que aparecen, se han realizado 36 intervenciones de urgencia en 2023, logrando retirar los contenidos sensibles con inmediatez en la totalidad de los casos. Por su parte, la Memoria de Responsabilidad Social añade cómo la Agencia ha seguido lanzando en 2023 campañas y materiales de concienciación, varios de ellos en colaboración con otros organismos, para que las familias y los centros docentes conozcan los riesgos asociados al mal uso de las pantallas, Internet y las redes sociales, y puedan convertirse en aliados para fomentar la educación y el espíritu crítico de los y las más jóvenes.

Unidad de Menores de la Agencia

 

La Unidad de Menores de la Agencia, creada en 2015, ha seguido trabajando en el Canal Joven, que da respuesta a los temas relacionados con la protección de la infancia y adolescencia. En 2023 se han planteado más de 4.000 cuestiones, con un incremento de más del 70% respecto a 2022. Destacan en primer lugar las consultas que proceden de madres y padres (52%) sobre los tratamientos de datos de sus hijos e hijas. En el plano familiar, se plantean en primer lugar consultas sobre la publicación de imágenes en redes sociales. También destacan las relacionadas con el tratamiento de datos de menores en el ámbito deportivo, en especial en los casos de la grabación y difusión de imágenes mientras realizan prácticas deportivas en competiciones organizadas habitualmente por Federaciones.

 

Asimismo, la Memoria de Responsabilidad Social recoge tanto el firme compromiso de la Agencia con la igualdad de género como con la protección a la infancia y adolescencia en Internet. Una de las medidas más destacadas de 2023 en cuanto a políticas públicas, además de continuar con el grupo de trabajo multidisciplinar ‘Menores, privacidad y salud digital’, ha sido la presentación del sistema de verificación de edad para proteger a los menores de edad ante el acceso a contenidos de adultos en Internet. Los principios desarrollados por la Agencia conjugan la protección a la infancia y el interés superior del menor con el derecho fundamental a la protección de datos de todos los ciudadanos, poniendo sobre la mesa una solución práctica, respetuosa y pionera en Europa.

 

El hecho de haber planteado un mecanismo que trate el atributo de la edad en el dispositivo del usuario, sin que la identidad de la persona ni su edad sea accesible para las web o para los autodenominados “terceros de confianza” garantiza la privacidad de los adultos a la vez que impide la exposición temprana de los menores a unos contenidos que no son capaces de gestionar y que les afectan gravemente en sus conductas online, como señalan médicos y pediatras. Además, la atención que la Agencia presta a la protección de los menores en el ámbito digital ha llevado a diseñar una nueva estrategia reforzada en la que se agrupan las medidas que la Agencia está desplegando ya en sus actuaciones de 2024.

Canal del DPD

 

Por último, en lo relativo a las cifras de delegados de protección de datos (DPD) comunicados ante la Agencia, el año 2023 se ha cerrado con 111.070 frente a los 103.350 de 2022. De la cifra del año pasado, 101.691 corresponden al sector privado y 9.379 al sector público. Por lo que respecta a los servicios de ayuda que presta la Agencia para la adaptación al Reglamento, se han recibido casi 850 consultas (+22%) a través del Canal del DPD. Hay que destacar asimismo un incremento del 48% en las consultas tramitadas por el área de Atención al ciudadano, así como la puesta en marcha de un servicio de chatbot en la web, que ofrece respuesta a las consultas más frecuentes y pone en contacto al ciudadano con un agente en caso de que su duda no quede resuelta de esa forma.

 

FUENTE: AEPD

🎒 Vuelta al cole después de las vacaciones de Semana Santa. ¿Sabes cómo se deben tratar los datos personales en la enseñanza?

ℹ️ Por regla general, los centros educativos no necesitan el consentimiento de los titulares de los datos personales para su tratamiento, o de sus progenitores o tutores, ya que estará justificado en el ejercicio de la función educativa. Sin embargo, deben informar a las familias sobre al menos:

👉 La identidad del responsable del tratamiento.

👉 La finalidad para la que se recaban los datos personales y su licitud.

👉 Los derechos de las personas interesadas, por ejemplo, los derechos de acceso o rectificación y dónde ejercerlos.

Consulta todos los criterios para el tratamiento de los datos personales que deben cumplir los centros educativos: https://lnkd.in/dS6-s5W3

 

FUENTE: AEPD

El Juzgado de lo Penal de Lugo en Sentencia 21/2024,  de 22 de enero, condena a los dos acusados por dos delitos contra la intimidad al grabar, a la víctima, sin su consentimiento, manteniendo relaciones sexuales con uno de ellos y posteriormente difundir el vídeo.

 

El primer acusado con ánimo de atentar contra la intimidad de la víctima la grabó de forma oculta mientras mantenía relaciones sexuales con el segundo acusado. A continuación, el primer acusado le envío el vídeo al segundo acusado, quien a su vez, lo reenvío a una tercera persona.

 

El Juzgado condena al primer acusado como autor de la grabación por un delito de descubrimiento y revelación de secretos tipificado en el artículo 197.1, 3 y 5 del Código Penal a la pena de 3 años y 6 meses de cárcel a parte de las penas accesorias. En su Sentencia indica que el artículo 197.1 se refiere al que, “para descubrir los secretos o vulnerar la intimidad de otro, sin su consentimiento, (…) utilice artificios técnicos de escucha, transmisión, grabación o reproducción del sonido o de la imagen…»

 

Por otro lado, al segundo acusado, quien envía el video a un tercero, como autor de un delito de descubrimiento y revelación de secretos tipificado en el artículo 197.3 y 5 le impone una pena de 2 años de prisión.

 

Así mismo, condena a ambos acusados a abonar solidariamente la cantidad de 3.000 euros a la víctima en concepto de daños morales causados.

 

Señala el Juzgado de lo Penal que el artículo 197.1 se refiere al que, para descubrir los secretos o vulnerar la intimidad de otro, sin su consentimiento, se apodere de sus papeles, cartas, mensajes de correo electrónico o cualesquiera otros documentos o efectos personales, intercepte sus telecomunicaciones o utilice artificios técnicos de escucha, transmisión, grabación o reproducción del sonido o de la imagen, o de cualquier otra señal de comunicación.

 

El artículo 197.3 párrafo 1, por su parte, prevé la imposición de una pena agravada si “se difunden, revelan o ceden a terceros los datos o hechos descubiertos o las imágenes captadas”.

 

La Sentencia declara probado que el primer acusado ocultamente grabó con su móvil a la víctima mientras mantenía relaciones sexuales con el el segundo acusado sin contar con el consentimiento de aquella.

 

Los hechos probados son constitutivos, en el caso del primer acusados, del delito del artículo 197.1, con aplicación del subtipo agravado del apartado 3 párrafo 1, al constar acreditado que el acusado A difundió las imágenes captadas, se las envió al acusado B, quien a su vez las envió a un tercero.

 

La conducta imputada al acusado A es la del segundo inciso del párrafo 1 del artículo 197, consistente en utilizar artificios técnicos de escucha, transmisión, grabación o reproducción del sonido o de la imagen o de cualquier otra señal de comunicación, sin que medie consentimiento.

 

En el caso del acusado B, quien difunde a un tercero la grabación que había realizado el acusado A y se la había mandado, los hechos son constitutivos del delito previsto en el artículo 197.3 párrafo 3 que castiga al que, con conocimiento de su origen ilícito y sin haber tomado parte en su descubrimiento, realizare la conducta descrita en el párrafo anterior.

 

Las conductas tipificadas se ven agravadas, párrafo 5 del artículo 197, ya que los hechos descritos afecten a datos de carácter personal que revelan la vida sexual.

 

Este tipo agravado no exige la puesta al descubierto de una vida sexual que no sea previsible por los demás. Por el contrario, basta que aspectos de la vida sexual propia que se reservan, que son secretos como núcleo indudable y más significado de la intimidad lleguen a conocerse por otros contra la voluntad de la persona afectada, mediante un apoderamiento o una captación ilícitos.

 

 

Fuente: El Derecho

 

Se sanciona en particular aquellos contenidos que pueden amenazar la seguridad de menores y sujetos vulnerables.

 

La Autoridad de Competencia y Mercado de Italia ha impuesto una multa de 10 millones de euros a TikTok al considerar que los controles de la empresa sobre los contenidos que circulan en la plataforma «son inadecuados».

 

De tal modo, ha decidido multar de forma solidaria a la empresa irlandesa TikTok Technology Limited, la británica TikTok Information Technologies UK Limited y la italiana TikTok Italy, del grupo Bytedance.

 

En marzo del año pasado, la Autoridad decidió abrir una investigación que le ha permitido comprobar la responsabilidad de TikTok en la difusión de contenidos, como los relacionados con el reto de la «cicatriz francesa», que pueden amenazar la seguridad psicofísica de los usuarios, especialmente si son menores y vulnerables.

 

Además, señala que TikTok no ha tomado medidas adecuadas para evitar la difusión de dichos contenidos, no respetando plenamente las directrices que ha adoptado y que ha hecho conocer a los consumidores, asegurándoles que la plataforma es un espacio «seguro».

 

De hecho, considera que tales directrices se aplican sin tener suficientemente en cuenta la vulnerabilidad específica de los adolescentes, caracterizada por mecanismos cognitivos peculiares de los que se deriva, por ejemplo, la dificultad para distinguir la realidad de la ficción y la tendencia a emular el comportamiento de grupo.

 

El pasado mes de septiembre, la red social fue multada con 345 milones de euros por la Comisión de Protección de Datos de Irlanda tras detectar deficiencias a la hora de proteger los datos de los usuarios menores de la aplicación durante la segunda mitad de 2020.

 

Este miércoles, la Cámara de Representantes de Estados Unidos aprobó por una mayoría de 352 votos a favor por 65 en contra el proyecto legislativo que podría suponer la prohibición de la aplicación de microvideos en el país, salvo desinversión de su matriz, la empresa china ByteDance.

 

El proyecto de ley deberá superar ahora el mismo trámite en el Senado de Estados Unidos, antes de que llegar al despacho del presidente, Joe Biden, quien ya ha expresado su disposición a firmar la ley si cuenta con la aprobación de las dos cámaras.

Fuente: Agencia Española de Protección de Datos

 

  • El Comité Europeo de Protección de Datos ha aprobado, a iniciativa de la Agencia y por unanimidad, iniciar los trabajos para definir las directrices de verificación de edad en Internet.

 

  • La Agencia  planteó en diciembre un sistema de verificación de edad que protege a la infancia y adolescencia del acceso a contenidos inadecuados garantizando el anonimato de los adultos.

 

La Agencia Española de Protección de Datos (AEPD) impulsa la elaboración por parte del Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) de las directrices para los sistemas de verificación de edad en Internet. Estos trabajos, aprobados a iniciativa de la Agencia por unanimidad en el marco de una reunión Plenaria celebrada en Bruselas, suponen el inicio de la actuación conjunta de las autoridades de protección de datos en este tema.

 

La Agencia presentó el pasado diciembre un Decálogo que recoge los principios que debe cumplir un sistema de verificación de edad, planteando un sistema de verificación de edad para proteger a la infancia y adolescencia del acceso a contenidos inadecuados a la vez que garantiza el anonimato de los adultos en su navegación por Internet.

 

Estos principios se complementaban con una propuesta práctica y efectiva de sistema de verificación de edad y protección de las personas menores de edad en Internet ante el acceso a contenidos para adultos, en la que se demostraba la viabilidad técnica de proteger a los menores del acceso a contenidos inadecuados a la vez que se garantiza el anonimato de los adultos en su navegación por Internet.

 

Los sistemas de verificación de edad que se utilizan en la actualidad en Internet ‒autodeclaración de la edad, compartir credenciales con el proveedor de contenidos, que sea este el que estime la edad o depender de los autodenominados terceros de confianza‒ se han demostrado ineficientes o tienen riesgos como la localización de menores, falta de certidumbre sobre la edad declarada, exposición de la identidad a distintos intervinientes en la Red, perfilado masivo, o recopilación y tratamiento de datos no necesarios, entre otros.

 

Esta semana el Consejo de Ministros ha aprobado la creación de un Grupo de Trabajo presidido por el ministerio para la Transformación Digital, y en el que participa la AEPD junto a otros organismos públicos, que tiene como objetivo mejorar la protección de los menores en el acceso a contenidos en Internet con la propuesta de una solución tecnológica que permita la verificación eficaz de la edad manteniendo a su vez las máximas garantías de privacidad y protección de datos.

 

La protección de la infancia y adolescencia en Internet es una de las líneas de actuación prioritaria para la Agencia, tal y como se recoge en su Estrategia global de menores, salud digital y privacidad. Asimismo, la AEPD forma parte del comité de expertos para proteger a niñas, niños y adolescentes en el entorno digital lanzado por el Ministerio de Juventud e Infancia.

Fuente: El Derecho

 

El pleno del Parlamento Europeo ha aprobado este miércoles el acuerdo histórico alcanzado el pasado diciembre entre instituciones para fijar las primeras reglas con las que limitar los riesgos de la Inteligencia Artificial (IA) en la Unión Europea, un nuevo marco cuya aplicación plena está prevista a partir de 2026.

 

La nueva normativa ha salido adelante en la sesión plenaria celebrada en Estrasburgo (Francia) con el voto a favor de 523 eurodiputados, 46 en contra y 49 abstenciones, pero queda que los 27 den también su visto bueno y que el reglamento pase una última comprobación jurídica-lingüística antes de su entrada en vigor.

 

La nueva norma ofrece un enfoque basado en el riesgo que categoriza los niveles de riesgo y las restricciones que deben acompañar en función de la escala, lo que implica la prohibición en casos de riesgo «inasumible», como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.

 

Con todo, están previstas una serie de estrictas excepciones que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos.

 

De este modo, la supervisión biométrica en tiempo real se limitará en tiempo y ubicación y ello sólo para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica y presente y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.

 

También quedan definidos los sistemas de IA autorizados pero considerados de muy alto riesgo por su importante impacto en la salud, la seguridad, los derechos fundamentales, el medio ambiente y el Estado de derecho.

 

Los sistemas de Inteligencia Artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo, y los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

 

Otra de las claves ha sido cómo introducir reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación por lo que este capítulo se ha ido desarrollando en el curso de la negociación.

 

La legislación pionera también prevé sanciones para los incumplidores que irán desde los 35 millones de euros o el 7 por ciento del volumen de negocio global hasta los 7,5 millones, en función del tamaño de la compañía.

 

El objetivo de la nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios; pero sin que se traduzca en una hiperregulación que lastre la competitividad de la Unión Europea.

 

Fuente: El Derecho.

 

El Tribunal Superior de Justicia de Cataluña ha aclarado que las telecos han de identificar a las plataformas pirata que redifunden de forma ilícita a terceros la señal de los partidos de fútbol y se lucran con ello, y no a los usuarios finales en si.

 

En este sentido, el juzgado de lo Mercantil número 8 de Barcelona ha admitido la diligencia preliminar solicitada por LaLiga de Fútbol Profesional y requiere a las operadoras que faciliten los datos personales de quienes comparten ilícitamente sus contenidos, es decir, únicamente de los ‘cardsharers’ que redifunden a terceros la señal y obtienen un lucro con ello y no, por tanto, de los que únicamente defraudan la cuota», ha destacado el TSJ de Cataluña en un comunicado.

 

También ha subrayado que LaLiga presentó una petición de diligencia preliminar al juzgado para la persecución de un tipo concreto de piratería, es decir, el ‘cardsharing’, una práctica por la cual usuarios legítimos redifunden la señal a determinadas redes pirata en las que todos los partícipes, incluidos quienes únicamente defraudan la cuota, utilizan decodificadores.

 

«La descripción de esta práctica permite concluir que se están realizando actos de puesta a disposición o difusión de forma directa o indirecta de contenidos, obras o prestaciones objeto de los derechos audiovisuales. Estos actos, que son la base para acordar la diligencia preliminar solicitada solo pueden ser realizados por los ‘cardsharers’ que redifunden la señal y se lucran con ello, y no por los meros usuarios finales», agrega la institución.

 

De este modo, el TSJ de Cataluña interpreta que el auto dictado por el magistrado del juzgado de lo Mercantil número 8 de Barcelona únicamente requiere a las operadoras para que faciliten «los datos personales de quienes comparten ilícitamente sus contenidos, es decir, únicamente de los ‘cardsharers’ que redifunden a terceros la señal y obtienen un lucro con ello».

 

«Las eventuales futuras demandas que derivasen de estas diligencias preliminares solo podrían ir dirigidas contra los ‘cardsharers’ que redifunden señal para obtener un lucro», añade.

 

 

 

Fuente: El Derecho.

 

La Audiencia Nacional (AN) ha avalado la suspensión cautelar de la recopilación de datos personales en España a través del iris, los ojos y el rostro por parte de la empresa Worldcoin para su posterior procesamiento a cambio de un pago en una criptomoneda ingresada en un monedero virtual vinculado a una aplicación.

 

En un auto de este lunes, recogido por Europa Press, la Sala de lo Contencioso-Administrativo rechaza la medida cautelarísima solicitada por Tools for Humanity Corporation GMBH (TFH), perteneciente a la citada empresa, contra la orden de la Agencia Española de Protección de Datos (AEPD) que paralizó la recopilación de esa información.

 

Los magistrados consideran que atendiendo a la ponderación de los intereses en conflicto y, a la vista de las circunstancia concurrentes, debe prevalecer «la salvaguarda del interés general que consiste en el derecho a la protección de datos personales de los interesados frente al interés particular de la empresa recurrente de contenido fundamentalmente económico».

 

En este contexto, la AN entiende que en caso de obtener una sentencia favorable la compañía podrá ser indemnizada, por lo que no se produciría un perjuicio irreparable como alega en su recurso.

 

En el mismo, la empresa alegaba que la resolución de la Agencia de Protección de Datos le supondría elevadísimos daños y perjuicios irreparables tanto en España como a nivel mundial. Además, esgrimía que la resolución se había extralimitado en su competencia al considerar que debía ser la autoridad de Baviera (Alemania), donde la empresa está domiciliada, la competente para controlar si la empresa cumple con la normativa de protección de datos.

 

TRATAMIENTO DE DATOS PERSONALES SIN CONSENTIMIENTO

 

El auto de la Sala se basa en la resolución de la AEPD que explica cómo el proyecto de Worldcoin es un tratamiento de datos biométricos que afecta a numerosas personas, incluidos menores, y sin constar acreditado, según la propia agencia, el consentimiento y la información proporcionada acerca de dicho tratamiento.

 

La resolución de la AEPD hace referencia a varias reclamaciones en las que se indica que se están capturando datos de menores y se denuncia la insuficiente información suministrada y que no se permite la retirada del consentimiento, remitiendo al interesado al borrado de la aplicación.

 

Así las cosas, la Audiencia Nacional señala que a los efectos de este incidente de medida cautelarísima la AEPD resulta competente para adoptar dicha medida sin perjuicio de lo que se acuerde cuando se resuelva sobre el fondo del asunto.

 

Por último, la Sala recuerda que la resolución es temporal, por un máximo de tres meses, por lo que si se le diera la razón en cuanto al fondo del asunto no impediría que esta empresa pudiera continuar su actividad en el futuro.

La Agencia Española de Protección de Datos (AEPD) ha ordenado una medida cautelar contra Tools for Humanity Corporation para que cese en la recogida y tratamiento de datos personales que está realizando en España en el marco de su proyecto Worldcoin, y proceda a bloquear los ya recopilados. La AEPD ha recibido varias reclamaciones contra esta empresa en las que se denuncian, entre otros aspectos, una información insuficiente, la captación de datos de menores o que no se permite la retirada del consentimiento.

 

El tratamiento de datos biométricos, considerados en el Reglamento General de  Protección de Datos (RGPD) como de especial protección, conlleva elevados riesgos para los derechos de las personas, atendiendo a la naturaleza sensible de los mismos. En consecuencia, esta medida cautelar se trata de una decisión basada en circunstancias excepcionales, en la que resulta necesario y proporcionado adoptar medidas provisionales dirigidas al cese inmediato de ese tratamiento de datos personales, prevenir su posible cesión a terceros y salvaguardar del derecho fundamental a la protección de datos personales.

 

La compañía Tools for Humanity Corporation tiene su establecimiento europeo en Alemania. Esta actuación de la Agencia se realiza en el marco del procedimiento establecido en el artículo 66.1 del RGPD que establece que, en circunstancias excepcionales, cuando una autoridad de control interesada ‒en este caso la AEPD‒ considere urgente intervenir para proteger los derechos y libertades de las personas, podrá adoptar medidas provisionales con efectos jurídicos en su territorio y con un periodo de validez que no podrá ser superior a tres meses.

 

En este contexto, la Agencia entiende que la adopción de medidas urgentes de prohibición temporal de las actividades está justificada para evitar daños potencialmente irreparables y que no tomarlas privaría a las personas de la protección a la que tienen derecho según el RGPD.

 

FUENTE: AEPD

La Agencia Española de Protección de Datos (AEPD) ha presentado hoy su Estrategia global sobre menores, salud digital y privacidad, un documento que recoge sus líneas de actuación prioritarias para fomentar la protección efectiva de la infancia y adolescencia en el uso que realizan de Internet y sus servicios.

 

Las actuaciones desplegadas por la Agencia en los últimos años, cooperando con cada vez más actores públicos y privados, han puesto de manifiesto el reto pluridisciplinar que supone la protección de los menores en un mundo tecnologizado. La Estrategia de la Agencia sobre menores salud digital y privacidad contiene un total de 10 actuaciones prioritarias y 35 medidas que se agrupan en tres grandes ejes: la colaboración regulatoria para la protección integral de los menores en Internet, el refuerzo para garantizar sus derechos en un plano nacional e internacional y el ejercicio de las potestades de investigación y sanción contra las prácticas ilícitas y nocivas para la infancia y adolescencia.

 

En el primero de los ejes, la Agencia, que ya apoya la propuesta de Pacto de Estado promovida por organizaciones de la sociedad civil para la protección de la infancia y la adolescencia en Internet, promoverá la adopción de disposiciones complementarias y en desarrollo de la Ley de Protección Integral de la infancia y la adolescencia mediante la coordinación del Grupo de Trabajo de ‘Menores salud digital y privacidad’; participará en la elaboración de Directrices sobre menores en el marco del Comité Europeo de Protección de Datos y promoverá la regulación del tratamiento de los neurodatos y los correlativos neuroderechos, especialmente en el ámbito de los servicios dirigidos a menores.

 

En cuanto al refuerzo para garantizar los derechos de la infancia y juventud, la Agencia impulsará la producción de apps que permitan implantar sistemas eficaces de verificación de edad para proteger a los menores del acceso a contenidos inadecuados siguiendo los principios de protección de datos ya publicados sobre esta materia y en colaboración con la Comisión Nacional de los Mercados y la Competencia (CNMC), la Fábrica Nacional de Moneda y Timbre (FNMT), el Ministerio de Transformación Digital y el Ministerio del Interior. Asimismo, promoverá la asunción de esos principios en el marco de la UE con la finalidad de que sirvan de referencia para el desarrollo de sistemas de verificación de la edad a nivel europeo.

 

Para ayudar a las familias, la Agencia trabajará con el Instituto Nacional de Ciberseguridad (INCIBE) para el análisis de las herramientas de control parental y con el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF) y el INCIBE para proporcionar a las familias formación digital, recursos y materiales mediante módulos formativos.

 

Por otro lado, la Agencia va a inspeccionar las plataformas educativas y de aprendizaje y las herramientas digitales que se utilizan en los centros docentes para garantizar el cumplimiento de la normativa de protección de datos, a la vez que se trabaja con las administraciones educativas y sanitarias para fomentar la realización de evaluaciones de impacto en privacidad y salud digital en función de la edad de los menores.

 

En lo relativo las potestades de investigación y sanción, la Agencia priorizará su ejercicio en relación con páginas web de contenidos para adultos, en especial de pornografía, con respecto a la verificación de la edad para el acceso. La AEPD ya ha sancionado a diversas páginas web de contenido para adultos, puesto en marcha actuaciones para analizar el funcionamiento de los denominados terceros de confianza en el ámbito de la verificación de la edad, y coopera con otras autoridades de protección de datos cuando las empresas no están establecidas en España. En paralelo, va a realizar un análisis de los algoritmos y patrones adictivos que tienen como objetivo influir en el comportamiento y las decisiones de los usuarios, en especial en relación con los datos y perfilados de menores de edad.

 

La Estrategia global de la Agencia también contempla dos grandes bloques de cooperación centrados en educación, y salud y bienestar digital.

 

En el plano educativo, las personas menores de edad y sus progenitores desconocen en muchos casos el amplio intercambio de información personal que se produce en la utilización de los servicios digitales, lo que hace necesario concienciar sobre cómo proteger los datos personales para evitar daños y perjuicios, muchos de ellos difícilmente reparables como el que supone la publicación y difusión de contenido sensible. Para ello, colaborará las Administraciones educativas, el Ministerio Fiscal, el Ministerio del Interior y ONGs.

 

En el apartado de salud y bienestar digital, apoyará a las Administraciones sanitarias y sociedades científicas en las iniciativas destinadas a hacer frente al impacto que para la salud (física, mental, psicosocial, sexual) y el desarrollo neurológico de los y las menores tiene el uso inadecuado de Internet, a la vez que continuará prestando apoyo a la Asociación Española de Pediatría en la difusión entre las familias y los profesionales sanitarios del Plan Digital Familiar, y apoyará su adecuación al entorno escolar para que los centros puedan disponer de un protocolo.
 

FUENTE: AEPD