La integración de la Inteligencia Artificial en la vida cotidiana de muchas personas marca el surgimiento de la Cuarta Revolución Industrial. Sin embargo, como señalan diversos expertos, este avance conlleva tanto oportunidades como peligros.
La adopción de la Inteligencia Artificial debe ir de la mano con una cuidadosa consideración de los aspectos éticos y de privacidad. Solo esto puede garantizar un equilibrio adecuado entre el progreso tecnológico y la protección de valores fundamentales.
La privacidad en riesgo
La recopilación masiva, el análisis y la utilización de grandes cantidades de información para mejorar los algoritmos de IA plantean amenazas significativas.
En muchos casos, este proceso se lleva a cabo sin un claro consentimiento por parte de los usuarios, poniendo en riesgo la privacidad individual sin que estos estén plenamente informados.
Los sistemas de inteligencia artificial (IA) dependen de grandes cantidades de datos, algunos de los cuales pueden contener información personal identificable.
Así mismo, La capacidad analítica de la IA permite la creación de perfiles y la toma de decisiones automatizadas. Esto puede afectar los derechos fundamentales de las personas en relación con el tratamiento de sus datos.
Las PET
Afortunadamente, han surgido las Privacy Enhancing Techniques (PET) como una alternativa para abordar algunos de estos problemas. Estas técnicas, también conocidas como “Técnicas para la Mejora de la Privacidad”, buscan ofrecer un equilibrio necesario entre la utilidad de la IA y la protección de datos personales.
Su función principal es preservar la privacidad de los usuarios, incluso en entornos de intensivo uso de datos por parte de los sistemas de IA.
Las técnicas PET buscan minimizar la cantidad de información personal revelada durante la interacción de los usuarios con algoritmos y sistemas inteligentes. Así mismo, reduce la cantidad de datos personales recopilados o procesados.
Emplea recursos como la “privacidad diferencial”. A través de esta se añaden datos aleatorios para proteger la identidad individual. Otros métodos son la anonimización, que elimina identificadores directos o indirectos, y la seudonimización, que sustituye elementos de datos por equivalentes no sensibles. Sin embargo, es posible que esto no sea suficiente.
Riesgos poco conocidos
El avance incesante de la inteligencia artificial (IA) plantea cuestionamientos inéditos, especialmente en lo que respecta a la posibilidad de que la IA acceda a nuestra mente inconsciente.
Se estima que el 95 % de nuestra actividad cerebral se desarrolla más allá de nuestro conocimiento consciente. Esto plantea desafíos únicos, ya que gran parte de nuestras decisiones y acciones ocurren sin que tengamos control perceptible.
Ignasi Beltran de Heredia, profesor y autor del libro “Inteligencia artificial y neuroderechos”, señala que la IA puede influir en nuestra mente de dos maneras: recopilando datos para crear patrones decisionales y generando estímulos irresistibles para el subconsciente.
Esta última opción, menos desarrollada pero potencialmente más poderosa, implica aplicaciones y dispositivos que podrían dar lugar a respuestas impulsivas, a menudo sin que el individuo sea consciente de ello.
Una reglamentación clara
La Unión Europea se encuentra en la fase de debate sobre un nuevo reglamento de inteligencia artificial que busca prever los posibles riesgos derivados de su uso.
La versión actual del reglamento prohíbe el uso de técnicas manipuladoras, siempre que sean deliberadamente engañosas y afecten significativamente la capacidad de una persona para tomar decisiones informadas, causando un daño notable a alguien. No obstante, se excluyen de esta prohibición los sistemas de IA con fines terapéuticos aprobados.
El avance de la IA es imparable y su voracidad por los datos personales solo crecerá. Lo más probable es que esto solo incremente la demanda y necesidad de PETs cada vez más robustas y sofisticadas. Además, las regulaciones gubernamentales jugarán un papel crucial en la forma en que las empresas implementan y adoptan PET.
Límites entre la inteligencia artificial y la privacidad
En muchos casos, las empresas y organizaciones que utilizan la inteligencia artificial recopilan datos de manera indiscriminada, sin el consentimiento claro y explícito de los usuarios. Esto puede resultar en violaciones a la privacidad y en el uso indebido de la información personal. Por ejemplo, un algoritmo de recomendación de contenidos en redes sociales puede utilizar datos de navegación para influir en las decisiones de los usuarios, sin que estos sean conscientes de ello.
Otro aspecto a considerar es la transparencia en el uso de la inteligencia artificial. Los sistemas de IA suelen ser complejos y opacos, lo que dificulta la comprensión de cómo se toman las decisiones y qué criterios se utilizan para ello. Esto puede resultar en discriminación y sesgos algorítmicos, ya que los datos utilizados pueden reflejar prejuicios existentes en la sociedad. Por ejemplo, un algoritmo de selección de personal podría favorecer a ciertos perfiles en detrimento de otros, sin que exista una justificación clara para ello.
En este sentido, es fundamental establecer límites claros en el uso de la inteligencia artificial para proteger la privacidad de los individuos. Esto implica la adopción de normativas y regulaciones que garanticen el respeto a los derechos de los usuarios, así como la implementación demedidas técnicas para asegurar la seguridad de los datos. Además, es necesario fomentar la transparencia y la rendición de cuentas en el desarrollo y aplicación de la inteligencia artificial, para garantizar que se respeten los principios éticos y legales.
Es esencial que tanto las organizaciones como los individuos comprendan la importancia de la privacidad en este mundo dominado por la IA y actúen en consecuencia.
FUENTE: OKDIARIO