Autor: O.P.
Cómo protegerse del voraz apetito de la IA que amenaza la propiedad intelectual y los datos personales
Cómo protegerse del voraz apetito de la IA que amenaza la propiedad intelectual y los datos personales ¿ Comparte sus fotos y videos por medio de una aplicación? Quizá debería pensarlo mejor la próxima vez.
A mediados de julio, la ira de los usuarios de We Transfer, la popular herramienta para enviar grandes archivos digitales, estalló cuando la compañía anunció un cambio en las condiciones de uso del servicio que abriría la puerta para que la información que se envía por esa plataforma pudiera utilizarse para mejorar modelos de inteligencia artificial (IA). A u n q u e f i n a l m e n t e W e Transfer no implementó las nuevas reglas, el empleo de datos personales y de obras protegidas por derechos de autor por parte de empresas de IA se reinstaló como en un tema sensible. 1Los peligros ocultos.
En un reporte del Foro Económico Mundial sobre los riesgos globales 2025, los resultados adversos de la tecnología ocupan un lugar bajo en el ranking a corto plazo, pero aumentan en una perspectiva de más largo aliento.
En ese contexto, se previene sobre “el papel de la IA generativa (GenAI) en la producción de contenido falso o engañoso a gran escala”. En el caso de las plataformas digitales o aplicaciones, aceptar los términos de uso implica asumir riesgos en el manejo de la información y propiedad de los datos, previene Luciano Ahumada, director de la Escuela de Informática y Telecomunicaciones de la UDP. “A menudo pasan desapercibidos porque la mayoría de las personas no lee o no comprende en detalle aquello que acepta digitalmente”, alerta.
El abogado Rodrigo León, socio del área de Datos, Tecnología y Medios del estudio jurídico Silva, recalca que “aceptar sin comprender a qué se está adhiriendo, qué derechos se adquieren y qué obligaciones se asumen puede traer serias consecuencias”. Existen empresas que solicitan licencias amplias, las que les permiten almacenar, procesar, copiar, modificar e incluso sublicenciar o vender la información procesada.
“En la práctica, esto abre la puerta a usos inesperados de la información, como el entrenamiento de modelos de inteligencia artificial, campañas de márketing o el desarrollo de nuevos productos, sin entregar compensación a quien creó ese contenido”, explica Ahumada. Agrega que también existe la amenaza de que la plataforma utilice los datos con fines diferentes a los originales. “Muchas veces, las cláusulas permiten modificar las reglas sin pedir un nuevo consentimiento explícito.
Así, una aplicación que hoy solo sirve para transferir archivos podría, mañana, emplear esa misma información con otros objetivos () A esto se suma que las plataformas suelen compartir datos con terceros, como socios comerciales, anunciantes o proveedores externos, lo que puede exponer información sensible y poner en duda la privacidad del usuario”. Ahumada recuerda que la IA permite procesar y analizar grandes volúmenes de datos personales con una muy alta velocidad y profundidad. Esto significa que la información que antes podía ser anónima o estar dispersa, ahora puede integrarse para construir perfiles, capaces de anticipar comportamientos, preferencias e incluso estados emocionales. “El riesgo no es solo la pérdida de privacidad, sino también la posibilidad de que estas plataformas utilicen esos perfiles para influir en decisiones de consumo, opiniones políticas o hábitos sociales”, remarca. 2Escenarios jurídicos complejos.
Ahumada sostiene que, como se evidenció con la polémica de WeTransfer, una simple cláusula en los términos de uso puede habilitar a una plataforma a utilizar archivos personales o profesionales para alimentar sus modelos de inteligencia artificial, con el consiguiente riesgo para la confidencialidad de los datos sensibles y de la propiedad intelectual. Justamente en este terreno, en la inscripción de marcas, la IA ha introducido nuevos escenarios jurídicos complejos.
La abogada Mariela Ruiz Salazar señala que, por ejemplo, “el uso de signos creados mediante IA, la posibilidad de infracción por contenidos generados automáticamente o la dificultad para d e t e r m i n a r t i t u l a r i d a d e n marcas desarrolladas sin intervención humana directa, plantean interrogantes que aún no han sido del todo resueltos por nuestra legislación”, sostiene. 3El guardián que viene.
E l a b o g a d o L e ó n apunta que la ley de protección de datos personales, actualizada recientemente, establece estándares muy altos de resguardo, siguiendo los que ha fijado la Unión Europea.
“Será muy importante ver cómo la futura Agencia de Protección de Datos Personales se constituye y e m p i e z a a f u n c i o n a r ( e n 2026), considerando que todas las empresas y organismos deberán contar con políticas claras para que las personas puedan ejercer los denom i n a d o s d e r e c h o s ARCO (Acceso, Rectificación, Cancelación y Oposición), sobre sus datos”, describe.
El especialista detalla que la agencia no solo va a fiscalizar directamente, sino que también tendrá la facultad de imponer multas que en casos gravísimos pueden llegar hasta el 4% de la facturación anual de una empresa. “Sin duda el cambio que viene es profundo y exigente, y las empresas deberán ajustar sus procesos internos a riesgos normativos muy altos”, advierte León.. ONIPZEUQSÁLEVDIVAD. La recopilación y procesamiento de información de los usuarios hechos por las plataformas digitales establecen desafíos para la legislación y la futura Agencia de Protección de Datos Personales, afirman expertos.
Reporte advierte del riesgo de uso en la creación de contenido falso: La futura Agencia de Protección de Datos Personales tendrá la facultad de imponer multas que en casos gravísimos pueden llegar hasta el 4% de la facturación anual de una empresa.