Riesgos de privacidad en chatbots de IA: investigación revela acceso a chats privados
Hay chats privados de IA en abierto por internet: los crecientes riesgos para la privacidad de los principales chatbots
El Pais
Image: El Pais
Una investigación reciente ha revelado que los chatbots de inteligencia artificial, como ChatGPT y Perplexity, utilizan rastreadores de empresas como Meta y Google, lo que pone en riesgo la privacidad de los usuarios. Estos rastreadores pueden acceder a conversaciones privadas, lo que plantea serias preocupaciones sobre la seguridad de la información personal.
- 01Los chatbots de IA están utilizando rastreadores de empresas publicitarias, lo que compromete la privacidad de los usuarios.
- 02Se han encontrado enlaces a chats completos en abierto, permitiendo el acceso a conversaciones privadas.
- 03El uso de rastreadores en chatbots es una señal de alerta sobre el acceso a la información personal.
- 04La falta de conciencia sobre los riesgos de privacidad en IA es preocupante.
- 05Las empresas deben cumplir con regulaciones de protección de datos, especialmente en Europa.
Advertisement
In-Article Ad
Los chatbots de inteligencia artificial, como ChatGPT, Claude, Grok y Perplexity, han integrado rastreadores de empresas como Meta y Google, lo que plantea serias preocupaciones sobre la privacidad de los usuarios. Una investigación de Imdea Networks ha descubierto que estos rastreadores pueden acceder a conversaciones privadas, exponiendo detalles sensibles. En particular, se encontraron enlaces públicos a chats completos en Grok y Perplexity, lo que significa que cualquiera con el enlace podía leer las conversaciones. Aunque no hay evidencia de que terceros hayan accedido a este contenido, el riesgo es significativo. La investigación también señala que, aunque los modelos de monetización están evolucionando, los proveedores de IA están adoptando prácticas de negocio tradicionales de la publicidad. La falta de conciencia sobre estos riesgos es alarmante, ya que muchas personas confían en estas herramientas sin comprender completamente las implicaciones de privacidad. En Europa, el Reglamento de Protección de Datos impone requisitos específicos para la recopilación de datos, pero las empresas a menudo utilizan políticas de privacidad complejas para confundir a los usuarios. Los investigadores destacan la necesidad de una mayor vigilancia y análisis sobre cómo se manejan los datos en estas plataformas de IA.
Advertisement
In-Article Ad
Los usuarios de chatbots de IA deben ser conscientes de que sus conversaciones pueden ser accesibles para terceros, lo que podría llevar a la exposición de información personal sensible.
Advertisement
In-Article Ad
Reader Poll
¿Crees que los chatbots de IA deben tener regulaciones más estrictas sobre la privacidad?
Connecting to poll...
Leer el artículo original
Visita la fuente para la historia completa.
%3Aformat(jpg)%2Ff.elconfidencial.com%252Foriginal%252F9cd%252Ff25%252F90f%252F9cdf2590f48b355f2cd64d49fcf93bb3.jpg&w=1200&q=75)
%3Aformat(jpg)%2Ff.elconfidencial.com%252Foriginal%252F9cf%252Fa2d%252F6d1%252F9cfa2d6d18516322c53236bb5e88583d.jpg&w=1200&q=75)
%3Aformat(jpg)%2Ff.elconfidencial.com%252Foriginal%252Fa7f%252Fade%252Fd74%252Fa7faded7406ca2e202ea650510aa1cdd.jpg&w=1200&q=75)
