Preocupa la falta de transparencia sobre los modelos de inteligencia artificial desarrollados por la empresa, incluyendo detalles sobre su entrenamiento y funcionamiento
La inteligencia artificial (IA) de DeepSeek lidera descargas en App Store y Google Play Store, impulsando su popularidad, pero con riesgos en seguridad y privacidad para los usuarios.
“La aparición de nuevas empresas como DeepSeek presenta oportunidades y preocupaciones de seguridad para los usuarios”, afirma el experto en ciberseguridad de NordVPN, Adrianus Warmenhoven, quien insta a interactuar con estas plataformas con “cierto grado de precaución”.
Las leyes sobre privacidad varían entre países. “DeepSeek, como startup china de IA, opera en un entorno donde la supervisión gubernamental de datos es estricta, lo que plantea riesgos relacionados con la recopilación, almacenamiento y uso de información”, explica.
La aplicación incluye un asistente de IA tipo ‘chatbot’, descargable gratuitamente en App Store y Google Play Store, que responde dudas en formato conversacional. También accede a la web y ofrece un “modo de pensamiento profundo” que, aunque más lento, genera respuestas más detalladas.
Uno de los principales problemas detectados es la posible parcialidad del modelo, que ha enfrentado críticas por evitar temas políticos, lo que sugiere “sesgos e influencias externas en las políticas de moderación de contenidos”, señala Warmenhoven.
En su política de privacidad, disponible solo en inglés en la web oficial de DeepSeek, la empresa detalla la recopilación de datos personales, incluyendo:
- Perfil del usuario y contenido compartido con la IA (historial de conversaciones, fotos, vídeos y audios).
- Información del dispositivo utilizado (modelo, sistema operativo, patrones de pulsaciones, dirección IP e idioma del sistema).
- Datos de uso, ‘cookies’, información de pago y fuentes externas como servicios vinculados o anunciantes.
Estos datos se almacenan en China, lo que genera inquietud por los estándares de privacidad y seguridad. Según Warmenhoven, “los datos compartidos podrían estar sujetos a acceso gubernamental bajo las leyes de ciberseguridad de China, que exigen acceso empresarial a los datos”.
También preocupa la falta de transparencia sobre los modelos de inteligencia artificial desarrollados por la empresa, incluyendo detalles sobre su entrenamiento y funcionamiento. Warmenhoven advierte que “los usuarios deben considerar si sus interacciones o datos cargados podrían contribuir inadvertidamente al aprendizaje automático, lo que podría derivar en uso indebido de información o en herramientas maliciosas”.
Además, DeepSeek enfrenta riesgos de ciberataques debido a su creciente popularidad. Este lunes, la compañía anunció limitaciones en las inscripciones tras un ciberataque, sin ofrecer más detalles.
“A medida que las plataformas de IA se sofistican, también se convierten en objetivos principales para piratas informáticos que buscan explotar datos de usuarios o la propia IA”, apunta el experto de NordVPN.
Para mitigar riesgos, Warmenhoven recomienda a los usuarios adoptar un enfoque proactivo en ciberseguridad, como revisar términos y condiciones, entender dónde se almacenan sus datos y quién tiene acceso a ellos.
¿Qué opinas sobre los riesgos de privacidad de DeepSeek? Déjanos tus comentarios.
¿Es la seguridad en las apps de IA una prioridad para ti? Comparte tu perspectiva.
El crecimiento de DeepSeek refleja el auge global de herramientas de inteligencia artificial accesibles al público, pero plantea preocupaciones importantes en torno a la privacidad y seguridad de datos. Según informes recientes de la Global Privacy Assembly (2023), las leyes de ciberseguridad en China, como la Ley de Ciberseguridad (2017) y la Ley de Protección de Información Personal (2021), obligan a las empresas a almacenar datos dentro del país y podrían exigir la entrega de información al gobierno bajo ciertas circunstancias. Esto refuerza los riesgos mencionados respecto al almacenamiento de datos personales en servidores chinos.
Por otro lado, las críticas sobre sesgos en las políticas de moderación no son exclusivas de DeepSeek. Un estudio de la Universidad de Stanford (2023) encontró que las IA generativas enfrentan desafíos para mantener la neutralidad debido a la interacción entre sus algoritmos de aprendizaje y las políticas de moderación impuestas por sus desarrolladores. Este aspecto afecta especialmente a aplicaciones con un público global, donde las normas culturales y políticas varían ampliamente.
En cuanto al almacenamiento y uso de datos para entrenamiento de modelos, la reutilización de información proporcionada por los usuarios, como menciona Warmenhoven, es una práctica común pero controvertida. OpenAI y otras compañías similares han enfrentado preocupaciones por utilizar datos de interacciones en sus modelos. Esto subraya la importancia de leer los términos y condiciones, aunque un estudio de Statista (2023) reporta que solo el 10% de los usuarios lee estas políticas en su totalidad.
Respecto al reciente ciberataque a DeepSeek, no se han dado detalles específicos, pero según Check Point Research, los ataques dirigidos a plataformas de IA han incrementado un 135% desde 2022, con enfoques comunes como inyección de datos maliciosos en modelos o el acceso a información personal sensible almacenada en sus servidores. Esto pone de relieve la necesidad de que los usuarios implementen medidas adicionales, como el uso de redes privadas virtuales (VPN) y la activación de configuraciones de privacidad estrictas en sus dispositivos.
Finalmente, las preocupaciones sobre el “modo de pensamiento profundo” de la aplicación podrían estar relacionadas con un mayor procesamiento de datos o almacenamiento temporal de información para generar respuestas más elaboradas, lo cual es relevante desde una perspectiva de privacidad.
Con Información de Excelsior.