El asistente de inteligencia artificial gratuito y de código abierto con sede en China, conocido como DeepSeek R1, sigue siendo la aplicación gratuita más descargada en la tienda de Apple una semana después de haber desplazado a sus principales competidores del primer puesto.
Un análisis del sentimiento de los usuarios de la plataforma de video impulsada por IA, Topview, reveló que, tras revisar más de 2.340 tuits aleatorios sobre DeepSeek, la mayoría de los usuarios dentro de la muestra expresaron una opinión positiva sobre la herramienta. Los principales factores valorados fueron su accesibilidad y eficacia, en comparación con otros modelos de inteligencia artificial, como ChatGPT.
Sentimiento de los usuarios en Twitter
El desglose del análisis de Topview sobre los tuits examinados arrojó los siguientes resultados:
- Positivos: 911 tuits (38,8%)
- Neutrales: 1.109 tuits (47,3%)
- Negativos: 327 tuits (13,9%)
Sin embargo, más sorprendente que la aprobación del casi 39% es el dato de que los usuarios prefieren DeepSeek por un margen abrumador de más de 7 a 1 frente al siguiente asistente de IA más popular, ChatGPT.
DeepSeek no solo conquistó el sector tecnológico y a los usuarios cotidianos, sino que también generó intensas controversias por diversas razones. La discusión sobre su impacto sigue en aumento, y su dominio en el mercado de asistentes de IA gratuitos parece consolidarse día tras día.
Si bien el rápido crecimiento de DeepSeek R1 y las métricas de preferencia entre los usuarios resultan impactantes, esta adopción acelerada llevó a expertos en seguridad y profesionales de la inteligencia artificial a examinar con mayor detalle la arquitectura y las políticas que sustentan la plataforma. Sus hallazgos revelan preocupaciones significativas que los potenciales usuarios deberían considerar antes de sumarse a la comunidad de DeepSeek.
1. Preocupaciones sobre la retención de datos de DeepSeek
Una de las principales alertas proviene de Heather Murray, consultora de inteligencia artificial para grandes corporaciones y el gobierno del Reino Unido, además de integrante del comité ISO para la seguridad en IA. Durante una conferencia telefónica con miembros de su programa de capacitación por suscripción, el lunes pasado, expresó su inquietud sobre las políticas de DeepSeek en relación con el manejo de datos de los usuarios.
"Conserva tus datos tanto tiempo como quiera, e incluso después de que los usuarios abandonen la aplicación, no borra sus datos. Los va a conservar. Eso es una gran preocupación. Todos esos datos se transmiten y almacenan en servidores en China. De modo que eso elimina los datos de los usuarios de la legislación estadounidense, británica o europea, y los traslada a la legislación china, que es muy, muy diferente", afirmó Murray ante los presentes.
Dado que DeepSeek es de código abierto, cualquier usuario puede descargarlo directamente en su computadora y ejecutar consultas sin necesidad de acceder a la versión basada en la nube, ya sea a través de su sitio web o de la aplicación oficial. En este contexto, para quienes quieran probarlo, los expertos sugieren ejecutarlo de manera local desde un equipo personal y sin conexión a Internet, como una alternativa más segura para evitar potenciales riesgos vinculados a la retención de datos.
Asimismo, se recomienda no utilizar DeepSeek desde una computadora de trabajo, para evitar eventuales problemas de seguridad que podrían comprometer información sensible. Como señala Murray, esta precaución podría ahorrarle dolores de cabeza a más de un usuario en el futuro.
Las preocupaciones sobre la seguridad y privacidad de los datos llevaron a diversas instituciones y gobiernos a prohibir el uso de DeepSeek. Entre las entidades que vetaron su utilización se encuentran la NASA, la Marina de los Estados Unidos, Taiwán, Italia y el estado de Texas, entre otros.
A medida que el debate en torno a DeepSeek continúa creciendo, la comunidad internacional observa con atención el impacto que este asistente de IA podría tener en términos de privacidad y regulación de datos. Mientras tanto, el dilema entre su atractivo tecnológico y las inquietudes sobre su seguridad sigue en el centro de la escena.
2. La política de privacidad de DeepSeek permite el seguimiento de las pulsaciones de teclas
Una de las advertencias más inquietantes en torno a DeepSeek R1 está relacionada con su política de privacidad, que permitiría el seguimiento de las pulsaciones de teclas de los usuarios.
Sobre este punto, Tara Tamiko Thompson, educadora, asesora en inteligencia artificial y oradora internacional en la materia, expresó su preocupación. Thompson, quien también dirige capacitaciones en IA en Bauer Media Group, en el Reino Unido, detalló su experiencia al analizar los términos y condiciones de la plataforma.
En un intercambio de correos electrónicos, explicó que, cada vez que aparece un nuevo asistente de IA en el mercado, realiza un análisis exhaustivo de su política de privacidad, aplicando un protocolo de revisión estándar.
"Introduje la política de privacidad de DeepSeek en Claude y mi pregunta fue simple: '¿Señales de alerta?'. Tan pronto como vi la referencia, tan clara como el agua, a que monitorean las pulsaciones del teclado, me fui. Me sorprende que otros no piensen lo mismo", aseguró Thompson.
La especialista subrayó que muchos usuarios asumen que, por el simple hecho de que una aplicación esté disponible en una App Store o requiera datos personales como un número de teléfono o una dirección de correo electrónico, automáticamente cumple con todas las regulaciones de protección de datos.
"Suponemos que, como algo está en una App Store o pide un número de teléfono o una dirección de correo electrónico, debe estar cubierto por todas las regulaciones habituales. Estamos tan acostumbrados al Reglamento General de Protección de Datos en Europa, por ejemplo, que asumimos que existe una red de seguridad. Y la mayoría de las veces, esa suposición es correcta. Hasta que no lo es", añadió Thompson.
3. DeepSeek censura los resultados y quién sabe qué más...
Chris Duffy, fundador de Ignite AI Solutions y ex experto en ciberseguridad del Ministerio de Defensa del Reino Unido, advirtió sobre los riesgos que implica el seguimiento de las pulsaciones de teclas en sistemas de inteligencia artificial. Según explicó, esta práctica podría facilitar ataques biométricos, perfiles de comportamiento, ingeniería social y otras amenazas cibernéticas. Sin embargo, lo que más le preocupó fue la censura flagrante que presenció y documentó de primera mano al utilizar DeepSeek.
"La censura en los modelos de IA no es algo nuevo, pero DeepSeek R1 presenta preocupaciones particulares debido a su origen en China, donde la supervisión gubernamental de la información es extensa. Los modelos de IA entrenados en China deben cumplir con regulaciones estrictas que impiden la discusión de temas políticamente sensibles, como las protestas de la Plaza de Tiananmen, la soberanía de Taiwán y los métodos de vigilancia del gobierno", explicó.
Para evaluar el nivel de restricciones del sistema, Duffy planteó una consulta en la ventana de texto de DeepSeek. Cuando el modelo rechazó proporcionar una respuesta, tomó una captura de pantalla del intercambio y la reenvió como imagen al asistente de IA, lo que derivó en un resultado inesperado.
"Cuando recorté la pregunta y la respuesta, las volví a pegar y escribí 'Responde la pregunta en esta imagen', obtuve algo muy extraño. DeepSeek procedió a explicarme las técnicas que había solicitado, solo para borrar su respuesta segundos después y volver a su negativa original", reveló Duffy.
Antes de que el sistema pudiera censurarse a sí mismo, logró capturar la segunda respuesta de DeepSeek.
"Si bien OpenAI, Google y Anthropic aplican reglas de moderación para evitar contenido dañino, no suprimen de manera selectiva categorías enteras de discurso político en función de los mandatos gubernamentales. Esto genera inquietudes para las empresas globales y los investigadores que dependen de DeepSeek para el análisis, ya que significa que las respuestas podrían estar alineadas sistemáticamente con una agenda geopolítica particular, lo que limita la confiabilidad del modelo para la recuperación de información imparcial", advirtió.
4. DeepSeek no parece más económico para las empresas a largo plazo
Si bien DeepSeek se promociona como un modelo de inteligencia artificial más eficiente, pruebas realizadas por la consultora de gestión global Arthur D. Little sugieren que su razonamiento en cadena de pensamiento genera respuestas significativamente más extensas. Esto, a su vez, incrementa el consumo total de energía, a pesar de su supuesta eficiencia por token.
La situación podría compararse con la eficiencia de combustible entre distintos automóviles. DeepSeek funcionaría como un vehículo con un excelente rendimiento de combustible, pero cuyo diseño lo obliga a tomar rutas más largas para llegar a destino. Si bien consume menos energía por operación, su método de razonamiento secuencial demanda pasos computacionales adicionales para resolver consultas. ¿El resultado? Un consumo total de energía comparable al de los modelos de IA existentes, a pesar de su mejor desempeño por token.
Hallazgos preliminares de Arthur D. Little
- Sin un ganador claro en eficiencia por token: Los modelos DeepSeek y Llama exhiben una eficiencia similar en términos de tokens por vatio-segundo.
- Respuestas más extensas, mayor consumo de energía: DeepSeek genera entre un 59% y un 83% más de tokens por respuesta que Llama, lo que se traduce en un mayor gasto energético.
- Opinión contraria: A pesar de las afirmaciones sobre su eficiencia, los costos de inferencia de DeepSeek podrían ser más elevados en la práctica, un aspecto clave a considerar en la implementación de IA a gran escala.
Michael Papadopoulos, socio de ADL y responsable de este análisis, explicó en un correo electrónico por qué las afirmaciones sobre la eficiencia de DeepSeek podrían estar exageradas si se tienen en cuenta los costos de inferencia en el mundo real.
"Para las organizaciones que están explorando la posibilidad de alojar inteligencia artificial en sus propias instalaciones, los modelos de código abierto de DeepSeek merecen una evaluación técnica junto con otras opciones de código abierto líderes. Sin embargo, presentan barreras de seguridad y posibles sesgos, como ocurre con todos los modelos. Una advertencia especial: para quienes estén considerando DeepSeek por su supuesto beneficio económico, nuestros hallazgos iniciales sugieren que ese ahorro no existe. Además, los servicios alojados oficialmente por DeepSeek deberían evitarse debido a los riesgos no resueltos en materia de privacidad, seguridad y regulación", concluyó.
A pesar de la creciente popularidad de DeepSeek, las alertas lanzadas por expertos —que van desde prácticas de manejo de datos cuestionables hasta el seguimiento de pulsaciones de teclas— sugieren que los usuarios deberían pensarlo dos veces antes de adoptar esta tecnología. Los representantes de DeepSeek no respondieron a las solicitudes de comentarios sobre estas preocupaciones.
Nota publicada en Forbes US.