Clicky

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Se revela la base de datos de inteligencia artificial de DeepSeek

base de datos de DeepSeek

Se filtran más de un millón de líneas de registro y claves secretas

La startup china de inteligencia artificial (IA) DeepSeek, que ha tenido un meteórico ascenso en popularidad en los últimos días, dejó una de sus bases de datos expuesta en Internet, lo que podría haber permitido a actores maliciosos obtener acceso a datos confidenciales.

La base de datos ClickHouse "permite un control total sobre las operaciones de la base de datos, incluida la capacidad de acceder a datos internos", dijo el investigador de seguridad de Wiz, Gal Nagli.

La vulnerabilidad también incluye más de un millón de líneas de registros que contienen historial de chat, claves secretas, detalles del backend y otra información altamente sensible, como secretos de API y metadatos operativos. DeepSeek ha tapado el agujero de seguridad luego de que la empresa de seguridad en la nube intentara contactarlos.

Se dice que la base de datos, alojada en oauth2callback.deepseek[.]com:9000 y dev.deepseek[.]com:9000, ha permitido el acceso no autorizado a una amplia gama de información. La exposición, señaló Wiz, permitió el control completo de la base de datos y una posible escalada de privilegios dentro del entorno de DeepSeek sin necesidad de ninguna autenticación.

Esto implicó aprovechar la interfaz HTTP de ClickHouse para ejecutar consultas SQL arbitrarias directamente a través del navegador web. Actualmente no está claro si otros actores maliciosos aprovecharon la oportunidad para acceder o descargar los datos.

base de datos de DeepSeek

"La rápida adopción de servicios de IA sin la seguridad correspondiente es intrínsecamente riesgosa", dijo Nagli en la declaración. "Si bien gran parte de la atención en torno a la seguridad de la IA se centra en amenazas futuristas, los peligros reales a menudo provienen de riesgos básicos, como la exposición externa accidental de bases de datos".

"La protección de los datos de los clientes debe seguir siendo la principal prioridad para los equipos de seguridad, y es fundamental que estos trabajen en estrecha colaboración con los ingenieros de IA para salvaguardar los datos y evitar su exposición".

DeepSeek se ha convertido en el tema del día en los círculos de IA por sus innovadores modelos de código abierto que pretenden rivalizar con los principales sistemas de IA como OpenAI, a la vez que son eficientes y rentables. Su modelo de razonamiento R1 ha sido aclamado como "el momento Sputnik de la IA".

El chatbot de inteligencia artificial de la empresa emergente ha llegado a la cima de las listas de las tiendas de aplicaciones de Android e iOS en varios mercados, incluso cuando se ha convertido en el objetivo de "ataques maliciosos a gran escala", lo que lo llevó a pausar temporalmente los registros.

En una actualización publicada el 30 de enero de 2025 (31 de enero en China), la compañía dijo que había identificado el problema y que estaba trabajando para implementar una solución.

Al mismo tiempo, la empresa también ha sido objeto de escrutinio por sus políticas de privacidad, sin mencionar que sus vínculos con China se han convertido en un asunto de preocupación en materia de seguridad nacional para los Estados Unidos.

Además, las aplicaciones de DeepSeek dejaron de estar disponibles en Italia poco después de que el regulador de protección de datos del país, Garante, solicitara información sobre sus prácticas de manejo de datos y dónde obtenía sus datos de entrenamiento. No se sabe si la retirada de la aplicación se produjo en respuesta a preguntas del organismo de control. La Comisión de Protección de Datos de Irlanda (DPC) también envió una solicitud similar.

Bloomberg, Financial Times y The Wall Street Journal también informaron que tanto OpenAI como Microsoft están investigando si DeepSeek utilizó sin permiso la interfaz de programación de aplicaciones (API) de OpenAI para entrenar sus propios modelos con la salida de los sistemas de OpenAI, un enfoque conocido como destilación.

"Sabemos que hay grupos en [China] trabajando activamente para utilizar métodos, incluido lo que se conoce como destilación, para intentar replicar los modelos avanzados de inteligencia artificial de Estados Unidos", dijo un portavoz de OpenAI a The Guardian.

Jesus_Caceres