Los investigadores de IA de Microsoft expusieron accidentalmente una gran cantidad de datos

(Bloomberg) — El equipo de investigación de inteligencia artificial de Microsoft expuso accidentalmente una gran cantidad de datos privados en su plataforma de desarrollo de software GitHub, según una nueva investigación de una empresa de ciberseguridad.

Lo más leído de Bloomberg

Un equipo de la empresa de seguridad en la nube Wiz descubrió que datos alojados en la nube estaban expuestos en una plataforma de capacitación de inteligencia artificial a través de un enlace mal configurado. Los datos fueron filtrados por un equipo de investigación de Microsoft mientras publicaba datos de entrenamiento de código abierto en GitHub, según Wiz.

Se animó a los usuarios del repositorio a descargar los modelos de IA desde la URL de almacenamiento en la nube. Pero estaba mal configurado para otorgar permisos en toda la cuenta de almacenamiento y otorgaba a los usuarios permisos de control total, en lugar de solo lectura, lo que significa que podían eliminar y sobrescribir archivos existentes, según la publicación del blog de Wiz. Los datos expuestos incluían copias de seguridad de las computadoras personales de los empleados de Microsoft, que contenían contraseñas de los servicios de Microsoft, claves secretas y más de 30.000 mensajes internos de Microsoft Teams de 359 empleados de Microsoft, según Wiz.

Compartir datos abiertos es un componente clave de la formación en IA, pero compartir grandes cantidades de datos deja a las empresas en mayor riesgo si se comparten incorrectamente, según los investigadores del WIS. Wiz compartió los datos en junio con Microsoft, que actuó rápidamente para eliminar los datos expuestos, dijo Amy Luttwak, directora de tecnología y cofundadora de Wiz, y agregó que el incidente «podría haber sido peor».

READ  Nintendo Pizza Emulators retira sus aplicaciones de Google Play Store

En respuesta a una solicitud de comentarios, un portavoz de Microsoft dijo: «Hemos confirmado que no se revelaron datos de clientes y que ningún otro servicio interno se vio comprometido».

En una publicación de blog publicada el lunes, Microsoft dijo que investigó y abordó un incidente que involucró a un empleado de Microsoft que compartió una URL en un repositorio público de GitHub de modelos de aprendizaje de IA de código abierto. Microsoft dijo que los datos revelados en la cuenta de almacenamiento incluían copias de seguridad de los archivos personales de la estación de trabajo de dos ex empleados y los mensajes internos de Microsoft Teams de esos dos empleados con sus colegas.

El caché de datos fue encontrado por un equipo de investigación de Wiz escaneando Internet en busca de contenedores de almacenamiento mal configurados, como parte de su trabajo en curso sobre la exposición accidental de datos alojados en la nube, según el blog.

Lo más leído de Bloomberg Businessweek

©2023 Bloomberg LP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *