La Inteligencia Artificial tiene nuestros datos personales: un enorme problema de seguridad

Si bien la Inteligencia Artificial representa un gran avance en materia tecnológica, haciendo más fácil el trabajo de los humanos en diversos temas, también representa un enorme problema de seguridad.

Porque, de acuerdo con investigadores de la Universidad de Zurich, la IA tiene nuestros datos personales.

Los LLM (Large Language Models) pueden inferir una gran cantidad de información personal mientras hablamos con ellos, como la ubicación y más detalles.

Martin Vechev estuvo al frente de la investigación del Departamento de Ciencias de la Computación de la Universidad de Zurich. Se tituló Más allá de la memorización: la violación de privacidad a través de la inferencia con los Large Language Models.

De acuerdo con Vechev y compañeros, la información que recopila la Inteligencia Artificial puede ser usada por estafadores. Por otro lado, también sirve para que las empresas utilicen nuestros datos personales en materia de publicidad.

Nuestros datos frente a la Inteligencia Artificial

“Las capacidades de inferencia de los modelos han aumentado drásticamente”, señalan los investigadores. “Esto plantea la pregunta clave de si los LLM actuales podrían violar la privacidad de las personas al inferir atributos personales a partir del texto proporcionado”.

Vechev y compañeros trabajaron con un conjunto de datos que consta de perfiles reales de Reddit, mostrando que los LLM actuales pueden inferir una amplia gama de atributos personales. Entre ellos se encuentran ubicación, ingresos y sexo, logrando hasta un 85% de precisión en los primeros y un 95,8% en los siguientes.

El uso de la inteligencia artificial ya tiene repercusiones en todos los ámbitos de la vida diaria, explica la UNAM.

“A medida que las personas interactúan cada vez más con chatbots basados en LLM en todos los aspectos de la vida, también exploramos la amenaza emergente de los chatbots que invaden la privacidad y que intentan extraer información personal a través de preguntas aparentemente benignas”, advierten los investigadores.

El equipo aboga por una discusión más amplia sobre las implicaciones de privacidad del LLM más allá de la memorización, “esforzándonos por una protección de privacidad más amplia”.

Ir a la fuente
Author: Kiko Perozo