Filtración de datos: las empresas, en alerta por nuevos riesgos de la IA

En pleno auge de la inteligencia artificial, muchas compañías ya establecieron límites estrictos para los datos y las herramientas de IA que permiten utilizar a sus empleados.


La explosiva adopción de la inteligencia artificial que se vio a partir del éxito de ChatGPT no fue ajena a las empresas, que actualmente se enfrentan al desafío de entender los mejores usos para la nueva tecnología y los riesgos que implica para la seguridad de los datos.

De hecho, muchas de las organizaciones están, directamente, en estado de alerta y, ante la incertidumbre, decidieron restringir o prohibir la utilización de herramientas de inteligencia artificial generativa (GenAI) entre sus empleados.

Una de las mayores preocupaciones tiene que ver con el riesgo de que datos sensibles de las empresas sean introducidos en modelos del lenguaje públicos como ChatGPT o Copilot y, luego, no se pueda garantizar su privacidad.

Alerta por el mal uso de la IA

Según el estudio Data Privacy Benchmark de Cisco, la mayoría de las compañías están limitando el uso de IA generativa debido a cuestiones de privacidad y seguridad de los datos. En tanto, el 27% decidió, directamente, prohibir su uso, al menos temporalmente.

El relevamiento, que se basa en respuestas de 2.600 profesionales de la privacidad y la seguridad de 12 países, revela que el riesgo no es solo hipotético, sino que los temores se sustentan en hechos reales.

Tanto es así, que el 48% de los consultados admitió haber introducido información privada de la empresa en herramientas de inteligencia artificial, lo que podría haber comprometido su privacidad.

Y estamos hablando de profesionales enfocados en la seguridad informática, lo que puede ser un indicio de que la realidad en otros sectores de las organizaciones puede ser incluso más alarmante.

Datos en riesgo: los empleados vuelcan información sensible en los chatbots de IA.

Nuevos desafíos para la privacidad

«Las empresas ven a la inteligencia artificial generativa como una tecnología fundamentalmente diferente y con nuevos desafíos a considerar», indicó Dev Stahlkopf, Chief Legal Officer de Cisco. El experto indicó que la GenAI requiere nuevas técnicas para gestionar los datos y el riesgo. Además, evaluó que ahora «entra en juego una gobernanza reflexiva» que las compañías deberán realizar con el objetivo de preservar la confianza de los clientes.

En tanto, entre las principales preocupaciones de las firmas, Cisco detalla que las amenazas a los derechos legales y de propiedad intelectual ocupan actualmente el primer lugar (69 por ciento), seguidas muy de cerca por el riesgo de divulgación de información importante al público o a los competidores (68%).

Frente a un contexto acelerado desde el punto de vista tecnológico, las empresas ya iniciaron el proceso ineludible de tomar medidas para mitigar los riesgos y evitar quedar expuestas a una eventual filtración de información.

Más del 60% ya estableció limitaciones sobre los datos que se pueden introducir y sobre las herramientas de GenAI que pueden utilizar los empleados. Otras decidieron cortar por lo sano y, como se señaló más arriba, el 27% admitió haber prohibido las aplicaciones de IA generativa por el momento.

Los datos, en debate

La preocupación por el vuelco descontrolado de datos confidenciales en herramientas de inteligencia artificial no es solo de las empresas, sino que empieza a ser una cuestión también para los consumidores.

«El 87 por ciento de las organizaciones reconoce que deben tomar más medidas para garantizar a sus clientes que sus datos están siendo utilizados para los fines previstos y legítimos en IA» señaló Marcia Muñiz, directora jurídica de Cisco para a América Latina y Canadá. Y, en este sentido, el informe detalla que la cifra es similar a los niveles que se evidenciaron el año pasado, por lo que todavía queda mucho por avanzar.

En este marco, y mientras el gasto en privacidad -software, profesionales, servicios- en el ámbito corporativo más que se duplicó en los últimos cinco años, las empresas hoy tienen como una de sus prioridades evitar las violaciones de datos.

Fuente: CRONISTA