domingo 28, abril 2024
spot_img

El uso de la IA generativa preocupa a los directivos por posibles fugas de datos y pérdidas económicas

Madrid, 22 Dic. (EUROPA PRESS) – El uso de sistemas de Inteligencia Artificial (IA) generativa, como ChatGPT, preocupa a los altos cargos de las empresas por los riesgos que supone, sobre todo por la posible pérdida de información confidencial y el control comercial, y ello pese a los planes de implementación y los empleados que ya la utilizan en un contexto donde no siempre hay normas al respecto.

La IA generativa se ha convertido en una herramienta útil para las empresas, que permite automatizar procesos y realizar un amplio abanico de tareas, pero la alta dirección desconfía por los riesgos de seguridad que puede implicar para el negocio.

Así lo recoge un informe de Kaspersky realizado entre directivos españoles, y que señala que del total de los encuestados, solo el 19 por ciento ha debatido la imposición de reglas para controlar el uso de la IA generativa.

El 96 por ciento cree que sus empleados utilizan regularmente este tipo de sistemas, lo que lleva a que para ellos sea necesario (95%) conocer el uso que los empleados hace de la IA generativa para estar protegidos frente a riesgos de seguridad críticos o fugas de datos. El 64 por ciento, incluso, teme pérdidas económicas en las organizaciones.

Otro estudio de Kaspersky entre los usuarios empresariales de la IA generativa de España desvela que el 25 por ciento de quienes usan Chat GPT en el trabajo, el ‘chatbot’ más popular basado en esta tecnología, no sabe lo que pasa con los datos que introduce en la herramienta.

Este dato refleja la importancia de una conciencia y regulación por parte de las empresas para mantener segura su información, ya que, como recuerdan desde la firma de ciberseguridad, ChatGPT puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas.

Sin embargo, según los empleados encuestados, cerca de la mitad (45,5%) de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT. En el caso de las que sí la han implementado, el 19 por ciento dice que no son suficientemente claras, un 7 por ciento señala que las normas son claras, pero no se cumplen, y solo un 27 por ciento afirma que son claras y que se cumplen.

Estos datos contrastan con la intención de los directivos españoles, ya que según el estudio, la mitad planea utilizar la IA generativa y automatizar tareas con ella en un futuro. El 46 por ciento señaló su intención de integrar esta tecnología en sus propias rutinas para mejorar la productividad, y también en las de los empleados (43%).

A pesar de todo esto, el 16 por ciento de los españoles que usa ChatGPT en el trabajo considera que no es importante mantener la privacidad en las preguntas que realizan al ‘chatbot’, y el 31 por ciento considera que es importante no compartir datos privados, pero aun así lo hace.

Los riesgos de ChatGPT

ChatGPT asegura que no comparte la información facilitada por el usuario con terceros. Solo la retiene para mejorar la plataforma y proporcionar respuestas lo más precisas posibles, usando los datos recopilados para mejorar el modelo de lenguaje y afinar al máximo la experiencia del usuario.

«Sin embargo, hay que tener en cuenta que la política de privacidad de ChatGPT se refiere únicamente al uso de los datos de los usuarios registrados en dicha plataforma, pero no especifica nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los textos que devuelve», explica el Senior Security Researcher de Kaspersky, Marc Rivero.

Por otra parte, los ciberestafadores ya utilizan la herramienta para generar código malicioso o estafas de ‘phishing’ lo más creíbles posibles. Por ello, los expertos de Kaspersky aconsejan evitar introducir información delicada y datos confidenciales, tanto personales como corporativos, que puedan ser susceptibles de caer en manos de ciberdelincuentes.

En el caso de las empresas, consideran importante que las empresas creen normas internas que regulen el uso de ChatGPT y conciencien a los empleados sobre la importancia de no compartir ciertos datos, educando al empleado en ciberseguridad.

Destacan también la necesidad de ser precavidos al recibir enlaces de sitios web desconocidos, ya que pueden contener programas maliciosos o redirigir a las víctimas a sitios de ‘phishing’.

Kaspersky también insiste en que hay que utilizar un programa de seguridad de confianza que ofrezca protección frente a virus y supervisa en tiempo real filtraciones de datos, como hace la solución Kaspersky Premium. Y gestionar las claves y contraseñas con una herramienta específica como Kaspersky Password Manager.

Noticias de Interés

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias