Los riesgos de la inteligencia artificial: ¿Cómo ChatGPT puede comprometer la privacidad y la seguridad en línea?

A pesar de la recomendación de OpenAI para que no se comparta información crítica de las empresas y personas en las conversaciones, una investigación de Cyberhaven muestra que el 4,9 % de los empleados usaron información de la empresa en el chat, y el 2,3 % usaron información corporativa confidencial.

 

Genetec137 1El boom de la inteligencia artificial ha impactado fuertemente a la sociedad, trayendo beneficios y facilidades para la vida cotidiana de las personas y para las operaciones de las empresas. Entre estas nuevas tecnologías se encuentra ChatGPT, que es utilizada para una variedad de propósitos en diversos sectores, desde la creación de textos, historias y poemas, hasta la elaboración de procesos judiciales y recomendaciones médicas.

ChatGPT también es capaz de proporcionar instrucciones detalladas, divididas y ordenadas en etapas lógicas sobre diversas áreas y actividades, lo que puede ayudar considerablemente a estudiantes, profesionales principiantes o incluso experimentados que deseen automatizar o agilizar actividades cotidianas, repetitivas o de cualquier otra naturaleza.  

Esta herramienta basada en el modelo de lenguaje natural GPT-3 (Generative Pre-trained Transformer 3), de OpenAI, es un modelo de lenguaje de gran escala (LLM, por sus siglas en inglés), que funciona con información de datos textuales, para que así pueda generar respuestas coherentes o preguntas en lenguaje natural. Sin embargo, junto con los beneficios traídos por ChatGPT, también existen riesgos asociados a su manejo.

Riesgo de privacidad y confidencialidad

El método (no supervisado) y la cantidad de datos utilizados en el uso de este servicio pueden generar riesgos de privacidad y confidencialidad de la información, ya que el modelo puede aprender a partir de datos compartidos en conversaciones que contengan información confidencial o sensible sobre personas y empresas. De esta manera, esta información puede ser usada para componer una respuesta de ChatGPT a cualquier pregunta donde ese contenido sea coherente.

Según Ueric Melo, Gerente de Ciberseguridad y Privacidad de Genetec, compañía con más de 25 años de experiencia en la transformación digital de las soluciones de seguridad electrónica: “A pesar de la recomendación de OpenAI para que no se comparta información crítica de las empresas y personas en las conversaciones, una investigación de Cyberhaven muestra que el 4,9 % de los empleados usaron información de la empresa en el chat, y el 2,3 % usaron información corporativa confidencial.”

Ciberseguridad

ChatGPT también es capaz de proporcionar instrucciones detalladas, divididas y ordenadas en etapas lógicas sobre diversas áreas y actividades. De este modo, podemos imaginar el escenario donde una persona malintencionada con conocimientos técnicos muy limitados, a partir de una pregunta como: “¿Cómo hackear [nombre de la aplicación]?”, podrá obtener finalmente, después de una cantidad de interacciones, un código complejo y eficiente para explotar vulnerabilidades.

Además, los ciberdelincuentes con objetivos financieros más inmediatos pueden ignorar las “habilidades técnicas” de ChatGPT y centrarse en su “capacidad creativa” para hacer “phishing”, elaborando contenido que pueda persuadir a personas a realizar una acción determinada como hacer clic en un enlace a un sitio malicioso, abrir un archivo adjunto que contenga un software malicioso, llamar por teléfono o cualquier otra acción que ocasione el éxito del engaño.

Noticias falsas

La capacidad de ChatGPT para producir historias convincentes, si se dispone de la información y el contexto adecuados, también permite la creación de noticias falsas bien elaboradas, que pueden convertirse en “verdades” para quienes las reciben. Este es un riesgo bastante elevado, ya que los impactos de una noticia falsa pueden ser enormes.

“Las noticias falsas pueden perjudicar la reputación de alguien, acabar con una marca o empresa, pueden influir en situaciones políticas e incluso causar daño físico o la muerte de personas”, comenta Melo.

Resultados sesgados o incorrectos

Debido a que uno de los objetivos de esta herramienta, es entregar respuestas en un lenguaje natural (lo más cercano posible a una respuesta dada por un ser humano), la inteligencia artificial puede “inventar” información, referencias y hechos históricos, y presentarlos como factuales, lo que se denomina “Alucinación de IA”.

Además, por los motivos mencionados anteriormente, ChatGPT también puede presentar respuestas sesgadas, parciales, ofensivas e incluso agresivas, como ya ha ocurrido con otras herramientas basadas en IA.

Conclusiones

Con la rápida popularización de ChatGPT (100 millones de usuarios solo en enero de 2023), muchas personas tuvieron su primer contacto con una herramienta de inteligencia artificial, en particular con un modelo de lenguaje de gran escala. La simplicidad de uso y la versatilidad de las respuestas hicieron que ChatGPT se hiciera bastante popular entre el gran público.

Sin embargo, es fundamental que los desarrolladores y usuarios estén conscientes de los riesgos, que se implementen medidas adecuadas de protección para garantizar que los datos compartidos estén adecuadamente protegidos y que tecnologías como ChatGPT sean utilizadas de manera ética y responsable.

“Esta nueva alternativa es una herramienta poderosa y prometedora que puede traer muchos beneficios para diversos sectores; sin embargo, el modelo no es 100 % confiable. Toda información generada por la aplicación debe ser evaluada, verificada, ajustada y validada por un ser humano.” concluye Ueric Melo.

 

 

Noticias genetec