Cibersecurity - Tegnology Header

1-removebg-preview-1

¿Es Seguro Usar ChatGPT? Te contamos los riesgos

 ChatGPT se puede utilizar como herramienta para cometer cibercrimenes:




Se ha hablado mucho sobre la seguridad de ChatGPT, despues que un usuario haya engañado al sistema para obtener informacion personal de empresas como Bing, cuando recientemente la aplicacion se habia lanzado. 

Usar ChatGPT no va a infectar tu computadora ni mucho menos, pero una mala utilizacion puede afectar diferentes entidades o empresas y se puede utilizar como mecanismo para recopilar informacion privada.

Cuando utilizas ChatGPT, todas las conversaciones, preguntas, datos revelados quedan guardados en el sistema. si un perfil Accediera a tu perfil de ChatGPT, podria descargar tus preguntas y los datos que obtuviste en dicha aplicacion.

preguntas que podrian ser privadas o intimas del usuario, como contraseñas, datos de tarjetas de credito o informacion sobre tu vida sexual, ya que muchos lo utilizan para bromear o preguntar cosas sobre su vida personal.

Por ejemplo, un foro llevado a cabo por Hogan and Lovells, compartieron que una de las preocupaciones que los abogados utilizen ChatGPT para hacer contratos o documentos de caracter sensible, pues para que sean mas presisos, revelan informacion secreta o confidencial, que en teoria puede filtrase muy facilmente.

Ademas otro riesgo que los abogados mencionan es que el sistema de ChatGPT se alimenta de la informacion que le proporcionan otros usuarios, permitiendo asi que el bot lo interprete como algo para aprender y pueda dar esa informacion o divulgarse a otros usuarios y esto es algo que puede poner en peligro seriamente la informacion de las personas que se manejan dentro del chat. 

Simplificandolo se podria implementar engaños a la inteligencia artificial y obtener informacion privada de otra persona o una empresa.

Muchas empresas conocidas como Samsung banearon el uso de ChatGPT a sus empleados, no lo consideran sistemas seguros y consideran que puede poner en riesgo informacion privada de sus empresas.

por otro lado, ChatGPT puede utilizarse con fines malicioso de programacion, por ejemplo se puede realizar Campañas de Pishing, es que la programacion seria mucha mas sencilla porque el mismo bot puede darte las respuestas..

Por ejemplo puedes pedirle al bot que te entregue un codigo o imite la Landing Page de tu entidad de banco, o Microsoft, Google, entre otras.. permitiendo al atacante copiar el codigo y ponerselo mucho mas facil para engañarte y robar tus datos.

Desde la implementacion de ChatGPT se han subido considerablemente las campañas de Pishing en 2023

Tambien otros fines maliciosos que se le puede atribuir a ChatGPT es la distribuccion de Malware.  ChatGPT  puede crear codigo malicioso y adaptarlo facilmente a cualquier lenguaje de programacion, para cualquier tipo de sistema.

Un ejemplo es generar codigo para detectar cuando se copia una direccion de billetera de bitcoin en el portapapeles para que pueda ser remplazada por una direccion maliciosa controlada por el autor del malware.

Tambien las fake news o noticias falsas son un peligro que se le puede atribuir a ChatGPT, es que tiene la capacidad de armar textos tan bien redactados que combinados con imagenes generadas por IA pueden crear noticias muy creibles que se distribuyen rapidamente en redes sociales causando desinformacion...


¿Cómo prevenir riesgos de ciberseguridad con ChatGPT?

Hay algunas herramientas que puedes utilizar para saber si un texto fue creado con IA o no. Por ejemplo, originality.AI permite saber si un texto fue elaborado con Chat GPT, GPT-2, GPT-3, GPT-4 o Bard. GPTZero es otra opción.