Por Helena Sáenz
Santo Domingo. Según ESET, la compañía tecnológica de detención de amenazas, los cibercriminales se están beneficiando de los chatsbots para estafar. Un ChatGPT es un chatbot o sistema de chat desarrollado por OpenAI. Se trata de un modelo basado en Inteligencia Artificial (GPT-3) que permite a las personas interactuar con este chatbot como si fuera una persona real a través de texto.
“Con ChatGPT se ve el avance de la democratización y accesibilidad del conocimiento, ¿pero acaso esto no está posibilitando también la democratización del cibercrimen? Investigaciones ya han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas. Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la Inteligencia Artificial y sobre todo el Machine Learning”, comenta Sol González, investigadora de Seguridad Informática de ESET Latinoamérica.
El ChatGPT se comunica de una manera amigable, y emplea un lenguaje accesible. Esto es lo que hace disruptiva a esta tecnología. El cambio que introduce es cómo los usuarios interactúan con esta tecnología, ya que permite que sea accesible para cualquier tipo de usuario. Además, ChatGPT permite infinidades de usos. Por ejemplo, para la automatización de procesos en diversas industrias, como educación, finanzas, salud, atención al cliente, etc. “Es importante tener presente, que al igual que toda tecnología, también presenta sus riesgos de seguridad. Haciendo una analogía, así como el modelo de Ransomware as a Service (RaaS) permite que actores con menos conocimientos tengan acceso a un malware y solo deban preocuparse por diseñar el correo de phishing con el cual tratar de engañar a las víctimas, ChatGPT también es un servicio disponible para cualquiera que puede ser utilizado para facilitar ciertas tareas a cibercriminales”, agrega la investigadora de ESET.
El robo de identidad, el desarrollo de malware, la generación de fake news o los ataques de phishing serían algunos de los problemas identificados con ChatGPT.
“La herramienta claramente puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales. Es un hecho que a través de ChatGPT se pueden crear correos electrónicos de phishing personalizados y muy convincentes para engañar a las víctimas y obtener información confidencial de una manera automatizada”, confirma González de ESET.