ChatGPT y el desarrollo de ataques maliciosos

0

Un análisis de cómo la inteligencia artificial de ChatGPT puede ser utilizado para el cibercrimen

Un análisis de cómo la inteligencia artificial de ChatGPT puede ser utilizado para el cibercrimen

Recientemente la empresa de investigación e implementación de inteligencia artificial conocida como OpenAI que diseñó ChatGPT, anunció una actualización denominada GPT-4, la cual incluye mejores capacidades de razonamiento y un 82% menos de probabilidades de responder a solicitudes de contenido no permitido.

Y este último tema fue precisamente el que causó inquietud en el mercado de ciberseguridad, debido a que se hicieron públicos algunos ejercicios donde se utilizaba ChatGPT para desarrollar diversos tipos de ataques maliciosos. Si bien la plataforma alertaba al usuario cuando detectaba un posible riesgo o ilegalidad en la petición, haciendo las preguntas adecuadas el usuario lograba obtener la información requerida.

En este sentido se abrieron diferentes preguntas acerca de si este sistema podría ser utilizado por ciberdelincuentes para facilitar el desarrollo de nuevos ataques de malware. Y la evidencia hace pensar que es posible.

Contar con la ayuda de un sistema de inteligencia artificial como ChatGPT no significa que el desarrollo de código malicioso haya llegado al punto de ser indetectable. Sin embargo, es posible que ChatGPT pueda ser utilizado por cibercriminales para llevar a cabo actividades ilegales como generar correos electrónicos falsos o mensajes de texto persuasivos para intentar engañar a las personas y hacerlas caer en una trampa.

Además, los cibercriminales podrían utilizar ChatGPT para mejorar su capacidad de crear algoritmos de phishing y otros ataques de ingeniería social que sean más sofisticados y difíciles de detectar.

Es importante tener en cuenta que cualquier herramienta, incluyendo ChatGPT, puede ser utilizada tanto para fines legítimos como ilegítimos. La responsabilidad recae en los usuarios de la herramienta para utilizarla de manera ética y legal; y en los desarrolladores para implementar medidas de seguridad y control de calidad para evitar el uso malintencionado.

Las herramientas actuales de ciberseguridad desarrolladas por Hillstone Networks, como iSource XDR, protegen la infraestructura y datos de las empresas a través de servicios de visibilidad e inteligencia de amenazas, los cuales permiten ver, comprender y actuar rápidamente contra las ciberamenazas multicapa y multietapa.

Hillstone iSource XDR tiene la capacidad de detectar amenazas basadas en comportamiento, es decir, la tecnología permite identificar si un archivo está realizando tareas para las que no fue diseñado. Por ejemplo, hay ataques que provienen de un archivo legítimo y después de un tiempo despliegan sus verdaderas intenciones; en este caso la inteligencia artificial de iSource XDR investiga el incidente y determina qué hacer para detener la amenaza, además ubica de dónde provino el ataque y cuáles son las alternativas para mitigar esa vulnerabilidad.

Utilizando este tipo de tecnologías, que por cierto también están basadas en inteligencia artificial, las empresas pueden tener la certidumbre de que cuentan con las mejores herramientas para hacer frente a los ataques maliciosos, aún cuando usuarios malintencionados hayan hecho uso de herramientas como ChatGPT o la nueva versión GPT-4.

Por Manuel Acosta, Director General de Hillstone Networks México


Gracias por apoyar el libre conocimiento con tu donación!
Bitcoin: bc1q4sw9260twfcxatj8mjp7358cyvrf8whzlelyhj
Ethereum: 0xFb93D2a3c9d1A0b83EE629c2dE1725BCa192e581
Litecoin: LbFduJmHvQXcpCnwfUT7aJ4DYoWSL3iQw8
Dogecoin: D7QQVqNR5rk215A4zd2gyzV9P2bLQtZHFV
Transferencia bancaria en México:
Cuenta CLABE: 661610005838513425 Nombre: Masterhacks LATAM Banco: Alternativos

Unete a nuestros grupos:
WhatsApp: https://chat.whatsapp.com/HcazyklpyeU4X3BF657KFQ
Telegram: https://t.me/masterhacks_net
Canal de WhatsApp https://whatsapp.com/channel/0029VaBBLCn5vKAH9NOWCl3K

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *