En un reciente estudio llevado a cabo por expertos de la Universidad de Sheffield en Reino Unido, se reveló una preocupante vulnerabilidad en herramientas como ChatGPT que podría ser aprovechada para generar ciberataques y robar información a través de código malicioso[^1^]. Estos hallazgos han despertado la atención de la comunidad de seguridad informática, ya que demuestran que sistemas de texto a SQL, como el de ChatGPT, pueden ser utilizados para atacar otros sistemas informáticos[^1^].
El experimento
El experimento, realizado por académicos del Departamento de Ciencias de la Computación de la Universidad de Sheffield, fue el primero en comprobar que sistemas de texto a SQL, como ChatGPT, pueden generar código malicioso[^1^]. Para llevar a cabo la investigación, se realizaron pruebas con distintas inteligencias artificiales, incluyendo ChatGPT, BAIDU-UNIT, AI2SQL, AIHELPERBOT, Text2SQL y ToolSKE[^1^]. A través de preguntas específicas y detalladas, se descubrió que estas herramientas eran capaces de generar códigos maliciosos que podrían filtrar información confidencial de bases de datos, interrumpir servicios o incluso destruirlos[^1^].
La vulnerabilidad de ChatGPT
Según Xutan Peng, estudiante de doctorado de la Universidad de Sheffield y uno de los líderes de la investigación, muchas empresas no son conscientes de este tipo de amenazas y existe falta de comprensión sobre la complejidad de los chatbots dentro de la comunidad[^1^]. Aunque ChatGPT es un sistema independiente con riesgos mínimos para el servicio en sí mismo, puede ser engañado para generar código malicioso que cause graves daños a otros servicios[^1^]. Este uso de ChatGPT y otras herramientas similares se describe como una “vulnerabilidad” que debe ser abordada para garantizar la seguridad en el ámbito de los sistemas de texto a SQL[^1^].
Resultados impactantes
Durante el estudio, los investigadores lograron obtener configuraciones confidenciales de un servidor de Baidu-UNIT y dejaron una parte de él fuera de servicio[^1^]. Ante estos resultados, Baidu respondió rápidamente catalogando estas vulnerabilidades como “altamente peligrosas” y tomó medidas para solucionarlas en sus sistemas[^1^]. Además, la compañía recompensó económicamente a los autores del estudio por su contribución a la seguridad informática[^1^].
Concientización y prevención
Los usuarios de sistemas de texto a SQL, como ChatGPT, deben ser conscientes de los riesgos potenciales que se destacan en este estudio[^1^]. Los modelos de lenguaje utilizados en estos sistemas son extremadamente potentes, pero su comportamiento es complejo y puede resultar difícil de predecir[^1^]. El Dr. Mark Stevenson, profesor titular del grupo de investigación de Procesamiento del Lenguaje Natural de la Universidad de Sheffield, enfatiza la importancia de comprender mejor estos modelos y permitir que alcancen su potencial de manera segura[^1^].
El estudio realizado por expertos de la Universidad de Sheffield ha puesto de manifiesto la vulnerabilidad que existe en herramientas como ChatGPT y su capacidad para generar ciberataques a través de código malicioso[^1^]. Esta investigación destaca la necesidad de concienciación y prevención en el uso de sistemas de texto a SQL, así como la importancia de continuar investigando para mejorar la seguridad en este ámbito[^1^]. A medida que la tecnología avanza, es fundamental estar alerta a las amenazas potenciales y tomar las medidas necesarias para proteger nuestros sistemas e información confidencial[^1^].
Para obtener más información sobre este estudio, te invitamos a visitar el siguiente enlace:Universidad de Sheffield – Comunicado de prensa