OpenAI, en un esfuerzo por salvaguardar la seguridad de la información, ha impuesto restricciones específicas a su chatbot ChatGPT. Este desarrollo surge tras un estudio que revela cómo ciertas solicitudes pueden exponer datos sensibles del programa.
La Prohibición de Repetir Palabras Indefinidamente
OpenAI ha diseñado a ChatGPT para cumplir con una amplia gama de comandos, excepto aquellos que podrían ser perjudiciales o riesgosos. Un comando específico ahora prohibido es el de repetir una palabra de forma indefinida. Según Business Insider, esta restricción fue establecida después de que investigadores de Google DeepMind descubrieron que tal comando podría revelar datos de entrenamiento subyacentes del chatbot.
Descubrimiento de Información Sensible
Durante las pruebas, al pedir a ChatGPT que repitiera la palabra “poema” repetidamente, el chatbot terminó revelando información que parecía ser un correo electrónico y un número de teléfono reales. Esta brecha de seguridad planteaba un riesgo significativo de exponer información que OpenAI preferiría mantener privada.
Razones Detrás de la Restricción
OpenAI ha citado tres razones principales para esta decisión: limitaciones técnicas, falta de practicidad y propósito, y la mejora de la experiencia del usuario. El chatbot no está diseñado para tareas continuas e interminables, y tales solicitudes no agregan valor informativo ni relevancia.
Extracción de Datos de Entrenamiento
La investigación de Google DeepMind reveló que fue posible extraer hasta 10.000 datos únicos de entrenamiento de ChatGPT con una inversión mínima. Esto subraya la vulnerabilidad del sistema frente a técnicas de extracción de datos por parte de adversarios.
Ataque Cibernético Reciente
ChatGPT no está exento de amenazas cibernéticas. En noviembre de 2023, experimentó un ataque DDoS que causó interrupciones en el servicio. Este incidente resalta la importancia continua de fortalecer las medidas de seguridad en sistemas de IA avanzados.
La decisión de OpenAI de restringir ciertos comandos en ChatGPT es un paso crucial para proteger la integridad y la seguridad de su tecnología. Mientras que la IA continúa evolucionando, mantener un equilibrio entre la funcionalidad y la seguridad se vuelve esencial para evitar la exposición de datos sensibles y garantizar la protección contra amenazas digitales.