La inteligencia artificial (IA) ha revolucionado la forma en que trabajamos, y uno de los desarrollos más destacados en este campo ha sido ChatGPT. Sin embargo, a medida que estas aplicaciones de IA se vuelven más populares, surgen preguntas sobre los riesgos que conllevan su uso. ¿Podemos confiar en estas aplicaciones con nuestros datos? ¿Deberíamos prohibir su uso o esperar a ver cómo se desarrollan? En este artículo, exploraremos los riesgos asociados con el uso de aplicaciones de IA y discutiremos posibles enfoques para mitigarlos.
El auge de las aplicaciones de IA generativa
En la actualidad, existen alrededor de 9.600 aplicaciones de IA generativa en el mercado, y este número sigue creciendo a un ritmo acelerado. Estas aplicaciones prometen ayudar a los empleados en diversas tareas, desde la redacción de informes anuales hasta la creación de código para partes críticas de los negocios. A medida que el ecosistema de la IA generativa continúa expandiéndose, es importante considerar los riesgos asociados con estas aplicaciones.
Si bien ChatGPT ha acaparado los titulares, la verdadera preocupación radica en la gran cantidad de aplicaciones de terceros que no cumplen con los estándares básicos de seguridad. En muchos casos, estas aplicaciones carecen de políticas claras sobre el manejo de datos, lo que plantea riesgos significativos para las empresas. Sin salvaguardias adecuadas, las empresas corren el riesgo de incumplir regulaciones como el Reglamento General de Protección de Datos (GDPR), la Ley de Responsabilidad y Portabilidad del Seguro Médico (HIPAA) y el Estándar de Seguridad de Datos para la Industria de las Tarjetas de Pago (PCI), además de exponer sus secretos comerciales a ciberdelincuentes o a estados nacionales.
Bloquear o permitir aplicaciones de IA: una encrucijada
Ante esta situación, surge la pregunta de qué deben hacer las empresas. Actualmente, el 74 por ciento de las empresas no tienen una política de IA establecida, lo que refleja la falta de comprensión y recursos para abordar adecuadamente estos riesgos. Algunas organizaciones, incluso las más grandes y conocedoras de la tecnología, como Apple, han bloqueado el uso de aplicaciones como ChatGPT y GitHub Copilot, destinadas a ayudar a los desarrolladores en la redacción de código.
Bloquear el acceso a estas aplicaciones es comprensible, dado el desconocimiento de los riesgos y la falta de recursos y experiencia para abordarlos. Sin embargo, esta no es una solución sostenible, ya que las empresas están viendo los beneficios en términos de productividad e innovación que la IA puede ofrecer. Además, existe el riesgo de “IA en la sombra“, donde los empleados pueden ignorar intencionalmente las políticas de la empresa y utilizar aplicaciones no autorizadas. Como ocurrió en el pasado con el uso de dispositivos personales para trabajar, si algo facilita la vida o aumenta la productividad de los empleados, es probable que lo utilicen antes de que la empresa pueda aplicar una política al respecto.
En busca de un equilibrio
La clave está en encontrar un equilibrio que permita a las organizaciones utilizar la IA de manera segura. Esto implica establecer políticas sólidas que confíen en las aplicaciones de IA más seguras y útiles, al mismo tiempo que se bloquea el acceso a aquellas que no cumplen con los estándares de seguridad establecidos. Esto puede resultar complicado dada la gran cantidad de aplicaciones disponibles y la diversidad de roles laborales que buscan atender. A largo plazo, la evaluación de este extenso ecosistema de aplicaciones puede automatizarse en colaboración con proveedores de seguridad. Por ahora, es importante seguir las mejores prácticas, como:
- Evaluar los datos requeridos por la aplicación: Las aplicaciones de IA no deben solicitar datos confidenciales o de propiedad intelectual. Es importante recordar a los empleados que eviten compartir este tipo de información con estas aplicaciones.
- Revisar las políticas de datos de la aplicación: Es crucial asegurarse de que las aplicaciones tengan políticas claras sobre cómo se retendrán, utilizarán y protegerán los datos. Si estas políticas no se especifican claramente, es mejor evitar el uso de esas aplicaciones y tener en cuenta el cumplimiento de las regulaciones vigentes.
- Evaluar la utilidad de la aplicación para la organización: Las empresas preocupadas por la seguridad deben priorizar el acceso a aplicaciones que brinden beneficios tangibles para el negocio.
Es importante tener en cuenta que no todo lo relacionado con la IA implica un riesgo para la seguridad. El rápido avance de la IA ha dejado rezagados a gobiernos, reguladores, organizaciones e incluso a los propios investigadores de IA. Por lo tanto, es crucial encontrar un equilibrio que permita aprovechar los avances de la IA sin poner en riesgo a las empresas.
El uso de aplicaciones de IA conlleva riesgos significativos para las empresas, especialmente aquellas que no cuentan con políticas claras y seguras. Sin embargo, bloquear por completo estas aplicaciones no es una solución sostenible, ya que las empresas están viendo los beneficios de la IA en términos de productividad e innovación. El enfoque correcto es establecer políticas sólidas y evaluar cuidadosamente las aplicaciones de IA en función de su seguridad y utilidad. Al hacerlo, las empresas pueden aprovechar los beneficios de la IA de manera segura y evitar riesgos innecesarios.