La inteligencia artificial ha avanzado rápidamente en los últimos años, y uno de los mayores desafíos es lograr que los programas sean capaces de imitar el comportamiento humano de manera convincente. Un reciente estudio realizado por la Universidad de Cornell ha revelado resultados sorprendentes sobre la capacidad de GPT-4, un modelo de lenguaje desarrollado por OpenAI, para engañar a los seres humanos en un 41% de los intentos.
¿Qué es el Test de Turing?
El Test de Turing es una evaluación que pone a prueba la capacidad de una computadora para imitar el comportamiento humano. Consiste en que un grupo de personas interactúe con un chat virtual y determine si las respuestas provienen de un humano o de una inteligencia artificial que intenta imitar a uno. En este estudio, participaron 652 personas que completaron hasta 1.810 evaluaciones.
Los resultados sorprendentes de GPT-4
El estudio utilizó una selección de 25 grandes modelos de lenguaje diferentes, incluyendo a las diferentes versiones de ChatGPT, como GPT-4. Los resultados revelaron que GPT-4 logró engañar a los seres humanos en un 41% de los intentos, lo que lo convierte en el modelo de lenguaje más cercano al comportamiento humano en esta evaluación.
En comparación, una inteligencia artificial clásica como ELIZA solo pasó el test en un 27% de las veces, mientras que GPT-3.5, creado por OpenAI, apenas superó el 14% de éxito. Estos resultados demuestran que GPT-4 ha logrado un avance significativo en la capacidad de imitar a los humanos.
El objetivo del Test de Turing
El objetivo “ideal” del Test de Turing es que una inteligencia artificial supere la evaluación al menos el 50% de las veces, e incluso alcance el 70%. Aunque GPT-4 aún no ha alcanzado esta cifra, su tasa de éxito del 41% refleja un avance notable en comparación con otros modelos de lenguaje.
Es importante destacar que GPT-4 es un software de pago, mientras que GPT es una versión gratuita. Aunque aún no exista un modelo de inteligencia artificial capaz de superar a GPT-4, es probable que en el futuro cercano se desarrolle una nueva IA mejorada que se acerque al 50% de éxito en imitación del comportamiento humano.
Perspectivas de Bill Gates y Sam Altman
Bill Gates, cofundador de Microsoft, ha compartido su opinión sobre el desarrollo de la inteligencia artificial. Aunque reconoce que existe el riesgo potencial de que una IA pueda considerar a los humanos una amenaza, considera que la probabilidad de que esto ocurra no es inminente. Gates destaca la importancia de una regulación rigurosa en el uso de la inteligencia artificial, especialmente en el ámbito militar.
Sam Altman, actual CEO de OpenAI, también ha expresado su visión sobre los sistemas de IA creados por su compañía. Afirma que estos sistemas no ejecutan ninguna acción sin órdenes humanas previas, lo que proporciona un nivel de control y mitigación de riesgos.
El futuro de la inteligencia artificial
A pesar de los riesgos existentes, tanto Gates como Altman se muestran optimistas sobre el futuro de la inteligencia artificial. Ambos coinciden en que los límites actuales de esta tecnología serán superados antes de lo imaginado, lo que abre la puerta a nuevas posibilidades y avances en el campo de la IA.
Gates sostiene que estos primeros pasos en la creación de inteligencias artificiales son solo el comienzo de una nueva era, en la que estas consciencias digitales podrán mostrar todo su potencial. Aunque existen desafíos y riesgos, el desarrollo conseguido hasta ahora es positivo y nos brinda la oportunidad de explorar nuevas fronteras en el campo de la inteligencia artificial.