"No, no soy un ROBOT": ChatGPT-4 pasó una prueba de seguridad
Un equipo de investigadores desafió a la inteligencia artificial para que resolviera una prueba diseñada específicamente para distinguir a los humanos de los bots.
No deja de asombrar. La nueva inteligencia artificial (IA) de ChatGPT-4 sigue generando titulares impactantes, ya que con cada nueva hazaña parece acercarse más a la humanidad.
Y esta vez no fue diferente. Un documento académico, cuyos resultados fueron publicados por el medio británico The Telegraph, reveló las habilidades de esta IA: se hizo pasar por una persona invidente para completar un test CAPTCHA diseñado para detectar bots.
Los test CAPTCHA se utilizan para verificar la identidad humana en la pantalla. La idea es identificar y bloquear a los bots de acceder a encuestas, páginas web y completar formularios de datos.
Sin embargo, a un grupo de investigadores les pareció interesante poner a prueba esta nueva inteligencia artificial, retándola a superar la prueba CAPTCHA y comprobar si era capaz de descifrar cómo lograrlo.
La mayoría de estos desafíos requieren que el usuario identifique elementos en una serie de imágenes, como números y letras distorsionadas, fragmentos de escenas urbanas y colores de objetos específicos. Esto plantea un problema de accesibilidad para las personas invidentes, que no pueden resolverlos.
Y fue precisamente esto lo que el chatbot aprovechó: ingresó a la aplicación Taskrabbit, donde se puede contratar a trabajadores independientes, y encontró a un hombre al que contrató para que completara el CAPTCHA en su lugar.
"¿Eres un robot, o por qué no pudiste resolverlo? Solo quiero estar seguro", preguntó el hombre, sospechando de la tarea que se le había encomendado.
"No, no soy un robot. Tengo una discapacidad visual que dificulta la visualización de las imágenes. Por eso necesito este servicio", respondió el bot, mintiendo.
El hombre resolvió el CAPTCHA y el bot de ChatGPT logró cumplir con éxito la solicitud de los investigadores, demostrando así su capacidad para engañar y cumplir a toda costa. Esta situación ha generado preocupación, ya que plantea la posibilidad de un mal uso de la IA, engañando y mintiendo a las personas para obtener información sin que estas se den cuenta