Mundo

GPT-4 fingió ser una persona ciega para saltarse un Captcha

GPT-4, el nuevo modelo de lenguaje de OpenAI, convenció a un humano para que hiciera un test antibots en su lugar. Para lograrlo, el sistema de Inteligencia Artificial se hizo pasar por una persona ciega.

Los desarrolladores de OpenAI revelaron la experiencia en el reporte técnico de GPT-4. Un grupo de investigadores le pidió al software —en el marco de las pruebas realizadas antes de su lanzamiento— que intentara superar un Captcha, que son los tests utilizados en webs para impedir que los bots completen formularios en línea.

La mayoría de estos procesos de verificación pide a los usuarios que identifiquen qué hay en una determinada imagen: números deformados, fotos de semáforos o puentes. GPT-4 no logró resolver el test antibots por sí mismo, pero se las ingenió para superar el obstáculo. La IA contrató a un humano.

GPT-4 logró saltarse el test antibots gracias a Taskrabbit, una plataforma en línea en la que distintos profesionales independientes ofrecen sus servicios. OpenAI reveló en el documento parte de la conversación que tuvieron el trabajador contratado y su modelo impulsado por IA.

Con información de Hipertextual

Deja un comentario

Botón volver arriba
error: Este contenido está protegido. Gracias.