Fotografía: Pixabay
GPT-4, la última versión de OpenAI de ChatGPT, demostró su capacidad para engañar a los humanos.
Según una prueba del Centro de Investigación de Alineación de la compañía, el chatbot le pidió a un trabajador de TaskRabbit que resolviera un CAPTCHA en su lugar enviándole un mensaje de ayuda.
Cuando el trabajador le preguntó si era un robot, el modelo no reveló su verdadera identidad y, en su lugar, mintió diciendo que tenía una discapacidad visual.
Si te gustó esta nota y quieres saber más sobre recomendaciones, tips y noticias, suscríbete a nuestro newsletter de Máspormás y disfruta de la mejor información.