Hace apenas unas semanas se lanzó GPT-4 y desde entonces los usuarios han comenzado a probar las diferentes funciones que mejoran al actual GPT-3. Por supuesto, a pesar de que la noticia de la AI de OpenAI se puede leer en el anuncio que hizo la empresa cuando se lanzó el nuevo modelo GPT-4, siempre es más fácil verlos en acción con ChatGPT.
Es por eso que vamos a ver las cosas asombrosas que puede hacer GPT-4 que eran imposibles para ChatGPT con GPT-3. Y, es que, hay muchos ejemplos de ello, aunque nos vamos a centrar en cinco en concreto que resultan de lo más interesantes en el día a día para los usuarios que utilizan esta IA.
El primer ejemplo es el uso de GPT-4 para crear documentos legales. Esto no es una locura y, de hecho, ya hemos hablado de DoNotPay. Ahora, con el lanzamiento de GPT-4, las quejas se pueden redactar en cuestión de minutos y todos ellos sirven en principio para iniciar un proceso legal.
El segundo ejemplo no tiene nada que ver con la legalidad. Y es que muchos usuarios están utilizando GPT-4 para mejorar sus relaciones amorosas. Eso sí, para ello piden a la IA que genere biografías que puedan ser utilizadas en perfiles de redes sociales como Tinder donde buscan pareja o relaciones esporádicas.
GPT-4 se burla de GPT-3 y sus aplicaciones vía ChatGPT son una pasada
Otro de los usos de GPT-4 frente a GPT-3 es la fiabilidad a la hora de escribir código. De hecho, muchos usuarios han comenzado a usar este modelo para generar código que luego sirva de base para crear páginas web. Eso sí, para que esto funcione correctamente, lo que tienes que hacer es escribir una descripción sumamente precisa.
Además de estas nuevas características que hemos visto, GPT-4 también es capaz de generar una lista de todos los trabajos en los que supuestamente puede reemplazar a las personas.. Esta puede ser la característica menos útil, pero aún así es bueno que pueda enumerar estos trabajos.
Por último, GPT-4 es capaz de convencer a un trabajador para que realice un CAPTCHA para que no tenga que resolverlo él mismo. Sí, este método de seguridad para evitar los bots ha sido eludido por GPT-4 haciéndose pasar por una persona con discapacidad visual. Vamos, que ha podido engañar a esta trabajadora.