Algunos en la comunidad científica no están convencidos por el rigor del estudio, que aún no ha sido revisado por pares.

Los investigadores de Microsoft analizaron GPT-4, un modelo de inteligencia artificial (IA) de lenguaje natural impulsado por ChatGPT de OpenAI, que creen que captura parte de la conciencia y el razonamiento en las respuestas de las personas a varias tareas propuestas. Para llegar a esta conclusión, trabajaron con esta técnica durante varios meses, probándola con imágenes, texto y varios sujetos de investigación.

En un informe reciente del servicio de preimpresión arXiv, que aún no ha sido revisado por pares, los investigadores dicen que el sistema está solo un paso más cerca de la inteligencia artificial general (AGI). Este término se refiere a un sistema o modelo técnico capaz de mostrar una comprensión o un razonamiento similares a los humanos.

Los autores del estudio le pidieron al GPT-4 que resolviera ciertos problemas o acertijos para usar el razonamiento del modelo de lenguaje natural. Por ejemplo, explique cómo apilar varios objetos de manera estable, como «un libro, nueve huevos, una computadora portátil, una botella y un clavo». Las respuestas rápidas y correctas sorprendieron a los expertos.

IA les aconseja que coloquen «la computadora portátil encima del huevo, con la pantalla hacia abajo y el teclado hacia arriba. La computadora encajará perfectamente dentro de los límites del libro y el huevo, y su superficie plana y dura proporcionará una plataforma estable».

El siguiente nivel. » Otra prueba que le pidieron a la IA que realizara fue un problema matemático que mostró que hay infinitos números primos. La respuesta fue igualmente ingeniosa y los ofendió. «¿Creo que no podría hacer nada? Por supuesto que podría hacer muchas cosas, aunque no era más», dirigió el estudio.

Los expertos no están de acuerdo

Sin embargo, el investigador y profesor de la Universidad Carnegie Mellon de EE. UU., Maarten Sapp, cree que el informe científico de Microsoft es un truco de relaciones públicas. “Admiten en la introducción de su artículo que su metodología es subjetiva e informal y puede no cumplir con los estrictos estándares de evaluación científica”, enfatiza.

Otros expertos en IA que rechazan la idea de AGI creen que sistemas como GPT-4 son realmente poderosos, pero no saben si el texto generado es fruto de la mente humana o del sentido común.

Fuente: https://actualidad.rt.com/actualidad/467515-microsoft-hace-escalofriante-revelacion-chatgpt