¿Puede la memoria de la IA competir con la memoria humana? Un estudio cree que puede

Investigadores de Hong Kong han descubierto que la inteligencia artificial en forma de modelos de lenguaje a gran escala (LLM) tiene capacidades de memoria similares a las de los humanos.

Según A. papel Según expertos en informática de la Universidad Politécnica de Hong Kong, existen varios factores clave en la capacidad de razonamiento. Esto incluye el conocimiento aprendido, los aportes específicos y la capacidad de lograr resultados que sean consistentes con el conocimiento aprendido.

Dicen: “Según esta definición, la capacidad de memoria del LLM también puede considerarse una forma de razonamiento”.

¿La memoria de la IA funciona de la misma manera que la memoria humana?

Utilizando las colecciones disponibles de Hugging Face, se han analizado y memorizado miles de poemas chinos. Varios conjuntos de datos pudieron recordar alrededor de 1.900 poemas. En respuesta, dijeron: “Estos resultados son interesantes. Una persona, sin un entrenamiento especial de la memoria, tendría dificultades para memorizar incluso 100 poemas en tales condiciones, mientras que los LLM pudieron memorizar casi el 100% de 2.000 poemas”.

Se dice que hubo algunas limitaciones al predecir la última parte del poema, se cometieron algunos errores, que se atribuyen a la naturaleza compleja del lenguaje. Sin embargo, incluso si las predicciones no siempre fueron precisas, las respuestas aparecieron con las convenciones lingüísticas correctas, lo que sugiere una forma de creatividad y razonamiento.

Por ello, el estudio describe el concepto de memoria de la IA como “memoria de Schrödinger”. El término está inspirado en la paradoja de la teoría cuántica, en la que el estado de un objeto es indeterminado hasta que se observa.

Para los LLM, dicen que la memoria sólo se puede evaluar después de hacer una pregunta específica, del mismo modo que se evalúa la memoria de una persona al responder una pregunta específica. Por ejemplo, las personas no pueden recordar exactamente cuántos poemas conocen, pero recordarán un poema específico si se les pregunta.

Los investigadores explican que tanto el cerebro humano como los LLM generan dinámicamente resultados basados ​​en las entradas. La arquitectura de los LLM, basada en el modelo Transformer, puede verse como una versión simplificada de cómo funciona el cerebro humano.

OpenAI se encuentra entre los que exploran esta idea. En febrero, ReadWrite informó que se agregaría una función de “memoria” a ChatGPT que permitiría a la IA almacenar información sobre los usuarios a lo largo del tiempo.

Ese mismo mes, los investigadores del MIT encontraron una manera para que los chatbots de IA mantengan conversaciones fluidas sin fallar ni ralentizarse almacenando puntos de datos iniciales en su memoria.

Imagen de portada: Ideograma

Publicación ¿La memoria de la IA rivaliza con la memoria humana? Un estudio cree que puede aparecer primero en ReadWrite.

Fuente