Un estudio publicado a finales de 2025 revela un hallazgo inquietante. Los humanos y pequeños transformers ajustan su aprendizaje según la diversidad de ejemplos que reciben. Cuanto más se repiten los datos, más dominante se vuelve la memoria. Cuanto más variados son, más prevalece el razonamiento.
Con 530 voluntarios y las mismas pruebas, la investigación muestra cuándo la memoria y la regla dominan
Los investigadores compararon 530 voluntarios y pequeños redes neuronales en una misma tarea. Cada uno debía relacionar imágenes con números. Luego, el equipo modificó la frecuencia de los ejemplos. Este ajuste hizo que emergieran elecciones de aprendizaje muy similares.
Cuando el entrenamiento presentaba principalmente casos repetidos, tanto humanos como modelos recordaban más las asociaciones directas. Por el contrario, las series variadas favorecían el uso de una regla. El punto de inflexión aparece alrededor de α = 1. Este es el resultado central.
Una misma tarea y dos reflejos, ya que la variedad de ejemplos orienta memoria y razonamiento en todos
En concreto, el estudio enfrenta dos reflejos. El primero almacena una respuesta como un hecho aprendido. Luego, el segundo identifica una regla y la aplica en otros contextos. En psicología, esto recuerda la memoria adquirida y el razonamiento. En IA, se habla de aprendizaje in-contexto y aprendizaje in-weight.
Se puede observar con una multiplicación. Para 2 × 4, a menudo se produce una respuesta memorizada. Para 6 × 13, se utiliza un método. Sin embargo, el estudio muestra que estas dos vías dependen fuertemente del tipo de ejemplos vistos al principio, no solo de la tarea.
Cuando la repetición y la novedad coexisten, humanos y modelos combinan dos estrategias y un mismo recorrido
Lo más interesante ocurre cuando los datos mezclan repetición y novedad. En este caso, humanos y modelos se convierten más frecuentemente en dobles aprendices. Retienen asociaciones útiles y también pueden inferir una regla cuando aparece un nuevo ejemplo.
Los investigadores no solo observaron los puntajes finales. También siguieron los movimientos del ratón en los humanos. Al mismo tiempo, inspeccionaron la atención de los modelos. Ambos sistemas parecen utilizar un mecanismo en dos etapas para resolver la versión que utiliza una regla.
Primero, el participante o el modelo localiza la imagen objetivo en el círculo. Luego, busca la respuesta correcta tres posiciones más allá. Este paralelo es notable. Sin embargo, los autores enfatizan un punto esencial: este trabajo se basa en pequeños transformers y una tarea deliberadamente simplificada.
Cuando la diversidad llega primero, los humanos retienen la regla, pero los pequeños modelos se desenganchan rápidamente
Aquí es donde surge la diferencia. Cuando la formación comienza con ejemplos variados, los humanos conservan mejor la regla posteriormente. Luego añaden la memorización de casos repetidos. Los pequeños transformers, en cambio, pierden más fácilmente su estrategia inicial. Aquí, los autores hablan de interferencia catastrófica.
En otras palabras, el orden de los ejemplos es tan importante como su contenido. Si primero aprendes a través de la variedad, mantienes una cierta flexibilidad. Por el contrario, una fuerte redundancia desde el principio puede encerrarte más rápidamente en la memorización. Esta es una pista concreta para considerar el orden de los ejemplos.
No obstante, no debemos sacar conclusiones educativas demasiado rápido. La experiencia es muy controlada. No evalúa una clase ni un gran modelo de lenguaje. Finalmente, plantea una verdadera pregunta: ¿se pueden entrenar IA más flexibles organizando mejor los datos desde el principio?




