Un detector de inteligencia artificial ha afirmado recientemente que textos históricos como la Declaración de Independencia estadounidense o incluso la Biblia fueron generados por una IA. Este error grotesco revela una falla preocupante en nuestra confianza en estas tecnologías.
Por qué una IA acusa erróneamente a la Declaración de Independencia de haber sido escrita por una máquina
La información es sorprendente. Una IA analizó un texto de 1776 y afirmó que otra IA lo había redactado. Este algoritmo, destinado a detectar el origen de los textos, atribuyó a la Declaración de Independencia americana un 98,51 % de probabilidad de ser obra de una máquina.
Sin embargo, este texto fundamental para los Estados Unidos data de varios siglos antes de la aparición de los ordenadores. Este error, por burdo que sea, tiene consecuencias reales. Este asunto resalta las limitaciones de la fiabilidad de los detectores que ya se están integrando en la educación, el periodismo y la justicia.
La Biblia, las decisiones judiciales, las copias de estudiantes: lo que los detectores de IA no logran reconocer
Otros textos sagrados o históricos —la Biblia, ciertas sentencias judiciales de los años 90— corren la misma suerte. Estas herramientas los califican de contenidos generados por IA, aunque esas tecnologías ni siquiera existían en ese tiempo.
Al cuestionar la autenticidad de textos antiguos, estas herramientas también ponen en peligro obras más contemporáneas. Atribuyen erróneamente algunas copias de estudiantes, artículos de prensa o manuscritos de autores a IA. Tal confusión perjudica a carreras, reputaciones e incluso a calificaciones escolares.
Este problema se agrava en entornos sensibles como las plataformas educativas, los sistemas de verificación académica o los programas de moderación. Una detección errónea puede conllevar sanciones severas, privar de un recurso legítimo y alimentar una desconfianza generalizada hacia la tecnología.
Escritura humana o artificial: una frontera cada vez más difusa y difícil de trazar
Hoy en día, los modelos de lenguaje como ChatGPT generan textos tan creíbles que difuminan la línea entre la escritura humana. El verdadero desafío radica en la discrepancia entre esta calidad de imitación y la debilidad de los detectores que aún son precarios.
Antes, se reconocía a un autor por su tinta, por su estilo, por su grafía. Hoy, la pantalla uniformiza todo. El estilo humano se vuelve moldeable, fácilmente imitado y manipulado. Una pregunta tan simple como «¿Este texto es mío?» difícilmente tiene una respuesta clara.
Saber si un texto es escrito por una IA o un humano: ¿es realmente eso lo que importa?
Una investigadora consultada sobre el tema sostiene que lo importante ya no es tanto el autor, sino el contenido. Según ella, no importa si un humano o una máquina escribió el texto, siempre que transmita algo útil. Esta idea, tanto audaz como inquietante, abre la puerta a numerosas disfunciones.
La propiedad intelectual, la confianza en la información, el valor simbólico de un texto dependen, sin embargo, de su origen. Si difuminamos esta frontera, ¿qué quedará como referente? Los tiempos cambian, ciertamente. Pero al dejar que las máquinas controlen nuestras narrativas, corremos el riesgo de perder nuestros puntos de referencia.




