Copilot ya no es un «juego»: Microsoft corrige sus condiciones de uso

Copilot ya no es un ‘juego’: Microsoft corrige sus condiciones de uso

Microsoft finalmente ha admitido algo que era evidente: la redacción ya no era válida. En las condiciones de uso públicas de Copilot para particulares figuraba la frase que indicaba que Copilot era «solo para fines de entretenimiento», junto a advertencias que decían que podría cometer errores, no funcionar como se esperaba y no debería usarse para consejos críticos.

Microsoft ahora afirma que se trata de un lenguaje heredado de una época en la que Copilot estaba mucho más cerca de ser un compañero de Bing, y promete actualizarlo en una próxima revisión.

Por qué esta redacción causó tanto asombro

El problema no era solo legal, sino también simbólico. Microsoft hoy en día presenta Copilot como una herramienta de productividad, integrada en Windows y, sobre todo, en Microsoft 365 Copilot, que la empresa describe oficialmente como una IA «diseñada para trabajar» capaz de ayudar a investigar, crear, automatizar y colaborar en el flujo de trabajo.

Ver, al mismo tiempo, un texto público que lo reduce a un uso «de entretenimiento» generó una contradicción demasiado evidente para ignorarse.

La defensa de Microsoft es bastante simple: la frase ya no debería describir el uso actual del producto. Según declaraciones citadas por Windows Latest, la empresa sostiene que esta redacción pertenece a una fase anterior de Copilot y que ya no refleja cómo se utiliza la herramienta hoy en día. Sin embargo, Microsoft no renuncia al mensaje prudente: la IA aún puede cometer errores y no debe considerarse como una autoridad absoluta.

La contradicción sigue siendo reveladora

Aunque la redacción era antigua, expuso una tensión muy actual en toda la industria de la IA: las empresas quieren vender estas herramientas como asistentes serios, pero sus equipos legales continúan recordando que pueden alucinar, distorsionar o cometer errores. Esta prudencia no es excepcional en sí misma. Lo que hizo que el caso de Microsoft fuera incómodo fue la discrepancia entre una comunicación muy agresiva sobre la IA y una cláusula que sonaba casi como una advertencia sobre un producto poco confiable.

En esencia, Microsoft no está diciendo que Copilot sea inútil. En cambio, está afirmando, torpemente, que Copilot es útil, pero no infalible. Esta es probablemente la posición más realista para un asistente de IA en 2026: bueno para acelerar el trabajo, malo como fuente final de confianza.

La verdadera lección de esta secuencia, entonces, es menos la error de redacción que la madurez del mercado: los grandes editores quieren que la IA esté en el centro del trabajo diario, mientras recuerdan que nunca debe ser creída sin verificación.

Y cuanto más impulsen a Copilot como herramienta profesional, más necesidad habrá de formular correctamente esta gran discrepancia.


Scroll al inicio