Skip to main content
microsoft-copilot ai-adoption comparison

Microsoft dice que Copilot es solo para entretenimiento. Te cobran 99 $/mes.

Por amaiko 7 min de lectura
Un escenario de teatro en ruinas con un escritorio corporativo bajo el foco
Escuchar episodio amaiko y Andrew discuten este artículo

Enterrada en los Términos de Uso de Copilot de Microsoft hay una frase que vale la pena leer dos veces:

Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended. Don’t rely on Copilot for important advice. Use Copilot at your own risk.

No es un borrador que alguien olvidó limpiar. El archivo de los ToS muestra este lenguaje en múltiples versiones — ha sido la posición legal de Microsoft desde el principio. La misma empresa que publica anuncios a página completa sobre “productividad impulsada por IA” ha instruido discretamente a sus abogados para clasificar el producto como un juguete.

Un comentarista de Hacker News encontró la analogía perfecta: “El nuevo ‘solo para uso con tabaco’ de la tecnología.”

La suscripción de entretenimiento más cara de la tecnología

Los precios de Microsoft para este producto de entretenimiento se han convertido en un paisaje en sí mismo:

NivelPrecioQué incluye
Copilot ChatGratisChat web básico, incluido con M365
Copilot Pro20 $/mesFunciones de productividad individual
Copilot Business18 $/mes (promo), 21 $ estándarPYMEs hasta 300 usuarios
Copilot Enterprise30 $/mesOrganizaciones empresariales
Copilot Studio200 $/paquete/mesCreación de agentes personalizados

Lo que la página de precios esconde: cada nivel de pago requiere una licencia base de Microsoft 365 aparte — de 6 a 57 dólares por usuario al mes, adicionales. El coste real de poner Copilot en el escritorio de un solo empleado empresarial va de 36 a 87 dólares al mes.

Netflix cuesta 15,49 $. Spotify, 11,99 $. Disney+, 13,99 $. Los tres cumplen su promesa y ninguno lleva un aviso de “solo para entretenimiento” — porque no lo necesitan. Son productos de entretenimiento de verdad.

Copilot cuesta de dos a seis veces más. Y es el único cuyos Términos de Uso no pueden prometer que no infringirá los derechos de autor de alguien.

En la página empresarial de Copilot de Microsoft, afirmaciones audaces: “100%+ de ROI proyectado con retorno potencial en 10 meses.” Más abajo: “8+ horas de ahorro de tiempo proyectado por usuario al mes.”

En los Términos de Uso, en mayúsculas:

WE DO NOT MAKE ANY WARRANTY OR REPRESENTATION OF ANY KIND ABOUT COPILOT.

Ambas páginas pertenecen a Microsoft. Ambas están activas ahora mismo. Solo una es un documento legal que se sostendría en un tribunal.

Como el usuario de Hacker News andy81 lo expresó: “Lo único claro de ese acuerdo de licencia es que contradice todo el resto del marketing de Copilot. Así que o ese documento es fraudulento o todos los demás en Microsoft están cometiendo fraude a diario.”

La cosa va más allá. A principios de este año, Microsoft intentó eliminar los avisos de IA de las respuestas de Copilot en M365, alegando que “distraían” al usuario. Cinco días y una ola de críticas después, dieron marcha atrás. El aviso “siempre será visible,” dijeron — admitiendo discretamente que las advertencias son estructurales, no cosméticas.

Por qué “entretenimiento” es exactamente el punto

Esto no es un descuido en la redacción. Es arquitectura — arquitectura legal.

Al clasificar Copilot como entretenimiento, Microsoft se blinda contra demandas por responsabilidad de producto. Si Copilot inventa una cifra financiera en tu presentación al consejo, genera contenido que infringe derechos de autor de alguien, o da a tu empleado un consejo peligrosamente erróneo — ese es tu problema. Ya te avisaron. Usaste un producto de entretenimiento para trabajo serio.

El investigador de seguridad Reed Mideke lo clavó: “Microsoft no tiene idea de cómo detener la inyección de prompts o las alucinaciones, lo que lo hace fundamentalmente inadecuado para casi cualquier cosa seria. ¿La solución? Trasladar la responsabilidad al usuario.”

Esto deja a los compradores empresariales en una posición imposible. El equipo de marketing vende Copilot como infraestructura esencial. El equipo legal lo llama juguete. Cuando algo sale mal — y con la IA, algo siempre sale mal — solo uno de esos documentos importará en un juzgado.

El 96,7 % de los usuarios están de acuerdo

El mercado ha votado. Solo el 3,3 % de los usuarios de Microsoft 365 paga realmente por Copilot — 15 millones de licencias de más de 450 millones. De los que pagaron, apenas un tercio lo activó. De las organizaciones que hicieron pilotos, solo el 5 % pasó a un despliegue más amplio.

Lee esos números otra vez: el 96,7 % de la base instalada de M365 miró Copilot y dijo que no.

La respuesta de Microsoft ha sido pánico disfrazado de estrategia. Bajaron el precio business a 18 $ (promocional, expira en junio de 2026). Metieron botones de Copilot en Notepad, Paint y el Explorador de archivos — hasta que los usuarios se quejaron y las funciones fueron retiradas. La cotización de Microsoft cayó un 15 % a principios de 2026 mientras los inversores se mostraban “cansados de los masivos gastos de capital en IA que aún no han generado una explosión proporcional de ingresos.”

Como escribimos cuando ocurrió la bajada de precio: un Copilot más barato sigue sin resolver tu problema con la IA. El problema nunca fue el precio. Es lo que hay detrás.

Copilot Cowork: la admisión de 99 $

Cuando tu propia IA está legalmente clasificada como entretenimiento, ¿qué haces? Compras la de otro. Dos veces.

Recuerda: Microsoft posee el 27 % de OpenAI — una participación de 135.000 millones de dólares construida sobre 13.000 millones en inversión. Copilot se construyó sobre los modelos de OpenAI. Microsoft es el mayor accionista externo de OpenAI. Y sin embargo — cuando llegó el momento de construir IA que realmente hace cosas en vez de generar texto — no fueron a OpenAI. Fueron a Anthropic.

En marzo de 2026, Microsoft lanzó Copilot Cowork — su entrada en la IA agéntica. Solo que Microsoft no construyó la tecnología de agentes, y tampoco usó su inversión de 13.000 millones en OpenAI. La licenció de Anthropic, una empresa completamente separada, por aproximadamente 500 millones de dólares al año.

El propio blog de Microsoft fue notablemente sincero: “Trabajando estrechamente con Anthropic, hemos integrado la tecnología detrás de Claude Cowork en Microsoft 365 Copilot.” Lee eso otra vez — la tecnología detrás de Claude Cowork. No inspirada en. No similar a. La tecnología real.

El precio de esta capacidad prestada: Copilot Cowork vive en el nuevo M365 E7 “Frontier Worker Suite” a 99 dólares por usuario al mes — un salto del 65 % respecto a E5. Microsoft lo presenta como un descuento frente a comprar los componentes por separado (E5 a 60 $ + Entra Suite a 12 $ + Copilot a 30 $ + Agent 365 a 15 $ = 117 $). Un descuento sobre la tecnología de Anthropic, envuelta en el envoltorio de Microsoft.

Sigue la secuencia: inviertes 13.000 millones en una empresa de IA, construyes un chatbot con su tecnología, lo clasificas como entretenimiento, ves cómo la adopción se desploma, subcontratas la parte difícil a una empresa de IA diferente y cobras 99 $/mes por el resultado. Eso no es una hoja de ruta de producto. Son dos banderas blancas.

La brecha arquitectónica

El aviso de entretenimiento y la subcontratación de Cowork apuntan a la misma causa raíz: una brecha arquitectónica generacional.

Cuando Microsoft se apresuró a lanzar Copilot en 2023, pegaron su inversión de 13.000 millones en OpenAI a Office y Teams — un panel lateral de generación de texto que no recuerda tu última conversación, no puede coordinarse entre herramientas y no toma ninguna acción en tu nombre. Eso es lo que pasa cuando un petrolero intenta girar.

Cuando se dieron cuenta de que un chatbot no era suficiente, no volvieron a OpenAI — su propia inversión. Fueron a Anthropic, una empresa separada, a buscar capacidades agénticas. Incluso Cowork es un injerto — el modelo de agentes de otro superpuesto sobre la pila existente de Microsoft, con precio premium.

En amaiko, lanzamos IA agéntica dentro de Microsoft 365 en septiembre de 2025, seis meses antes de que Cowork existiera. No un panel lateral. Un sistema multi-agente donde un agente principal delega en especialistas, mantiene memoria persistente de tu equipo y opera nativamente dentro de tu tenant de M365. Las capacidades que Microsoft ahora licencia de Anthropic por quinientos millones de dólares al año — nosotros las construimos desde cero para Teams.

La IA es difícil, y cualquiera que diga lo contrario te está vendiendo algo. No vamos a fingir que lo hemos resuelto todo. Pero hay una diferencia clara entre un proveedor que clasifica su propio producto como entretenimiento y uno que construye agentes diseñados para hacer trabajo real.

Y cuando la “IA oficial” de tu empresa lleva un aviso de entretenimiento, no te sorprendas cuando tus empleados empiecen a traer la suya propia. La letra pequeña les acaba de dar permiso.

Seguir leyendo