Hay una pregunta que toda empresa debería poder responder antes de invertir un euro en tecnología: ¿en qué nivel de madurez digital estamos hoy?
No «más o menos avanzados». No «mejor que hace dos años». Un nivel concreto, medible, con criterios verificables. Algo que permita comparar el antes y el después, calcular si una inversión tiene sentido económico y decidir qué paso dar a continuación con lógica — no con intuición ni con presión comercial.
Esa pregunta, hoy, casi nadie puede responderla bien. Y eso es un problema que la comunidad académica y las grandes firmas de análisis llevan años señalando.
Un problema que la academia documenta desde hace una década.
Una revisión sistemática publicada en Springer en 2023, tras analizar una década de modelos de madurez digital, concluye que la gran mayoría de los modelos existentes no siguen un estándar académico común en su proceso de diseño [1]. La heterogeneidad es tal que, según los investigadores, resulta imposible hacer una comparación objetiva entre modelos. Cada consultora crea el suyo propio, con criterios opacos y sin validación externa.
Investigadores del Politécnico de Milán confirman la misma carencia: los modelos de madurez digital disponibles se han centrado en grandes empresas e industria manufacturera, dejando fuera las necesidades específicas de las empresas pequeñas y medianas [2].
Un estudio publicado en Emerald en 2025 va más allá y advierte que la ausencia de un modelo universalmente reconocido para evaluar la madurez digital en PYMEs podría agravar la brecha digital entre empresas pequeñas y grandes, amenazando la competitividad de las más pequeñas [3].
Y no son voces aisladas. Una investigación publicada en ScienceDirect en 2025 identifica «limitaciones críticas» en los modelos existentes: escasa participación de profesionales en su diseño, falta de integración multidimensional, insuficiente consideración de los niveles de madurez más bajos y ausencia de resultados accionables [4].
El patrón es consistente: existen decenas de modelos, pero no hay un estándar común, verificable y adaptado a la realidad operativa de las empresas medianas.
El mercado no tiene vara de medir.
Piénsalo un momento. Si quieres saber la salud financiera de tu empresa, tienes ratios estandarizados que cualquier gestor entiende: EBITDA, ratio de liquidez, periodo medio de cobro. Son métricas conocidas, comparables y auditables. Nadie discute cómo se calculan.
Pero si quieres saber la salud digital de tu empresa, ¿qué métrica usas?
No existe un equivalente. No hay un «EBITDA digital» que te diga si tu empresa está preparada para absorber tecnología o si va a tirar el dinero. Lo que hay son diagnósticos de parte: cada consultora, cada proveedor de software, cada integrador te evalúa con su propio criterio. Y como señala la investigación de Springer, los autores de estos modelos rara vez revelan la motivación detrás de sus procedimientos y resultados de medición [5].
No es mala fe en la mayoría de los casos. Es que sin un marco de referencia común, cada uno mide con la regla que tiene. Y eso genera un problema sistémico que se mide en miles de millones.
3.000 millones de euros invertidos sin diagnóstico.
El ejemplo más cercano es el Kit Digital. España invirtió 3.000 millones de euros para digitalizar empresas. Se repartieron subvenciones para implantar webs, CRMs, ERPs y herramientas de ciberseguridad. El objetivo era bueno. La ejecución, no tanto.
Nadie midió en qué punto estaba cada empresa antes de darle herramientas.
Una empresa que ni siquiera tenía correo corporativo recibió un CRM. Una empresa cuyo equipo comercial llevaba todo en WhatsApp recibió un ERP. Una empresa sin backups recibió un e-commerce. El resultado: miles de herramientas que nadie usa, licencias que se pagan sin generar valor y una frustración generalizada con «la digitalización».
El Kit Digital no fracasó por falta de dinero. Fracasó por falta de diagnóstico. Si alguien hubiera medido primero, muchas empresas habrían recibido exactamente lo que necesitaban en lugar de lo que cabía en el presupuesto de la subvención.
Y no es un caso aislado. En Reino Unido, el SME Digital Adoption Taskforce publicó en julio de 2025 un informe demoledor: la brecha de productividad del país está directamente vinculada a la «larga cola» de PYMEs digitalmente inmaduras que no han modernizado su núcleo operativo [6]. Tras años de incentivos blandos, el gobierno británico ha pasado de la estrategia de «empujones suaves» a la intervención estructural.
Con la IA está a punto de pasar lo mismo.
Ahora sustituye «Kit Digital» por «Inteligencia Artificial» y el patrón se repite.
Gartner predice que el 60% de los proyectos de IA serán abandonados por falta de datos preparados [7]. McKinsey documenta que, aunque el 88% de las empresas dicen usar IA, solo el 39% puede demostrar impacto real en resultados [8]. El MIT cifra en el 95% los pilotos de IA empresarial sin retorno mesurable [9].
La IA amplifica lo que hay debajo. Si debajo hay orden, amplifica la eficiencia. Si debajo hay caos, amplifica el caos. Más rápido y más caro.
Sin una forma de medir la madurez digital de una empresa, cualquier inversión en IA es un acto de fe. Puede salir bien por casualidad, pero no por diseño.
Por qué necesitábamos un estándar abierto.
Esta es la razón por la que creamos el DCMM y la razón por la que lo publicamos en abierto.
El DCMM (Devantia Composite Maturity Model) es un marco de referencia que define cinco niveles acumulativos de madurez digital para empresas de 15 a 250 empleados. Cada nivel describe qué capacidades tiene la empresa, qué evidencias operativas lo demuestran y qué prerrequisitos necesita el siguiente. No es un cuestionario de autoevaluación: es un estándar con criterios verificables.
Lo publicamos en Zenodo — el repositorio científico del CERN — con DOI propio y licencia Creative Commons CC BY 4.0 [10]. Eso significa que cualquiera puede leerlo, usarlo, adaptarlo y redistribuirlo sin pedir permiso. La única condición es citar la autoría.
¿Por qué en abierto? Porque un estándar de medición que solo puede usar quien lo vende no es un estándar. Es una herramienta comercial disfrazada. Y como documenta la revisión de Springer, la publicación constante de nuevos modelos para campos de aplicación similares sugiere una cierta arbitrariedad que no contribuye a resolver el problema [5].
Nosotros creemos que si una empresa va a invertir 10.000 o 50.000 euros en transformar su operativa, tiene derecho a saber con qué criterio se le está evaluando. Tiene derecho a verificar que el diagnóstico se basa en un marco objetivo y no en lo que el consultor de turno necesita facturar ese trimestre.
Cinco niveles, una secuencia.
El DCMM define cinco niveles porque la experiencia y los datos de las grandes firmas de análisis [7][8] demuestran que la madurez se construye de abajo arriba y que saltarse pasos tiene consecuencias:
Nivel 1 — Base digital. La empresa tiene identidad corporativa, repositorio común, backups y seguridad mínima. Si un portátil se pierde, la empresa sigue funcionando.
Nivel 2 — Procesos trazables. Los procesos críticos están en herramientas, no en la memoria de tres personas. Hay CRM, ERP, gestión de RRHH. Cuando alguien se va, el proceso continúa.
Nivel 3 — Dato gobernado. Los sistemas hablan entre sí. Hay una fuente única de verdad. Los datos se sincronizan, no se copian a mano.
Nivel 4 — Visibilidad y automatización. La dirección toma decisiones con datos reales, no con intuición. Las tareas mecánicas se ejecutan solas.
Nivel 5 — Inteligencia Artificial aplicada. Solo aquí tiene sentido hablar de IA. Porque ahora hay una base de procesos, datos y evidencias sobre la que la IA puede generar valor real.
Cada nivel se paga a sí mismo. No hace falta llegar al quinto para empezar a recuperar horas, eliminar errores y ganar margen.
La pregunta que importa.
Antes de contratar a nadie — incluyéndonos a nosotros — hazte esta pregunta: ¿con qué criterio me están evaluando? ¿Puedo leerlo? ¿Puedo verificarlo? ¿O me están diagnosticando con una caja negra?
El DCMM está publicado. El DOI es 10.5281/zenodo.18816737. Cualquiera puede leerlo ahora mismo [10].
No es perfecto. Es la versión 1.0 y seguirá evolucionando. Pero es verificable, auditable y abierto. Y en un mercado donde la investigación académica lleva una década señalando que no hay un estándar común [1][5], y donde los gobiernos siguen repartiendo miles de millones sin diagnosticar primero [6], eso ya marca una diferencia.
Referencias:
[1] Springer, «A decade of digital maturity models: much ado about nothing?», Information Systems and e-Business Management, 2023. Revisión sistemática que concluye que la gran mayoría de los modelos no siguen un estándar académico común y que la heterogeneidad impide comparaciones objetivas.
[2] Politécnico de Milán (Re, Ghezzi, Balocco & Rangone), «Digital Maturity Models for SMEs: A Systematic Literature Review», ICEIS 2023. Los modelos existentes se han centrado en grandes empresas y manufactura, dejando fuera las necesidades de las PYMEs.
[3] Emerald (Omol, Mburu & Abuonji), «Digital Maturity Assessment Model (DMAM)», Digital Transformation and Society, 2025. Advierte que la ausencia de un modelo universalmente reconocido para PYMEs podría agravar la brecha digital y amenazar su competitividad.
[4] ScienceDirect, «A digital maturity model for assessing SMEs in the manufacturing sector», 2025. Identifica limitaciones críticas en los modelos existentes: escasa participación de profesionales, falta de integración y ausencia de resultados accionables.
[5] PMC / National Institutes of Health, «How to Measure Digitalization? A Critical Evaluation of Digital Maturity Models», 2020. Evaluación de 17 modelos que concluye que la mayoría no cumplen criterios académicos de validez y que los autores rara vez revelan la motivación detrás de sus procedimientos.
[6] UK SME Digital Adoption Taskforce, Final Report, julio 2025. La brecha de productividad del Reino Unido está directamente vinculada a la «larga cola» de PYMEs digitalmente inmaduras.
[7] Gartner, febrero 2025. «Organizations will abandon 60% of AI projects unsupported by AI-ready data.»
[8] McKinsey & Company, «The State of AI: Global Survey», 2025. El 88% usan IA; solo el 39% con impacto real en EBIT.
[9] MIT Project NANDA, «The GenAI Divide: State of AI in Business 2025», julio 2025. El 95% de los pilotos de IA empresarial no generan retorno mesurable.
[10] DCMM v1.0 — Devantia Composite Maturity Model. DOI: 10.5281/zenodo.18816737. Publicado en Zenodo (CERN) bajo licencia CC BY 4.0.