Análisis de supervivencia: el aliado perfecto para la toma de decisiones en la industria 4.0

Análisis de supervivencia: el aliado perfecto para la toma de decisiones en la industria 4.0

 

Hace unas semanas os hablamos de nuestra participación en la tercera edición del European R Users Meeting (eRum 2018), una conferencia internacional que tiene como objetivo la transferencia de conocimiento y el encuentro entre usuarios profesionales del entorno de software libre y lenguaje de programación R[1], enfocado al análisis estadístico. Allí, nuestro trabajo Finding groups in time-to-event data by means of the clustcurv package, que permite agrupar curvas de supervivencia mediante técnicas de clustering o agrupación de manera automática, resultó galardonado con uno de los premios del congreso. El objetivo de este proyecto era configurar una herramienta útil para la toma de decisiones en las organizaciones que trabajan con un gran volumen de datos, como las pertenecientes a la Industria 4.0 o al sector de la banca.

A lo largo de este post hablaremos de las técnicas de clustering y de cómo aprovechar toda la información que pueden proporcionar para la toma de decisiones en cualquier proceso de negocio y para cualquier sector.

Curvas de supervivencia, análisis de tiempos y censoring

Conocer el tiempo de vida de un paciente tras el diagnóstico de una enfermedad, comparar diferentes tratamientos médicos para averiguar cuál produce una mayor tasa de supervivencia o identificar los factores de riesgo de una enfermedad son algunas de las cuestiones que llevaron al desarrollo de nuevas técnicas estadísticas conocidas bajo el nombre genérico de análisis de supervivencia, por su aplicación en el campo de la medicina.

En la actualidad, su uso se ha extendido a otros campos como el de la economía, la educación, la biología o la industria. Por ejemplo, para una entidad bancaria es de gran interés conocer el tiempo que pasa hasta que se produce el impago de un crédito o determinar el tiempo de vida de sus clientes y si este tiempo es similar para todas las regiones de un país. En el ámbito educativo, y debido al aumento del fracaso escolar en menores, es determinante conocer en qué momento un estudiante decide abandonar sus estudios y qué factores influyen en esta decisión. Para una empresa que incorpore un sistema de cadena de montaje en su producción, se podría determinar el tiempo de fallo de una pieza o el deterioro de un sistema para establecer los períodos de garantía de un producto o el diseño de planes de mantenimiento preventivo.

Sin importar el sector en el que se aplique, el análisis de supervivencia tiene como objetivo modelar el tiempo que transcurre hasta que ocurre un determinado evento o suceso (fallecimiento, enfermedad, impago de un crédito, fallo de un sistema, etc.), dando como resultado la estimación de curvas de supervivencia que nos permitirá sacar conclusiones. Su característica principal es que incorpora el fenómeno conocido como censura (censoring) que hace referencia a la presencia de observaciones con información incompleta (observaciones censuradas). Este fenómeno ocurre cuando tenemos información parcial sobre el tiempo hasta el evento porque no conocemos el momento exacto en el qué ocurrirá.

Pongamos el caso en el que se lleva a cabo un estudio piloto de seis meses de duración para analizar la efectividad de un nuevo método de producción de motores de barcos. Para ello es necesario medir el número de días que transcurren hasta que un motor falla. Durante estos seis meses observaremos motores que dejaron de funcionar, pero también es probable que algunos motores sigan funcionando al final del estudio. En estos casos, nos faltará información sobre la duración real de estos motores, sabemos cuántos días llevan funcionando pero no conocemos cuánto tiempo de vida útil les quedará. Para tratar este tipo de información incompleta se recurre al análisis de supervivencia.

Clustering, fundamental para la agrupación en machine learning

Dentro de las técnicas estadísticas o de machine learning es común hablar de aprendizaje supervisado y aprendizaje no supervisado.

Habitualmente, en el análisis de datos disponemos de una variable respuesta -u output si utilizamos el lenguaje de machine learning– que deseamos predecir en función de un conjunto de variables independientes o inputs. Es necesario recordar que la variable respuesta podría ser cuantitativa (como por ejemplo, el número de bytes enviados por un host) o cualitativa (como la etiqueta email o spam). Además, contaremos con un conjunto de datos de entrenamiento en los que observaremos tanto la variable respuesta como las distintas variables independientes en un conjunto de elementos (como los hosts dentro de una red o los correos electrónicos recibidos) y con toda esta información construiremos un modelo predictivo que nos permitirá conocer la variable respuesta para un elemento no visto.

El escenario previo describe lo que se conoce como aprendizaje supervisado y recibe este nombre porque la presencia de la variable respuesta guía o supervisa este aprendizaje. Por el contrario, en el aprendizaje no supervisado sólo observaremos las variables independientes y no tendremos registro alguno de la respuesta. En consecuencia nuestro objetivo en este contexto será describir cómo se organizan o agrupan los datos. Por este motivo, en este tipo de aprendizaje se usan mayoritariamente las técnicas de agrupamiento o clustering.  

Llegado a este punto, si en algún momento surge la necesidad de agrupar datos con la particularidad de que éstos hagan referencia a tiempos hasta un determinado evento, una posible solución a esta tarea se basa en el uso del algoritmo desarrollado e implementado en clustcurv. Este algoritmo de aprendizaje no supervisado permite la agrupación de curvas de supervivencia, dando como resultado tanto la asignación de cada curva a su grupo como el número de grupos existentes. Es importante resaltar que esta última característica es la principal innovación de la herramienta y una ventaja para la toma de decisiones, ya que hasta el momento la elección del número de grupos se hacía según el criterio individual del profesional.

clustcurv, algoritmo inédito para la toma de decisiones

Supongamos que tenemos un modelo general de $\LARGE J$ muestras con censura aleatoria donde las observaciones provienen de $\LARGE n_j$ individuos de la población $\LARGE j(j=1, \ldots, n)$. Denotamos $\LARGE n = \sum_{j=1}^{J} n_j$ y asumimos que las observaciones de los $\LARGE n$ individuos son mutuamente independientes. Sea $\LARGE T_{ij}$ un tiempo al evento correspondiente a un evento medido desde el principio del estudio del $\LARGE i$-ésimo sujeto $\LARGE (i= 1, \ldots, n_j)$ en la muestra $\LARGE j$ y asumiendo que $\LARGE T_{ij}$ es observado sujeto a una variable aleatoria de censura (univariante) por la derecha $\LARGE C_{ij}$ que se asume independiente de $\LARGE T_{ij}$. Debido a la censura, en lugar de $\LARGE T_{ij}$, observamos $\LARGE (\tilde T_{ij}, \Delta_{ij})$ donde  $\LARGE \tilde T_{ij}=\min(T_{ij}, C_{ij}), \Delta_{ij} = I(T_{ij} \le C_{ij})$ e $\LARGE I(\cdot)$ es la función indicadora.

De manera general, el procedimiento propuesto por Villanueva, Sestelo y Meira-Machado en Statistics in Medicine[2]nos permitirá determinar grupos de curvas de supervivencia. Formalmente esto sería, comprobar si los $\LARGE 1, \ldots, J$ niveles pueden ser agrupados en $\LARGE K$ grupos $\LARGE (G_1, \ldots, G_K)$ con $\LARGE K < J$, tal que $\LARGE S_i = S_j$ para todo $\LARGE i, j \in G_k$, para todo $\LARGE k=1, \ldots, K$. Brevemente, los pasos de este algoritmo son los siguientes:

  1. Se estiman las curvas de supervivencia $\LARGE S_j(t) = P(T_j > t)$. Éstas pueden ser consistentemente estimadas usando el  estimador no paramétrico Kaplan-Meier[3] con base en $\LARGE (\tilde T_j, \Delta_j)$. El estimador Kaplan-Meier, también conocido como el estimador del producto límite, es el método más frecuentemente utilizado para estimar supervivencia en presencia de censura. Siendo $\LARGE t_1 < t_2 < \ldots < t_{m_j}, m_j\le n_j$ los distintos tiempos de fallo ordenados de la población $\LARGE j (j = 1, \ldots, J)$ y $\LARGE d_u$ el número de eventos de la población $\LARGE j$ en tiempo $\LARGE t_u$, el estimador Kaplan-Meier de la función de supervivencia (para la población $\LARGE j$) se define como$$\LARGE \widehat S_j(t) = \prod_{u:t_u\leq t} \left(1-\frac{d_u}{R_j(t_u)}\right)$$donde $\LARGE R_j(t) = \sum_{i=1}^{n_j} I(\tilde T_{ij} \le t)$ denota el número de individuos en riesgo justo antes del tiempo $\LARGE t$.
  2. Dado un número de grupos $\LARGE K$, se utiliza el algoritmo k-means[4] con base en la distancia $\LARGE L_2$ o el k-medians[5] con base en la $\LARGE L_1$ sobre las estimaciones anteriores para obtener la “mejor” partición $\LARGE (G_1, \ldots, G_K)$.
  3. A continuación, mediante un procedimiento basado en bootstrap[6],[7], se contrasta la hipótesis nula $\LARGE H_0(K)$ de que existen $\LARGE K$ grupos de curvas.
  4. Se repiten los pasos 2 y 3 desde $\LARGE K=1$ hacia delante hasta que una cierta hipótesis nula sea aceptada. Así, el número $\LARGE K$ de grupos será determinado.

Esta metodología está actualmente implementada en un paquete de R (clustcurv), disponible como software libre a disposición de todo aquel que lo necesite (comunidad científica, otras organizaciones, empresas, etc.).

Cómo aplicar este algoritmo: un caso real

Para ilustrar el funcionamiento de la metodología desarrollada se muestra un pequeño ejemplo utilizando datos reales de pacientes con cáncer de colon[8]Para hacernos una idea del tipo de datos disponibles, se muestra un ejemplo en la Figura 1 en la que se representan cuatro individuos que forman parte de un estudio médico, a los que se les realizó un seguimiento hasta la finalización del mismo o hasta el momento en que tuvo lugar el fallecimiento (evento). Se puede observar cómo dos de los individuos fallecen antes de que acabe el estudio, mientras que en los otros casos el evento no ha tenido lugar. Es por este motivo que los datos se denominan “censurados” ya que proporcionan información parcial, es decir, sabemos que estos individuos han sobrevivido a la duración del estudio pero desconocemos cuántos días de vida les quedan.

Figura 1. Ilustración de la censura

La base de datos consta de información recogida de 929 sujetos que fueron operados para  eliminar cualquier resto de tumor. El conjunto de datos está disponible como parte del paquete de R condSURV[9],[10]. De los 929 sujetos, 452 fallecieron transcurrido un tiempo después de la operación, por lo que tendremos observaciones completas y otras observaciones censuradas con información parcial sobre sus tiempos de vida.

A través de la herramienta propuesta se puede llevar a cabo el análisis de datos.

En la salida del código anterior, se observa –para cada paciente– la variable time (tiempo  en días hasta el fallecimiento desde la entrada en el estudio), la variable status que es un indicador del estado vital al final del estudio (censurado o no), y una covariable nodes que  indica el número de nodos linfáticos detectados con cáncer (agrupados de 1 a $\LARGE \ge$ 10).

Las curvas de supervivencia estimadas después de dividir los datos teniendo en cuenta el número de nodos se representan en la Figura 2. Cada una de las curvas muestra la probabilidad de que una persona con $\LARGE 1, \ldots, \le 10$ nodos sobreviva a tiempo $\LARGE t$.

Figura 2. Curvas de supervivencia estimadas para cada uno de los niveles de la variable nodes utilizando el estimador Kaplan-Meier

Cuando nos encontramos con un conjunto de datos como estos, con una variable categórica con un número elevado de niveles, quizás una buena aproximación sea la de establecer grupos con el mismo riesgo o probabilidad de supervivencia. Para llevar a cabo esta tarea, la única opción hasta el momento es aplicar primero un test tipo Log-rank[11] donde la hipótesis nula que se contrasta es la igualdad de curvas de supervivencia, y si el test resulta estadisticamente significativo, hacer un análisis post hoc de comparaciones por pares. El código y los p-valores obtenidos después de aplicar dicho test y las comparaciones dos a dos se muestran a continuación:

Teniendo en cuenta estas salidas numéricas, la interpretación parece no ser inmediata, por lo que la toma de decisiones por parte del usuario final o el médico resulta bastante compleja. Llegado a este punto, lo más fácil es aplicar el algoritmo propuesto. Para un nivel de significación de 0.05, la hipótesis nula $\LARGE H_0(1)$ es rechazada (p-valor < 0.01) mientras que la hipótesis nula $\LARGE H_0(2)$ es aceptada (p-valor de 0.18).

La asignación de las curvas a los dos grupos resultantes puede observarse en la Figura 3. Es importante destacar que tener cinco o más nodos linfáticos con presencia de cáncer parece estar relacionado con una menor supervivencia que tener cuatro o menos (grupo 1: $\LARGE \le$4 nodos, grupo 2: $\LARGE >$4 nodos).

Figura 3. Curvas de supervivencia estimadas para cada uno de los niveles de la variable “nodos”. Un color específico se asigna a cada curva de acuerdo al grupo al que pertenece (en este caso dos grupos, $\LARGE K = 2$)

Otros ejemplos dentro del análisis de supervivencia aplicado en este caso al sector financiero pueden consultarse en el libro A short course on Survival Analysis applied to the Financial Industry, publicado por Marta Sestelo en 2017[12].

 

 

Referencias

[1] R Core Team (2018). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. URL:  http://www.R-project.org/.

[2] Villanueva, N.M., Sestelo, M. and Meira-Machado, L. (TBA). A Method for Determining Groups in Multiple Survival Curves. Statistics in Medicine.

[3] Kaplan, E.L., and Meier, P. (1958). Nonparametric Estimation from Incomplete Observations. Journal of the American Statistical Association, 53: 457–81.

[4] Macqueen, J.B. (1967). Some methods of classification and analysis of multivariate observations. Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, University of California Press, 281-297.

[5] Kaufman, L. and Rousseeuw, P. J. (1990). Finding Groups in Data: An Introduction to Cluster Analysis. John Wiley.

[6] Efron, B. (1979). Bootstrap methods: another look at the jackknife. The Annals of Statistics, 7: 1-26.

[7] Efron, B. (1981). Censored Data and the Bootstrap. Journal of the American Statistical Association, 76(374): 312-319.

[8] Moertel, C.G., Fleming, T.R., Macdonald, J.S., Haller, D.G., Laurie, J.A., Goodman, P.J., Ungerleider, J.S., Emerson, W.A., Tormey, D.C., Glick, J.H. et al. (1990). Levamisole and fluorouracil for adjuvant therapy of resected colon carcinoma. New England Journal of Medicine, 322(6): 352–358.

[9] Meira-Machado, L., Sestelo, M. (2016). condSURV: Estimation of the Conditional Survival Function for Ordered Multivariate Failure Time Data. R package,  version 2.0.1.

[10] Meira-Machado, L. and Sestelo, M. (2016). condSURV: An R Package for the Estimation of the Conditional Survival Function for Ordered Multivariate Failure Time Data. The R Journal, 8(2): 460-473.

[11] Mantel, N. (1966). Evaluation of survival data and two new rank order statistics arising in its consideration. Cancer Chemotherapy Reports, 50(3): 163–170.

[12] Sestelo, M (2017). A short course on Survival Analysis applied to the Financial Industry. BBVA Data & Analytics, Madrid. https://bookdown.org/sestelo/sa_financial/

 

 


Autoras: Nora M. Villanueva, investigadora y desarrolladora senior del área de Servicios y Aplicaciones y Marta Sestelo, investigadora y desarrolladora senior en el área de Sistemas Inteligentes en Red (INetS) de Gradiant