Revista de Matema´tica: Teor´ıa y Aplicaciones 4(1): 51–60 (1997) ana´lisis de tablas mu´ltiples con individuos cambiantes y variables fijas William Castillo Elizondo1 – Jorge Gonza´lez Varela1 Resumen En este art´ıculo se presenta el me´todo Statis cuando se observan las mismas vari- ables en todos los instantes considerados, con individuos posiblemente cambiantes. Se demuestran varias propiedades de la interestructura y del compromiso que justifi- can eventuales interpretaciones bidimensionales de los datos. Dichas propiedades son tambie´n u´tiles para hacer una implementacin computacional. Palabras clave: Statis dual, interestructura, compromiso, intraestructura, imagen eu- cl´ıdea. 1. Introduccio´n. El me´todo Statis (Ana´lisis Estad´ıstico de Tres Indices) se ubica dentro de las te´cni- cas exploratorias de ana´lisis multivariado de datos, comu´nmente usados en el estudio simulta´neo de varias matrices de datos obtenidas de diferentes observaciones de un mismo feno´meno. Suponemos que se tienen X1, . . . ,XK tablas centradas de individuos por variables que corresponden a K mediciones de un mismo feno´meno. Si adema´s disponemos de las matrices Mk y Dk necesarias para medir distancia entre individuos y las covarianzas entre las variables respectivamente; entonces las K-tablas definen K-configuraciones del tipo Wk = XkMkXtk o Vk = X t kDkXk. El me´todo Statis analiza la evolucio´n del feno´meno en estudio comparando estas con- figuraciones, los Wk, en caso de que los individuos hayan permanecido invariantes en las K-mediciones, o bien los Vk si se han medido las mismas variables en los K-instantes. La primera de estas situaciones (individuos fijos) se encuentra desarrollada tanto en los aspectos teo´ricos como computacionales en, por ejemplo, [2], [3] y [4]. Nuestro propo´sito es abordar ahora el segundo caso, esto es las mismas variables en las K mediciones con individuos posiblemente diferentes al pasar de una tabla a otra. Este me´todo es conocido 1Programa de Investigaciones en Modelos y Ana´lisis de Datos (PIMAD), Centro de In- vestigaciones en Matema´ticas Puras y Aplicadas (CIMPA), Escuela de Matema´tica, Uni- versidad de Costa Rica, 2060 San Jose´, Costa Rica. E-mail: wcastill@cariari.ucr.ac.cr, jgonza- le@cariari.ucr.ac.cr 51 52 w. castillo – j. gonza´lez con el nombre de Statis Dual. En la literatura especializada ([2], [4] y [8]) no se desarrolla el Statis Dual sino que se menciona u´nicamente su posible utilizacio´n, pese a que en la realidad nos encontramos con muchos casos donde la naturaleza de los problemas sugiere el uso del Statis Dual. Podr´ıa citarse a modo de ejemplo el estudio evolutivo de empresas en circunstancias en que unas desaparecen y otras nacen. Independientemente de cua´les sean las configuraciones a comparar, el me´todo Statis consta de tres etapas: 1. Interestructura: Calculando, con la me´trica de Hilbert-Schmidt, las distancias en- tre las K configuraciones, obtenemos informacio´n sobre las diferencias y semejanzas entre ellas. Una representacio´n plana o´ptima de las mismas sirve de ayuda a este propo´sito. 2. El Compromiso: Consiste en calcular una configuracio´n llamada compromiso que es representativa de las K configuraciones y cuyo papel es definir un escenario para la representacio´n de las trayectorias de los individuos y las variables. 3. Intraestructura: Es la etapa en la cual analizamos la trayectoria de un individuo particular o una variable, a trave´s de las K observaciones. Para hacer posible el uso de este me´todo es necesario desarrollar sus propiedades matema´ticas u´tiles tanto para su implementacio´n computacional como para una adecuada interpretacio´n del ana´lisis de los datos. El contenido de este art´ıculo esta´ orientado a la satisfaccio´n de esta necesidad. 2. Statis: las mismas variables en los K instantes. Se supone que esta´n dados K tripletes (Xk,M,Dk); k = 1, . . . ,K donde Xk es la matriz de datos nk× p generada a partir de la medicio´n de p variables cuantitativas sobre nk individuos, en la ocasio´n k-e´sima. En adelante se supondra´ que cada Xk es centrada usando los pesos de la correspondiente matriz diagonal Dk,y que M es la me´trica eucl´ıdea en el espacio de los individuos ( Rp). Considerando la matriz de varianza-covarianza Vk = XtkDkXk representativa del triplete (Xk,M,Dk) e introduciendo la me´trica de Hilbert-Schmidt, se logra construir representaciones bidimensionales o´ptimas de los oper- adores Vk. 2.1. Aproximacio´n o´ptima de matrices En esta subseccio´n se presentan los resultados matema´ticos a partir de los cuales se deduce la optimalidad de las ima´genes eucl´ıdeas aproximadas que se construyen en Statis. Hemos notado que normalmente las demostraciones matema´ticas de los resultados sobre optimalidad que se incluyen en esta subseccio´n, dependen de un instrumental matema´tico dif´ıcil de introducir en pocas l´ıneas([4] y [5]). Sin embargo es posible una presentacio´n, incluidas las pruebas matema´ticas, breve y relativamente sencilla como la que se hace a continuacio´n. el me´todo statis dual 53 Definicio´n: Sean (Rp,M) y (Rn, N) espacios eucl´ıdeos, el producto escalar de Hilbert Schmidt se define como 〈X,Y 〉M,N = tr ( XtNYM ) para todas las matrices X,Y de taman˜o n× p. Teorema 1 Sea X de rango mayor o igual que q. Una solucio´n del problema min { ‖X − Y ‖2M , N | rango de Y = ρ (Y ) = q } es XMHHt con H = [v1 . . . vq] , v1 . . . vq vectores propios M− ortonormados de XtNXM. Prueba: Es claro que expresando M = Lt1L1 y N = L t 2L2 se tiene 〈X,Y 〉M,N = 〈 L2XL t 1, L2Y L t 1 〉 Ip,In y ‖X − Y ‖M,N = ∥∥L2XLt1 − L2Y Lt1∥∥Ip,In . Sean x1, . . . , xn las filas de la matriz L2XLt1. Se sabe que min {∥∥L2XLt1 − L2Y Lt1∥∥2Ip,In | ρ (Y ) = q} = ∥∥L2XLt1 − L2XLt1UU t∥∥2Ip,In = n∑ i=1 ‖xi‖2 − q∑ k=1 utk ( L2XL t 1 )t L2XL t 1uk con U = [u1 . . . uq] , u1, . . . , uq vectores propios Ip - ortonormados de L1XtNXLt1 asociados a λ1 ≥ · · · ≥ λq > 0 [7]. Sea uj = L1vj , entonces se deduce que v1, . . . , vq son vectores propiosM - ortonormados de XtNXM asociados a λ1 ≥ · · · ≥ λq > 0. Por otra parte, como L1H = U entonces L2XLt1UU t = L2XMHHtLt1 de donde∥∥L2XLt1 − L2XLt1UU t∥∥Ip,In = ∥∥X −XMHHt∥∥M,N . Corolario 1 1. min { ‖X − Y ‖2M,N | ρ (Y ) ≤ q } = min { ‖X − Y ‖2M,N | ρ (Y ) = q } . 2. Sea M = N y X sime´trica. Entonces min { ‖X − Y ‖2M,M | ρ (Y ) = q } se alcanza en XMHHt = ∑q j=1 λjvjv t j donde v1 . . . vq son vectores propios M - ortonormados de XM asociados a λ1 ≥ · · · ≥ λq > 0. 3. min { ‖X − Y ‖2M,M | ρ (Y ) = q } = ∑r j=q+1 λ 2 j con r = ρ (X) . Prueba: 1. Sea Y de rango q1 ≤ q y x1, . . . , xn las filas de L2XLt1; entonces ‖X − Y ‖2M,N ≥ min { ‖X − Z‖2M,N | ρ (Z) = q1 } = ∑n i=1 ‖xi‖2 − ∑q1 k=1 u t k ( L2XL t 1 )t L2XL t 1uk ≥ ∑ni=1 ‖xi‖2 −∑qk=1 utk (L2XLt1)t L2XLt1uk = min { ‖X − Z‖2M,N | ρ (Z) = q } 54 w. castillo – j. gonza´lez 2. XtNXM = XMXM. Sean v1, . . . , vq vectores propios M - ortonormados de XM asociados a λ1 ≥ · · · ≥ λq > 0, luego tambie´n lo son de XMXM asociados a λ21 ≥ · · · ≥ λ2q > 0. Por lo tanto XMHHt = HDλHt = ∑q j=1 λjvjv t j . 3. Se sabe que X = ∑r j=1 λjvjv t j entonces X − XMHHt = ∑r j=q+1 λjvjv t j. Ahora, como 〈 viv t i , vjv t j 〉 M,M = δij se deduce que ∥∥X −XMHHt∥∥2 =∑rj=q+1 λ2j . 2.2. Interestructura 2.2.1. Construccio´n de una imagen eucl´ıdea La me´trica de Hilbert-Schmidt para el caso de los operadores Vk se define y denota por: 〈Vl, Vk〉 = traza (VkMVlM) Sea Π = diag (pk)K×K la matriz diagonal de los pesos dados a los operadores {V1, ..., VK}. La imagen eucl´ıdea de los operadores Vk con pesos Π se obtiene diagonalizando la matriz Π- sime´trica SΠ; donde Sij = 〈Vi, Vj〉. Sean u1, . . . , ur los vectores propios Π− ortonorma- dos, de SΠ, asociados a los valores propios λ1 ≥ · · · ≥ λr > 0. La matriz S se expresa como S = ∑r l=1 λlulu t l = Ur∆λ (r)U t r donde Ur = [u1, · · · , ur]K×r y ∆λ (r) = diag(λl). Entonces S = (Ur∆√λ (r))(Ur∆√λ (r)) t y las filas de la matriz Ur∆√λ (r) constituyen la imagen eucl´ıdea buscada, puesto que 〈Vi, Vj〉 = Sij = (ui1 √ λ1 · · · uir √ λr) · (uj1 √ λ1 · · · ujr √ λr). 2.2.2. Representacio´n bidimensional de la interestructura Las representaciones bidimensionales de los Vk en tanto que representantes de los tripletes (Xk,M,Dk), se hacen por medio de las filas de Ur∆√λ (r), tomando solamente los dos primeros vectores propios. Esta, representacio´n es o´ptima: ‖S − S(h)‖ = mı´n {‖S −B‖ B es de rango ≤ h} donde S(h) = ∑h l=1 λlulu t l con h ≤ r. La representacio´n bidimensional se obtiene dibujando en un sistema ortogonal, en el plano, los puntos cuyas coordenadas son las filas de U2∆√λ (2) . La distancia entre dos puntos Ai y Aj ( filas i y j de U2∆√λ (2) ) es la que mejor aproxima la distancia del producto escalar Hilbert-Schmidt entre Vi y Vj que en este caso se define como 〈A,B〉 = tr ( AtΠBΠ ) . Se tiene la siguiente aproximacio´n: ‖Ai −Aj‖2 = ‖Ai‖2 + ‖Aj‖2 − 2 ·Ai ·Aj ∼= ‖Vi‖2 + ‖Vj‖2 − 2 〈Vi, Vj〉 = ‖Vi − Vj‖2 . El error en que se incurre por esta aproximacio´n es cuantificado por ∑r l=3 λ 2 l . En efecto: ‖S − S(2)‖2 = ∥∥∑rl=3 λlulutl∥∥2 =∑rl=3 ∥∥λlulutl∥∥2 =∑rl=3 λ2l puesto que 〈ulutl , usuts〉 = δls. el me´todo statis dual 55 2.2.3. Interpretacio´n de la interestructura Se desarrollan algunos resultados que ayudan a comprender el significado de las prox- imidades entre los operadores Vk. Relacio´n entre distancias y correlaciones: Si las tablas Xk son centradas y reduci- das, entonces Vk = Rk es la matriz de correlaciones de las columnas de la tabla Xk. Es claro que2, si M = I, ‖Rk‖2 = ∑p j=1 ‖Rk (j)‖2 = ∑p i=1 ∑p s=1 [ cor ( xik, x s k )]2 donde Rk (j) es la fila j de Rk. En consecuencia d2 (Rk, Rl) = p∑ i=1 p∑ s=1 [ cor ( xik, x s k )− cor (xil, xsl )]2 . Observaciones: 1. De lo anterior se concluye que la proximidad entre puntos observada en el plano de la interestructura se interpreta como estabilidad en la estructura de correlaciones para las mediciones efectuadas en las ocasiones k y l. 2. Si en la fo´rmula de d2 (Rk, Rl) sustituimos Rl por αRk, tenemos: d2 (Rk, αRk) = ( α2 − 1) ‖Rk‖2 = (α2 − 1) p∑ i=1 p∑ s=1 [ cor ( xik, x s k )]2 . Por lo tanto la comparacio´n entre dos puntos homote´ticos (αRk = Rl) , depende de la magnitud de las correlaciones y de α2 − 1. 3. En caso que las matrices Xk no sean reducidas, se tiene ‖Vk‖2 = 〈Vk, Vk〉 = p∑ i=1 p∑ s=1 [ cor ( xik, x s k )]2 var ( xik ) var (xsk) . As´ı entonces, cuando hay estabilidad de las correlaciones entre dos ‘instantes’ k y l (k < l) y las normas ‖Vk‖ y ‖Vl‖ son muy diferentes, se ha producido un aumento o una disminucio´n en las varianzas de las variables de un instante al otro. Dependiendo de la naturaleza del problema analizado, puede ser interesante identificar los factores responsables de dichas variaciones. Otras propiedades Supongamos que VlM = VrM entonces : 1. Los ACP de los tripletes (Xl,M,Dl) y (Xr,M,Dr), tienen los mismos vectores y valores propios y, las componentes principales, en ambos casos, son combinaciones lineales con los mismos pesos, de las mismas variables observadas en los instantes k y l. Es decir, tienen la misma interpretacio´n. 2Si M 6= I, se expresa M as´ı: M = LtL y el problema se reduce al presente caso, puesto que 〈Vk, Vl〉M,M = 〈 LVkL t, LVlL t 〉 Ip,Ip (ver la prueba del teorema 1). 56 w. castillo – j. gonza´lez 2. Si las matrices Xi son reducidas entonces las correlaciones de las variables con las componentes son iguales en ambos casos. Prueba: 1. Sea Cl la matriz cuyas columnas son las componentes principales Dl - ortonor- madas del ACP de (Xl,M,Dl), U la matriz cuyas columnas son los vectores propios M−ortonormados de VlM y ∆λ la matriz diagonal de los valores propios correspon- dientes. Se sabe que Cl = XlMU∆ 1√ λ . Entonces cjl = 1√ λj XlMuj y c j r = 1√ λj XrMuj son las componentes principales j - e´simas de los ACP’s de los tripletes (Xl,M,Dl) y (Xr,M,Dr) respectivamente. 2. Las correlaciones de las variables con las componentes son XtlDlCl = X t lDlXlMU∆ 1√ λ = VlMU∆ 1√ λ = VrMU∆ 1√ λ = XtrDrCr. Observacio´n: En el caso VlM = αVrM , entonces ∆lλ = α∆ r λ donde ∆ l λ es la matriz diagonal de los valores propios del ACP del triplete (Xl,M,Dl). Adema´s, las correlaciones de las variables definidas por Xl con las componentes, son: XtlDlCl = U∆l( √ λ)XtrDrCr = U∆r( √ λ) = 1√ α U∆l( √ λ) = 1√ α XlDlCl. Por lo tanto hay proporcionalidad en la estructura de correlaciones. 3. El compromiso Suponemos que las matrices Xk son centradas y reducidas, por lo que las configura- ciones a estudiar son las matrices de correlaciones. Definiendo el compromiso como: R = K∑ i=1 βiRi. donde β es vector propio de ΠS asociado al mayor valor propio λ1, ∑k i=1 βi = 1 con βi ≥ 0 y ‖Ri‖ = 1,se prueba que R verifica las siguientes propiedades: 1. R es el objeto ma´s correlacionado con los Ri, en el sentido que R es el que maximiza el promedio del cuadrado de las correlaciones de R con los Ri. Es decir, R maximiza el cociente ∑K i=1 pi 〈∑K j=1 αjRj, Ri 〉2 ∥∥∥∑Kj=1 αjRj∥∥∥2 al variar α ∈ R K el me´todo statis dual 57 2. Si Xt = ( Xt1,X t 2, . . . ,X t K ) p×n con n = ∑K k=1 nk y Dβ = diag(βjDj)n×n entonces R = XtDβX. Adema´s las variables definidas por las columnas de X son centradas y reducidas respecto a Dβ, por lo que podemos interpretar el compromiso como una matriz de correlaciones. 3. corDβ (x s, xl) = ∑K k=1 βk corDk(x s k, x l k) donde x s, xl son las variables de la matriz X (columnas s-e´sima, l-e´sima de X) y xsk, x l k son las correspondientes variables de la matriz Xk (columnas s-e´sima y l-e´sima de Xk). Puede notarse que la Dβ – correlacio´n entre dos variables de X es el promedio de las Dk-correlaciones entre las correspondientes variables de Xk. 4. Si todos los Ri son iguales entonces βi = pi para todo i. 5. Si algu´n Ri es muy diferente a los dema´s (〈Ri, Rj〉 = 0 , para todo j 6= i), e´ste no participa del compromiso (βi = 0). 6. Si elegimos todos los pesos de los Ri iguales, esto es Π = 1K IK , entonces los mayores βk corresponden a los Rk que en promedio correlacionan ma´s con el resto de los Ri . Podemos afirmar de estas propiedades que el compromiso rescata lo que es comu´n a las diferentes configuraciones y descarta las diferencias. Prueba: 1. Desarrollando el numerador tenemos: K∑ i=1 pi 〈 K∑ j=1 αjRj, Ri 〉2 = K∑ i=1 pi( K∑ j=1 αj 〈Rj , Ri〉)2 = K∑ i=1 pi( K∑ j=1 αjSij)2 = ‖Sα‖2Π = αtS(ΠSα) = 〈ΠSα, α〉S Por otra parte, el denominador se escribe como: ‖R‖2 = 〈 K∑ j=1 αjRj , K∑ i=1 αiRi 〉 = K∑ j=1 K∑ i=1 αjαiSij = ‖α‖2S . Luego ∑K i=1 pi 〈∑K j=1 αjRj , Ri 〉2 ‖R‖2 = 〈ΠSα, αβ〉s ‖α‖2s es un cociente de Rayleigh, por lo que alcanza su ma´ximo cuando α = β es un vector propio de ΠS, asociado al mayor valor propio λ1[4]. Por el teorema de Frobenius [1], el vector β se puede elegir con todas sus entradas no negativas. 58 w. castillo – j. gonza´lez 2. Como las variables definidas por las matrices Xk son centradas y reducidas respecto de Dk = diag(dki)p×p se tiene: ‖xsk‖Dk = 1 y xsk = nk∑ i=1 xskidki = 0 para cada k. Luego se sigue que la varianza y la media de la variable xsdefinida por la columna s de la matriz X son: ‖xs‖2Dβ = K∑ k=1 nk∑ i=1 βk (xski) 2 dki = K∑ k=1 βk nk∑ i=1 ‖xski‖2Dk = K∑ k=1 βk = 1. xs = K∑ k=1 nk∑ i=1 βkx s kidki = K∑ k=1 βk nk∑ i=1 xskidki = 0 3. corDβ (x l, xs) = ∑K k=1 ∑nk i=1 βkx l kix s kidki = ∑K k=1 βkcorDk(x l k, x J k ). 4. Si Ri = Rj para todo i, j, entonces como ‖Ri‖ = 1, entonces Sij = 1 y ΠS =  p1 . . . p1... ... ... pK . . . pK  Adema´s como el rango de ΠS es 1, βt = (p1, . . . , pK) es un vector propio de ΠS asociado al valor propio λ1 = 1. 5. Si Rt es ortogonal con todos los dema´s Ri la matriz ΠS tiene la t-e´sima fila nula y el vector propio β tiene su entrada βt = 0 por lo que Rt no forma parte del compromiso. 6. Como ΠSβ = λ1β y los pesos son iguales se tiene Π = 1K IK y 1 K ∑K i=1 Skiβi = λ1βk. Luego 1λ1K ∑K i=1 cor(Rk,Ri) = βk 4. Intraestructura El estudio de la intraestructura involucra la representacio´n bidimensional de las trayec- torias (por alusio´n al tiempo) de las variables y, eventualmente, de los individuos. Ello permite explicar las desviaciones entre tablas de datos observadas en la interestructura, por medio de las desviaciones individuales de las variables en las trayectorias. SeaXtβ = [√ β1X t 1 . . . √ βKX t K ] yD = diag (Dk)n×n . Si r es el rango deXβ y u1, . . . , ur son los vectores propios M -ortonormados del ACP de (X,M,Dβ), asociados a los valores propios λ1 ≥ . . . ≥ λr > 0, entonces el compromiso es R = XtDβX = XtβDXβ y los ui son vectores propios de RM . Se denotan con c1, . . . cr las componentes principales correspondientes, de este ACP. el me´todo statis dual 59 4.1. Representacio´n de las variables Se consideran representaciones de las variables definidas por las columnas de la tabla X (variables activas) y de las variables definidas por las columnas de las tablas Xk (variables suplementarias). 4.1.1. Variables activas Por definicio´n XtDβcs = 1√λsRMus, luego coordcs(x j)t = ( xj ) Dβcs = 1√ λs RjMus = K∑ k=1 βk√ λs Rk (j)Mus. donde Rj es la fila j de la matriz R. Esta representacio´n corresponde a una imagen eucl´ıdea o´ptima de rango q ≤ p, asociada a R. 4.1.2. Variables suplementarias Se identifica la variable xjk con la variable suplementaria (x˜ j k) t = [0..,0(xjk) t0..,0]1×n, cuya proyeccio´n ortogonal sobre cs es: coordcs(x˜ j k) = (x˜ j k) tDβcs = βk√ λs (xjk) tDkXkMus = βk√ λs Rk (j)Mus donde Rk (j) es la fila j de Rk. No´tese que las coordenadas de las variables observadas en el per´ıodo entero son iguales al promedio de las coordenadas de las variables correspondientes a cada instante, salvo por la constante K: coordcs(x j)t = K∑ k=1 coordcs(x˜ j k) 4.2. Representacio´n de los individuos La representacio´n de un individuo xi es la usual del ACP, es decir su coordenada en el eje uj es: coorduj (xi) = x t iMuj . xi = r∑ j=1 〈xi, uj〉M uj = r∑ j=1 ( xtiMuj ) uj . 4.3. Relacio´n entre la interestructura y las trayectorias de las variables Se trata de identificar las variables que explican las desviaciones observadas en la interestructura. Por la propiedad 6. del compromiso deducida en la seccio´n 3., se sabe los Rk mejor representados en el compromiso corresponden a los βk aproximadamente iguales y de mayor magnitud. Por lo tanto interesan fundamentalmente las cantidades ‖Rk −Rl‖2 60 w. castillo – j. gonza´lez donde βk y βl son grandes y βk ≈ βl. Sea M = I entonces ‖βkRk − βlRl‖2 ≈ b ‖Rk −Rl‖2 por lo que se establecera´ una relacio´n entre ‖Rk −Rl‖2 y las trayectorias de las variables. Por definicio´n ‖Rk −Rl‖2 = p∑ j=1 ‖Rk (j)−Rl (j)‖2 Pero Rk (j) = ∑p h=1 [Rk (j) uh]u t h donde u1, . . . , up es una base I− ortonormada de Rp, luego, ‖Rk −Rl‖2 = p∑ j=1 p∑ s=1 (Rk (j) us −Rl (j) us)2 ≈ p∑ j=1 r∑ s=1 λs ( coordcs(x˜ j k)− coordcs(x˜jl ) )2 . Se ve que mientras ma´s grande sea el desplazamiento de una variable j entre los instantes k y l, ma´s aporta esta variable a la distancia entre Rk y Rl. 5. Conclusio´n Las relaciones matema´ticas obtenidas permiten dar interpretaciones estad´ısticas en Statis Dual. As´ı por ejemplo, las distancias observadas en el primer plano de la intere- structura se pueden relacionar con las varianzas y correlaciones (seccio´n 2.2). En relacio´n con el compromiso se logro´ deducir su significado estad´ıstico, comproba´ndose que posee las propiedades que debe tener todo buen “promedio” (seccio´n 3). Por otra parte, las trayectorias de las variables se pueden relacionar con las distancias observadas entre los operadores Rk (seccio´n 4.3). Esto facilita en los ana´lisis de datos, la deteccio´n de las vari- ables que ma´s inciden en la magnitud de las distancias observadas en la representacio´n bidimensional de la interestructura. Finalmente, los resultados y fo´rmulas deducidos en este art´ıculo hacen posible una posterior implementacio´n computacional del me´todo, lo cual como se sabe, es indispensable en la o´ptica del ana´lisis de datos. Un art´ıculo en el cual se incluyen los algoritmos necesarios y un ejemplo con resultados nume´ricos esta´ en proceso de preparacio´n. Referencias [1] Acua, O.; Ulate, F. (1994) Matrices no Negativas. Editorial de la Universidad de Costa Rica, San Jos. [2] Glac¸on, F. (1981) Analyse Conjointe de Plusieurs Matrices de Donne´es.The`se de 3-e`me Cycle, Universite´ Scientifique et Me´dicale de Grenoble, Grenoble. [3] Gonza´lez, J.; Rodr´ıguez, O. (1995) “Algoritmo e implementacio´n del me´todo Statis”, IX Sim- posio Me´todos Matema´ticos Aplicados a las Ciencias, J. Trejos (ed.), UCR-ITCR, Turrialba. [4] Lavit, Ch. (1988) Analyse Conjointe de Tableaux Quantitatifs. Me´thode+Programmes. Masson, Paris. [5] Lavit, C.; Escoufier, Y.; Sabatier, R.; Traissac, P. (1994). “The ACT (Statis method)”, Com- putational Statistics & Data Analysis, North-Holland, 18, 97–119. el me´todo statis dual 61 [6] L’Hermier Des Plantes, H. (1976) Structuration des Tableaux a` Trois Indices de la Statistique. The`se de 3e`me Cycle, Montpelier. [7] Diday, E.; Lemaire, J.; Pouget, J.; Testu, F. (1982) E´le´ments d’Analyse de Donne´es. Dunod, Par´ıs. [8] Saporta, G.; Lavallard, F.; (1996). L’Analyse des Donne´es Evolutives: Me´thodes et Applications. Editions Technip, Par´ıs.