Revista de Matema´tica: Teor´ıa y Aplicaciones 2011 18(1) : 9–20 cimpa – ucr issn: 1409-2433 regresio´n pls y pca como solucio´n al problema de multicolinealidad en regresio´n mu´ltiple Jose´ Carlos Vega–Vilca∗ Josue´ Guzma´n† Received: 18 Feb 2010; Revised: 5 Aug 2010; Accepted: 14 Aug 2010 Resumen Se presentan y comparan las te´cnicas de regresio´n por compo- nentes principales y la regresio´n por componentes desde mı´nimos cuadrados parciales, como solucio´n al problema de multicolineali- dad en regresio´n mu´ltiple. Se ilustran las metodolog´ıas con ejemplos de aplicacio´n en la que se observa la superioridad de la te´cnica por mı´nimos cuadrados parciales. Palabras clave: ana´lisis de componentes principales, mı´nimos cuadrados parciales, reduccio´n de la dimensionalidad. Abstract We present and compare principal components regression and partial least squares regression, and their solution to the problem of multicollinearity. We illustrate the use of both techniques, and demonstrate the superiority of partial least squares. Keywords: principal components analysis, partial least squares, dimen- sionality reduction. Mathematics Subject Classification: 62H25, 62J02. ∗Instituto de Estad´ıstica, Universidad de Puerto Rico – Recinto de R´ıo Piedras, Puerto Rico. E-Mail: josecvega07@gmail.com †Programa Doctoral de Administracio´n de Empresas, Universidad del Turabo, Gurabo, Puerto Rico. E-Mail: jguzmanphd@gmail.com 9 10 j.c. vega – j. guzma´n 1 Introduccio´n En la construccio´n de un modelo de regresio´n lineal mu´ltiple se pueden presentar dos problemas: multicolinealidad y alta dimensionalidad de sus variables predictoras. En este trabajo se revisan dos metodolog´ıas relati- vamente similares y usadas en la solucio´n de estos problemas: Regresio´n por Mı´nimos Cuadrados Parciales (PLS, por sus siglas en ingle´s) y Re- gresio´n por Ana´lisis de Componentes Principales (PCA, por sus siglas en ingle´s). Ambos me´todos transforman las variables predictoras en com- ponentes ortogonales, los cuales representan la solucio´n al problema de multicolinealidad y permiten hacer una reduccio´n de la dimensionalidad del espacio de variables predictoras. Frank y Friedman (1993) [1] afirman que la regresio´n PLS es fuerte- mente promocionada y usada por especialistas en Quimiometr´ıa, pero des- conocido por estad´ısticos; mientras que regresio´n PCA es bastante conocido pero muy pocas veces recomendado por estad´ısticos. El objetivo del presente trabajo es difundir la teor´ıa y aplicacio´n de la regresio´n PLS, muy usada en un a´rea de la qu´ımica llamada Quimiometr´ıa, para que pueda ser aplicada en toda disciplina que trabaja con datos carac- terizados por muchas variables medidas sobre cada uno de pocos sujetos. 2 Multicolinealidad La multicolinealidad describe la dependencia lineal entre las variables pre- dictoras; es un problema que hace dif´ıcil cuantificar con precisio´n el efecto que cada variable predictora ejerce sobre la variable dependiente y puede ser determinada mediante el ca´lculo del Factor de Inflacio´n de Varianza (VIF, por sus siglas en ingle´s) y por el nu´mero condicio´n (η). El VIF es un indicador de multicolinealidad espec´ıfica de cada variable predictora del modelo. V IF j = 11−R2j para j = 1, 2, · · · , p; donde R2j es el coeficiente de determinacio´n de la regresio´n lineal de Xj respecto a las dema´s variables predictoras. Como regla general, si V IF j ≥ 10, entonces existe multicolinealidad. El nu´mero condicio´n es un indicador de multicolinealidad global de las predictoras del modelo. η = √ λmax λmin ; donde λmax y λmin son los autova- lores ma´ximo y mı´nimo de la matriz de correlaciones entre predictoras R. Tambie´n como regla general, si η ≥ 30, entonces existe multicolinealidad. Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 regresio´n pls y pca en el problema de multicolinealidad 11 3 Regresio´n por Ana´lisis de Componentes Principales (Regresio´n PCA) La regresio´n por componentes principales es un me´todo introducido por Massy (1965) [6] que aplica mı´nimos cuadrados sobre un conjunto de va- riables latentes llamadas componentes principales, obtenidas a partir de la matriz de correlacio´n. Sea X de orden n× p, la matriz de predictoras que al ser estandarizada por columnas origina la matriz X de orden n× p. La matriz de correlaciones entre predictoras esta´ dada por R = (n−1)−1X′X, de orden p× p. Usando descomposicio´n espectral de una matriz sime´trica se tiene que: R = ΓΛΓ′ (1) donde Γ = (γ1, · · · , γp) es una matriz ortogonal de orden p× p, cada γi es llamado autovector y tiene norma 1. La matriz Λ = diag(λ1, · · · , λp) es diagonal de orden p×p; los λi son llamados autovalores y λ1 ≥ · · · ≥ λp ≥ 0. Por ortogonalidad de la matriz Γ, la expresio´n (1) puede ser escrita como: Γ′RΓ = Λ (2) se puede verificar la siguiente equivalencia para i, j = 1, · · · , p γ′iRγj = { λi si i = j 0 si i 6= j. (3) La matriz de componentes principales C de orden n × p, es obtenida transformando la matriz X, de la siguiente manera: C = XΓ (4) = X(γ1, · · · , γp) = (Xγ1, · · · ,Xγp) Cada Xγi, para i = 1, · · · , p es llamada componente principal. De (3) se concluye que las componentes principales son ortogonales entre s´ı. 3.1 Fundamento del Ana´lisis de Componentes Principales La idea es maximizar la varianza del componente principal Xγ sujeto a que el autovector γ, satisfaga la restriccio´n de ortogonalidad: γ′γ = 1 var(Xγ) = γ′var(X)γ = γ′[(n− 1)−1X′X]γ = γ′Rγ. (5) Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 12 j.c. vega – j. guzma´n La funcio´n lagrangiana φ es usada para maximizar la varianza del com- ponente principal, sujeto a la restriccio´n de ortogonalidad del vector γ φ = γ′Rγ − λ(γ′γ − 1). (6) La maximizacio´n de φ determina al vector γ que maximiza la varianza del componente principal dada en la expresio´n (5). Derivando (6) con respecto a γ e igualando a cero, se tiene que: ∂φ ∂γ = 2Rγ − 2λγ = 0 ⇒ Rγ = λγ. (7) El cumplimiento de la igualdad de la expresio´n (7) implica que λ y γ son el autovalor y el autovector, respectivamente, de la matriz de correla- ciones R. La relacio´n entre λ y γ es un´ıvoca, es decir a cada autovalor le corresponde un autovector; esto es demostrado en Mardia et al. (1997) [5]. 4 Regresio´n por Mı´nimos Cuadrados Parciales (Regresio´n PLS) La regresio´n PLS, fue introducida por H. Wold (1975) [9], para ser aplicada en ciencias econo´micas y sociales. Sin embargo, gracias a las contribuciones de su hijo Svante Wold, ha ganado popularidad en Quimiometr´ıa, en donde se analizan datos que se caracterizan por muchas variables predictoras, con problemas de multicolinealidad, y pocas unidades experimentales (obser- vaciones o casos) en estudio. La idea motivadora de PLS fue heur´ıstica, por ello algunas de sus propiedades son todav´ıa desconocidas a pesar de los progresos alcanza- dos por Helland (1988) [3], Hoskulsson (1988) [4], Stone y Brooks (1990) [7] y otros. La metodolog´ıa PLS generaliza y combina caracter´ısticas del Ana´lisis de Componentes Principales y Ana´lisis de Regresio´n Mu´ltiple. La demanda por esta metodolog´ıa y la evidencia de que trabaja bien, van en aumento y as´ı, la metodolog´ıa PLS esta´ siendo aplicada en muchas ramas de la ciencia. En general, la regresio´n PLS consta de dos pasos fundamentales. Pri- mero, transforma a la matriz de predictoras X de orden n× p, con ayuda del vector de respuestas Y de orden n× 1, en una matriz de componentes o variables latentes no correlacionados, T=(T1, · · · ,Tp) de orden n × p, llamados componentes PLS; esto contrasta con el ana´lisis de componentes principales en el cual los componentes son obtenidos usando so´lo la matriz Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 regresio´n pls y pca en el problema de multicolinealidad 13 de predictorasX. Segundo, calcula el modelo de regresio´n estimado usando el vector de respuestas original y como predictoras, los componentes PLS. La reduccio´n de la dimensionalidad puede ser aplicada directamente sobre los componentes ya que estos son ortogonales. El nu´mero de compo- nentes necesarios para el ana´lisis de regresio´n debe ser mucho menor que el nu´mero de predictoras. 4.1 Algoritmo de la Regresio´n PLS El siguiente algoritmo es adaptado de Garthwaite (1994) [2] y Trygg (2001) [8]. La entrada de datos corresponde a la matriz de predictoras X(n× p) y el vector respuesta Y(n × 1), los cuales han sido estandarizadas por columnas. Algoritmo PLS 1. Entrada : X(0) , Y(0) 2. Para h = 1 hasta p 3. w = cov(Y,X) : normalizar w 4. Th = Xw 5. v = (T′hY)/(T ′ hTh) 6. b = (T′hX)/(T ′ hTh) 7. X(h) = X(h− 1)−Thb 8. Y(h) = Y(h− 1)−Thv 9. Pro´ximo h 4.1.1 Descripcio´n del algoritmo PLS La matriz de datos puede ser escrita como X = (X1, · · · ,Xp), donde X1, · · · ,Xp son las columnas de la matriz X. A continuacio´n se describen los principales pasos de este algoritmo. Paso 1 Son los datos iniciales, estandarizados por columnas. Paso 2 Se da inicio al ca´lculo del primer componente PLS Paso 3 Se calcula el vector w = (w1, · · · , wp)′; cada elemento wi es la covarianza de la variable respuesta con cada predictora. Finalmente w es normalizado a la unidad. Paso 4 Se calcula el componente PLS, Th = Xw = (X1, · · · ,Xp) · (w1, · · · , wp)′ Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 14 j.c. vega – j. guzma´n Paso 5 Se calcula el coeficiente de regresio´n simple de la variable respuesta sobre el vector componente PLS, calculado en el paso anterior. Paso 6 Se calcula el vector b = (b1, · · · , bp) ; cada elemento de este vector es el coeficiente de regresio´n simple de Xi sobre Th Paso 7 Se actualiza la matriz de predictoras. Paso 8 Se actualiza el vector de respuestas. Paso 9 Se calcula el pro´ximo componente PLS, a partir del Paso 3. 4.2 Fundamento del PLS La idea es maximizar el cuadrado de la covarianza entre el componente Th = Xw, y la variable respuesta Y, sujeto a w′w = 1. El componente Th esta´ definido como una combinacio´n lineal de las predictoras, tal que w 6= 0. Sea la matriz A de orden p×1, el vector de covarianzas de X e Y. El ana´lisis de regresio´n establece la dependencia de Y sobre las predictoras X, por lo que A 6= 0 [cov(Xw,Y)]2 = [w′cov(X,Y)]2 = [w′A]2 = w′AA′w. (8) La funcio´n lagrangiana φ usada para maximizar el cuadrado de la co- varianza entre el componente Th = Xw y la variable respuesta Y, sujeta a la restriccio´n de ortogonalidad del vector w, es: φ = w′AA′w− λ(w′w− 1). Derivando φ respecto de w, e igualando a cero, se tiene ∂φ ∂w = 2AA′w − 2λw = 0 ⇒ AA′w = λw. (9) La igualdad de la expresio´n (9) implica que λ y w son el autovalor y el autovector de la matriz AA′, respectivamente. Al multiplicar la expresio´n (9) por w′, desde la izquierda w′AA′w = λ. (10) Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 regresio´n pls y pca en el problema de multicolinealidad 15 Al multiplicar la expresio´n (9) por A′, desde la izquierda A′AA′w = λA′w (A′A− λ)A′w = 0 A′A− λ = 0 o´ A′w = 0. (11) De la expresio´n (11) A′w no puede ser cero, ya que se esta´ buscando maximizarla, entonces A′A− λ = 0 , de donde se obtiene la siguiente expresio´n λ = A′A = ‖A‖2. (12) De la expresio´n anterior λ2 = (A′A)(A′A) = λ‖A‖2, entonces: A′AA′A = λ‖A‖2 A′ ‖A‖AA ′ A ‖A‖ = λ. (13) De (10) y (13), se puede reconocer que el vector w que maximiza al cuadrado de la covarianza del componente PLS y el vector de respuestas, es el vector de covarianzas normalizado w = A ‖A‖ = X′Y ‖X′Y‖ . (14) 4.3 Propiedades observadas en Regresio´n PLS Sea U un vector columna de unos, de dimensio´n n. Sean X(0) y Y(0) la matriz de predictoras y el vector de respuestas respectivamente, de datos iniciales estandarizados por columnas, por lo tanto se cumple: X′(0)U = 0p×1 y Y′(0)U = 0. Adema´s se cumplen las siguientes propiedades, las cuales pueden ser fa´cilmente probadas: Propiedad 1 El h-e´simo componente Th, siempre esta´ centrado, es decir la suma de sus elementos es cero. T′hU = 0. Propiedad 2 La matriz de predictoras siempre esta´ centrada en cualquier iteracio´n, es decir la suma de cada una de sus columnas es cero. X′(h)U = 0p×1. Propiedad 3 El vector de respuestas siempre esta´ centrado, es decir la suma de sus elementos es cero. Y′(h)U = 0. Propiedad 4 En la h-e´sima iteracio´n, el componente Th es ortogonal con cada una de las columnas de la matriz de predictoras. T′hX(h) = 01×p. Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 16 j.c. vega – j. guzma´n Propiedad 5 En la h-e´sima iteracio´n, se cumple que el componente Th es ortogonal con el vector de respuestas. T′hY(h) = 0. Propiedad 6 Cada par de componentes es ortogonal. Sean dos compo- nentes Tk y T`, se cumple: T′kT` = 0. 4.4 Matriz de transformacio´n a componentes PLS En ana´lisis de componentes principales, la matriz que transforma las va- riables predictoras en componentes principales, es la matriz ortogonal Γ, dada en la expresio´n (4). En ana´lisis PLS, la matriz que transforma las variables predictoras en componentes PLS, es la matriz Z = (z1, · · · , zp) de orden p× p, la cual es hallada iterativamente de la siguiente manera: z1 = w(1) (15) zh = I− h−1∑ j=1 zjb(j) w(h) ; h > 1. Donde I es la matriz identidad, entonces la matriz de componentes PLS, se halla como en la siguiente expresio´n T = X(0)Z (16) = X(0)(z1, · · · , zp) = [X(0)z1, · · · ,X(0)zp]. Donde T = (T1, · · · ,Tp), es la matriz de componentes PLS y X(0) es la matriz de predictoras de datos iniciales, estandarizada por columnas. 5 Seleccio´n del nu´mero de componentes En ana´lisis de regresio´n mu´ltiple hay muchos criterios para seleccionar el mejor modelo de regresio´n. Se uso´ la suma de cuadrados de errores de prediccio´n (PRESS, por sus siglas en ingle´s). Se estimaron los modelos de regresio´n de la variable dependiente y los h-primeros componentes prin- cipales y componentes PLS, se calculo´ el PRESS(h) de ambos modelos. El nu´mero o´ptimo de componentes fue determinado por la siguiente regla sugerida: h∗ = min{h > 1 : PRESS(h+ 1)− PRESS(h) > 0}. (17) Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 regresio´n pls y pca en el problema de multicolinealidad 17 6 Aplicaciones Para la aplicacio´n se utilizo´ la base de datos fat .R, la cual esta´ disponible en la librer´ıa UsingR, del programa R. Esta base de datos consta de 252 casos, 17 variables predictoras y una variable respuesta. La variable respuesta es Y : body.fat y las 17 predictoras son: X1: body.fat.siri, X2: density, X3: age, X4: weight, X5: height, X6: BMI, X7: ffweight, X8: neck, X9: chest, X10: abdomen, X11: hip, X12: thigh, X13: knee, X14: ankle, X15: bicep, X16: forearm, X17: wrist. 6.1 Aplicacio´n 1 Se analiza la base de datos completa, el objetivo es detectar y eliminar los problemas de multicolinealidad; sobre todo, reducir la dimensionalidad. Se detecto´ problemas de multicolinealidad; los valores VIF, en 8 de las 17 variables predictoras, esta´ en el rango de 11.3 a 97.6, lo cual esta´ de acuerdo con el alto valor del nu´mero condicio´n, η = 43.317. La matriz de predictoras se transformo´ en componentes principales y componentes PLS, para eliminar la multicolinealidad. Se calculo´ el PRESS de la regresio´n PCA y PLS, respectivamente; estos resultados son mostra- dos en las Tablas 1 y 2. La regla dada por la expresio´n (17) sugiere que la regresio´n PCA sea con 6 componentes y la regresio´n PLS sea con 7 componentes. Con fines de comparacio´n, si ambos modelos de regresio´n PLS y PCA fuesen estimados con 6 componentes, los valores PRESS ser´ıan 88.31 y 266.54, respectivamente. Estos resultados confirman que el modelo PLS supera al modelo PCA. 8115.21(1) 1691.53(2) 1645.43(3) 556.04(4) 527.22(5) 266.54(6) 304.78(7) 313.61(8) 221.53(9) 223.56(10) 221.48(11) 219.31(12) 129.66(13) 195.46(14) 192.45(15) 78.51(16) 12.25(17) (.) nu´mero de componentes. Tabla 1: PRESS con regresio´n PCA. 5135.62(1) 775.22(2) 162.43(3) 139.72(4) 103.97(5) 88.31(6) 61.58(7) 72.38(8) 35.63(9) 25.14(10) 18.26(11) 13.81(12) 13.48(13) 12.19(14) 12.68(15) 11.72(16) 12.25(17) (.) nu´mero de componentes. Tabla 2: PRESS con regresio´n PLS. Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 18 j.c. vega – j. guzma´n 6.2 Aplicacio´n 2 Se presenta una muestra aleatoria de 15 casos extra´ıdos al azar desde la base datos de la aplicacio´n anterior, esto produce una matriz de variables predictoras de orden 15 × 17. Los casos son los siguientes: 226, 206, 117, 76, 41, 136, 121, 120, 130, 107, 214, 156, 69, 91, 73. En esta aplicacio´n se ilustra el potencial de la regresio´n PLS, ya que el nu´mero de variables predictoras es mayor que el nu´mero de casos o de sujetos observados. No es posible la regresio´n por Mı´nimos Cuadrados Ordinarios, debido a las matrices singulares que se forman en los ca´lculos intermedios. El ca´lculo del PRESS, se muestra en la Tabla 3. La regla de la ex- presio´n (17) sugieren el uso de 6 componentes PLS. El modelo de regresio´n estimado usando componentes PLS es presentado en la Tabla 4. 251.38(1) 83.29(2) 25.61(3) 7.79(4) 6.43(5) 2.84(6) 8.86(7) 22.41(8) 7.70(9) 1.94(10) 6.46(11) 29.55(12) 27.29(13) 27.29(14) 27.29(15) 27.29(16) 27.29(17) (.) nu´mero de componentes. Tabla 3: PRESS con regresio´n PLS. Componentes Coef. SE Coef. t-cal p-valor VIF Constante 18.533 0.0798 232.35 0.000 pls1 1.661 0.0249 66.82 0.000 1.0 pls2 2.545 0.0622 40.93 0.000 1.0 pls3 1.290 0.0858 15.04 0.000 1.0 pls4 1.085 0.1069 10.15 0.000 1.0 pls5 0.378 0.1066 3.54 0.008 1.0 pls6 0.406 0.1628 2.49 0.037 1.0 PRESS = 2.8431 Tabla 4: Regresio´n estimada con componentes PLS. 6.2.1 Prediccio´n Con el fin de evaluar la prediccio´n del modelo de regresio´n estimado, dado en la Tabla 4, se seleccionaron aleatoriamente 5 casos: 47, 118, 35, 92, 229, de la base de datos mencionada en la aplicacio´n 1. Las predictoras de estos 5 casos fueron estandarizados usando la media y desviacio´n esta´ndar de las variables predictoras de los 15 casos en el estudio mencionado en aplicacio´n 2 y posteriormente fueron transformados a componentes PLS, Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 regresio´n pls y pca en el problema de multicolinealidad 19 observaciones transformadas caso pls1 pls2 pls3 pls4 pls5 pls6 47 -4.437 0.685 -0.773 -1.138 0.417 0.635 118 -0.093 -1.534 -0.083 0.656 -0.493 -0.155 35 6.889 -0.195 0.990 0.328 0.514 0.935 92 0.471 -0.192 -0.266 -0.033 0.435 0.833 229 -0.287 -0.595 -0.966 0.430 -0.337 0.039 Tabla 5: Observaciones transformadas a componentes PLS. caso Verdadero valor Prediccio´n Intervalo de Prediccio´n (95%) 47 11.2 11.092 10.206 – 11.978 118 14.1 14.830 14.034 – 15.627 35 31.1 31.684 30.745 – 32.624 92 18.1 18.949 18.139 – 19.758 229 15.0 15.653 14.876 – 16.430 Tabla 6: Predicciones. multiplicando la matriz estandarizada de orden 5 × 17 por la matriz de transformacio´n Z, de orden 17 × 6, desde las expresiones (15) y (16). La Tabla 5, presenta los componentes PLS usados para obtener las respectivas predicciones desde el modelo de regresio´n en la Tabla 4. Las predicciones se presentan en la Tabla 6. 7 Conclusiones • Los resultados del ana´lisis de datos verifican la eficiencia de la re- gresio´n PLS sobre la regresio´n PCA, hecho que fue probado anal´ıti- camente por Frank y Friedman (1993) [1]. • Cuando se fija el mismo nu´mero de componentes para estimar los modelo de regresio´n PLS y PCA, se observa que el valor PRESS siempre es menor para el modelo PLS. • Cuando el nu´mero de predictoras es mucho mayor que el nu´mero de observaciones o casos, el modelo de regresio´n PLS puede ser estimado eficientemente. • La programacio´n del algoritmo PLS, en lenguaje R, resulto´ muy efi- ciente para el ana´lisis de datos que ilustran este trabajo. Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011 20 j.c. vega – j. guzma´n Referencias [1] Frank, I.E.; Friedman, J.H. (1993) “A statistical view of some chemo- metrics regression tools”, Technometrics 35:109–148. [2] Garthwaite, P.H. (1994) “An interpretation of partial least square regression”, Journal of the American Statistical Association 89(425): 122–127. [3] Helland, I. (1988) “On the structure of partial least squares regres- sion”, Communications in Statistics, Simulation and Computation, 17(2): 581–607. [4] Hoskulsson, A. (1988) “PLS regression methods”, Chemometrics, 2: 211–228. [5] Mardia, K.V.; Kent, J.T.; Bibby, J.M. (1997) Multivariate Analysis. Academic Press, London. [6] Massy, W.F. (1965) “Principal Components Regression in Exploratory Statistical Research”, Journal of the American Statistical Association, 60: 234–246. [7] Stone, M.; Brooks, R.J. (1990) “Continuum regression: cross- validated sequentially constructed prediction embracing ordinary least squares, partial least squares and principal components regression”, Journal of the Royal Statistical Society 52: 237–269. [8] Trygg, J. (2001) Parsimonious Multivariate Models. PhD Thesis, Umea University, Research Group for Chemometrics Department of Chemistry. [9] Wold, H. (1975) “Soft modeling by latent variables; the nonlinear iterative partial least square approach”, Perspectives in Probability and Statistics, Papers in Honour of M.S. Bartlett. Rev.Mate.Teor.Aplic. (ISSN 1409-2433) Vol. 18(1): 9–20, January 2011