29
Ajuste de curvas [S] : 1.2 5.2 6.3 7.2 9.4 v : 4.3 5.4 7.2 8.4 9.5 Ajuste de curvas v [S] v = f[S] Modelo Empírico 2 c[S] b[S] a v + + = Modelo Teórico [S] K [S] V v E P ES S E M max + = + ® ® + En matemáticas: y = f(x)

Tema5b ajuste curvas - USALsimfit.usal.es/gonzalez/diapositivas/Tema5b_ajuste_curvas.pdf · Curvas de crecimiento y curvas dosis-respuesta (modelo Logístico): Be kx A y +-= 1. Ajuste

  • Upload
    others

  • View
    11

  • Download
    0

Embed Size (px)

Citation preview

Ajuste de curvas

[S] : 1.2 5.2 6.3 7.2 9.4

v : 4.3 5.4 7.2 8.4 9.5

Ajuste de curvas

v

[S]

v = f[S]

Modelo Empírico2c [S ]b [S ]a v ++=

Modelo Teórico

[S]K[S]Vv

EPESSE

M

max

+=

+®®+

En matemáticas: y = f(x)

Ajuste de curvas

2c xb x a yP o lin o m io s ++=• Datos sin mucho ruido, curvas suaves• Cuidado porque son demasiado flexibles (hiperajuste)

• Adecuados para datos con ruido en calibración• Subjetividad al elegir el nº de nudos (hiperajuste)

Modelos empíricos (y = f(x))

i)32 d xc xb x (a ys p lin e s C u b ic +++= å

Nudo 1

Nudo 2

Nudo 3

Ajuste de curvas

En ecuaciones algebraicas

[L] ][M][MK

[L] ][M][MK

1

22

0

1 1 ==

+ L + L

K1 K2

)[L]KK [L]K 2(1[L]K2K [L]Ky 2

211

2211

+++

=

fracción de sitios ocupados

0M 1M 2M

Modelos teóricos

Binding

Ajuste de curvas

Ecuaciones de interés en Biomedicina

[L]KKK..... [L]KK [L]K n(1

[L]KKnK..... [L]K2K [L]Ky

[S] K[S]V

[S] K[S]Vv

e[A]e[A][A]

nn2.....1

2211

nn2.....1

2211

m(2)

max(2)

m(1)

max(1)

t-k2

t-k1

21

)+++++++

=

++

+=

+=Decaimientos exponenciales:

Suma de Michaelis-Menten:

Unión de Ligandos a macromoléculas:

Curvas de crecimiento y curvas dosis-respuesta (modelo Logístico):

kxBeAy -+

=1

Ajuste de curvas

Ejemplos2cxb xay ++=

-k xAey =b xay +=

(Lineal en variables,lineal en parámetros)

(No lineal en variables, lineal en parámetros)

(No lineal en variables, no lineal en parámetros)

x

Linealidad en las variablesEcuación lineal Ecuación no lineal

y y

x

Linealidad en los parámetrosEcuación lineal Ecuación no lineal

2cxb xay ++= xk-eAy =

Conceptos de linealidad

Ajuste de curvas

Previo: Comparación cualitativa entre la forma de los datos y el tipo de curva a ajustar

1) Ordenada en el origen

(0,0)

CY=f(x)+C

Y=f(x)

(Corrección por línea base)

(bien)

(0,0)

2cxb xay ++=

2cxbxy +=(mal)

a

[S]K[S]Vv

M

m ax

+= (mal)

21-SI

apM

apmax

[S]K[S]K[S]Vv

++= (bien)

2) Maximos, mínimos, puntos de inflexión y asíntotasAsíntota

(Máximos, mínimos…)

Ajuste de curvas

Estimación de los parámetros

Optimizar los parámetros que mejor ajustan la ecuación a los datos:

Ecuación no lineal Datos

y = K1 [L] + 2 K1 K2 [L] 2

n ( 1+K1 [L] + 2 K1 K2 [L] 2

y

[L]

y[L]0.90.60.4

0.10.20.5... ...

Regresión no lineal

Ecuación lineal Datos

y = a + b x + c x2 x8.45.63.4.. .

y123...

y

x

Encontrar los valoresde los parámetrosque mejor ajustanla ecuación a los datos

Regresión lineal

Ajuste de curvas

Criterio de ajuste en regresión(de una ecuación a unos datos)

residual

residual

residual

residual

Curva suave debida a la ecuación con los parámetros

optimizados

y

x

Minimizar los residuales al cuadrado (Mínimos Cuadrados)CV2)),( ii xpf((yS SQ å -=

residual

Regresión: cuando la variable “x” es exacta y la “y” es aleatoria

Ajuste de curvas

Regresión lineal múltiple

3 32211 xBxBxBCy +++=

(Ecuaciones no lineales en parámetros, por ej. y =Ae-kx)

Regresión no lineal

?...............(

?...............(

))

=Þ==¶

=Þ==¶

-=å

kk

SSQ)

AA

SSQ)

Ae(yQ SS i-kxi

0

0

2

• No se pueden explicitar los parámetros, solución aproximada.• Métodos iterativos tipo:

“Búsqueda” (Random Search)“Gradiente” (Gauss-Newton)

ObjetivosEncontrar las mejores estimas de los parámetros

Cuantificar precisión parámetros usando límites de confianza

Regresión por mínimos cuadrados

Regresión lineal simple(Ecuaciones lineales en los parámetros,

por ej. y= a+bx, polinomios en x, ….)

..........bbSSQ)

.........aaSSQ)

bxa(ySSQ ii

=Þ==¶

=Þ==¶

+-=å

0...............(

0...............(

))( 2

•Se puede explicitar cada parámetro, solución única, método exacto

Ajuste de curvas

Regresión lineal simple

BxCyrecta línea ejem plopor :nteindependie v ariableuna Sólo

+=*

][73.3157.0 aAbsorbanci Fosfato×+=

p< 0.05 , luego los dos parámetros son significativamente distintos de cero

Ajuste de curvas

3 32211 xBxBxBCy :n t ein d e p e n d ie v a r ia b leu n a d e M á s +++=*

Regresión lineal múltiple

Ajuste de curvas

2ii ))x,p((ySSQ

: cuadrado al residuales de Sumatorio

å -= f

22 SS y S

: ajuste del estándar desviación yVarianza

=-

=mn

SSQ

Representación de los residuales (deben estar al azar):

•Test de las rachas•Test de los signos

Residual

-

+0

)y(y)y(y

-1SSQ

SSQ1 R: ióndeterminac de eCoeficient 2

i

2ii

to tal

regresión2

åå

--

=-=

(R2 = 0.95 significaría que el modelo explica el 95% de la variabilidad)

Bondad de un ajuste en regresión lineal(Respecto a los residuales) (1/2)

yy

(Debe de ser pequeño)

(debe ser del orden del error experimental)

Ajuste de curvas

)p t p :c o n f ia n za d e L ím it e s i m ,-( ni va r()×± a

( ) 1 0 0p)V A R (p)C V % (p : va ria c ió nd e eC o e fic ie nt ii i ×=

)p

0-p T :parám etro un dea redundanci de t"" Test

i

i

var(=

0¹Þ< p a r á m e t r o 0 .0 5 pS i 0@Þ> p a r á m e t r o 0 .0 5 pS i

Bondad de un ajuste en regresión lineal(Respecto a los parámetros) (2/2)

úúúú

û

ù

êêêê

ë

é

var(pn)....p(n))cov(p(1),......

var(p2)p(2))cov(p(1),var(p1)

2-1T SX )(XV A R (P ) :c o va r ia nza- va r ia nzad e M a tr iz =

m m

Ajuste de curvas

1. No existe una solución única, no son métodos exactos

2. Ningún algoritmo garantiza el encontrar el mínimo global. Se puede caer en mínimos locales

3. Lo recomendable es alcanzar un mismo mínimo a partir de diferentes estimas iniciales de los parámetros

SSQ

Mínimo localMínimo global

Regresión no lineal: Métodos iterativos, mínimo global y mínimos locales

Ecuación no linealxk-eAy =

Ajuste de curvas

Algoritmos iterativos en regresión no lineal

p1

p2

x x x x x

x x x

xx

xxx

xx

x

x

x xx x

“De búsqueda (Random Search)”

Importancia de las estimas iniciales de los parámetros:límite inferior, valor inicial, límite superior

(1, 100, 10000)

“Gradiente” (Gauss-Newton, Marquardt)

p1

p2

u

lu

DWSSQ

iiii upp l+=+1

D

Ajuste de curvas

• Los parámetros se obtienen por métodos aproximados (iterativos)

• No obstante se toma como válida la estadística de la regresión lineal ( sólo cierto en condiciones asintóticas de ) n ¥®

• Hincapié: la estadística asociada a la regresión no lineal se suele interpretar de una manera más flexible que en la regresión lineal (por ejemplo se admiten coeficientes de variación de los parámetros de hasta el 50%)

Bondad de un ajuste en regresión no-lineal

En resumen, lo mismo que en lineal pero con mayor flexibilidad

Ajuste de curvas

1) Es necesario comparar la bondad de los 2 ajustes rivales:SSQ, R2, distribución residuales, test de las rachas,límites de confianza de los parámetros..etc

2) Se debe aplicar el test “F”:

( ) ( )[ ]( )22

1221

m-nSSQmmSSQSSQF --

= 2 m odeloacepta se

0 .05)(c 21FFSi => auu ,,

1 m odeloacepta se

0 .05),,(c 21FFSi =< auu

En Ciencias Experimentales lo habitual es que se dude entre modelos alternativos dentro de una secuencia:

]S[K]S[V.........

]S[K]S[V

]S[K]S[Vv

)n(M

)n(max)2(M

)2(max)1(M

)1(max+

+++

++

=

Discriminación entre modelosAnálisis de datos (Ajuste de curvas)

Estadístico

Ajuste de curvas

Discriminación por superposición de ajustes

(Basado en Bardsley 2011, SIMFIT statistical package)

Ajuste de curvas

Superposición de ajustes en otros espacios

Ajuste de curvas

Regresión con pesos estadísticos

(estas varianzas se determinana partir de réplicas)

2is

• El criterio de optimización es ahora :2

ii2i ))x,p()(ys(1W S S Q å -= f

(weighted sum of squares)

• La última suposición no se suele cumplir y hay que “normalizar” los residuales con un factor llamado “peso estadístico”:

2ii sw 1=

(weight)

• El error en la respuesta es aditivo : yi = f ( p , xi ) + u i

• Todos los errores (ui, u j , ... ) siguen una distribución normal de mediacero y varianza constante (todas las medidas tienen la misma precisión )

• El criterio de mínimos cuadrados asume que:• La variable x no tiene error

• Los errores u i y u j son independientes

Ajuste de curvas

Ajustar siempre ecuaciones directas y nunca transformaciones lineales

Conclusión: Lo ortodoxo para determinar parámetros es la regresión no lineal con pesos estadísticos a la ecuación directa

Ecuación Michaelis-Menten

]S[K]S[Vv

M

max+

=

)(vVAR1w

ii =

Linealización Lineweaver -Burk

]S[1

VK

V1

v1

max

M

max´+=

)v1(VAR1w

ii =

4i

ii v

)(vVA R )v1(VA R pero =

)i

4i

i (vVARvw =

Ajuste de curvas

Ejemplo: Curvas Dosis-RespuestaAnálisis de datos (Ajuste de curvas)

Parámetro Valor Error est. ..95% conf. lim. .. A 9.989E-01 7.86E-03 9.83E-01 1.01E+00 B 9.890E+00 3.33E-01 9.21E+00 1.06E+01 k 9.881E-01 2.68E-02 9.33E-01 1.04E+00

Parámetro Valor Error est. ..95% conf. lim. ..C(50%) 2.319E+00 4.51E-02 2.23E+00 2.41E+00

kxBeAy -+

=1

(Basado en Bardsley 2011, SIMFIT statistical package)

Ajuste de curvas

Diferencia entre curvas de 2 tratamientos

Test Mahalanobis Ji-cuadrado=====================================================Q = (A-B)^T(Ca+Cb)^(-1)(A-B) = 2.806E+03Nº grados de libertad = 3Prob.(Ji-cuadr. >= Q) = 0.0000

Test t entre parámetros para 2 tratamientos(A,B) con covarianzas (Ca,Cb).======================================================Param. A B A - B p1 1.397E+00 9.989E-01 3.981E-01 0.97502 1.295E+01 9.890E+00 3.060E+00 0.0000 *****3 1.306E+00 9.881E-01 3.179E-01 0.3781

(A)(B)(k)

AoT r a t a m ie n t

kxBeAy -+

=1

BoT r a t a m ie n t

kyBAp a r a m e t r o s ,

Ojo: aquí A y B significan los tratamientos

Ajuste de curvas

Diferencia entre las 2 CE50 estimadas

Test t con varianzas distintas para H0: CE50_1 = CE50_2==================================================================

estimado err.est. ...95% lim.conf. ... npts npar2.319E+00 4.510E-02 2.227E+00 2.411E+00 33 31.961E+00 1.710E-02 1.926E+00 1.996E+00 33 3C (test t corregido) = 7.422E+00Grados de libertad = 38P(t=<-|C|) + P(t>=|C|) = 0.0000 Reject H0 at 1% sig.level

Ajuste de curvas

.....)()(log 3122110

111 XaXaXaapp

e ++=-

+

y(i) 1=vivo0=muerto

variables: X1 , X2 , X3 ,...... p(1) = probabilidad de que y = 1

• La aplicación importante es estimar p(1) para un caso nuevo del que se conocen X1, , X2, , X3, ….

Lep -+

=11)1( (ej: p(1) = 0.73 de sobrevivir)

Ej: Regr. logística binariaAnálisis de datos (Ajuste de curvas)

h L

Ajuste de curvas

Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)).

Análisis de supervivenciaTécnicas especiales

Censurado significa que a ese tiempo el sujeto se ha perdido o estaba vivo, se denota con + .

S(t) en KMS(t) significa función de supervivencia y es la probabilidad de que un sujeto sobreviva más allá de un tiempo determinado.

Ajuste de curvas

Cálculos curvas supervivencia Kaplan-MeierFármaco: tiempo, muere o vive Placebo: tiempo, muere o vive

Ensayo Tiempo (meses)

Nº sobreviven (intervalo)

Nº mueren

S(t)(Superv. Acumulada)

Fármaco 0 10 0 1Fármaco 5 10 1 1x(9/10) = 0.90Fármaco 10 9 1 0.9x(8/9)=0.8

Fármaco 15 8 1 0.80x(7/8)=0.70

Fármaco 20 7 0 0.70x(7/7)=0.70

Placebo 0 10 0 1

Placebo 3 10 1 1x(9/10) = 0.9

Placebo 5 9 1 0.9x(8/9)=0.8

Placebo 7 8 1 0.80x(7/8)=0.70

Placebo 8 7 0 0.70x(7/7)=0.70

Ajuste de curvas

Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)).

En la práctica las curvas son con más datos

Fármaco

Placebo

Ajuste de curvas

Test Mantel-Haenszel (log-Rank test)

QMH=16.79

(p<0.01)

(supervivencia

diferente)

Comparación de curvas de supervivencia

Fármaco

Placebo