View
7
Download
0
Category
Preview:
Citation preview
AJUSTE GAUSSIANO DE REDES POR EL
MÉTODO DE INCREMENTOS DE
COORDENADAS
M.J. Jiménez Martínez, N. Quesada Olmo, M. Villar Cano, J.M. Paredes Asencio, A. Marqués Mateu
15 de octubre de 2012
Índice general
1. En torno a la Teoría y Praxis de aplicación 9
1.1. Objeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2. Teoría sobre el ajuste gaussiano por incrementos de coordenadas 14
2.1. Sobre la geometría de las soluciones posibles en el
ajuste Gauss-Marcov de una red local . . . . . . . . . . . . 14
2.2. Las covarianzas a priori en las matrices de diseño de
observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3. Caso de observables GNSS y relacionados con ellos . . . 23
2.4. Teoría y praxis de ajuste doble por incrementos de
coordenadas: una solución rigurosa . . . . . . . . . . . . . 28
2.5. Posibles soluciones aproximadas . . . . . . . . . . . . . . . . 33
2.6. Síntesis y conclusión . . . . . . . . . . . . . . . . . . . . . . . . 36
3. Aplicación del método de incrementos de coordenadas en una red
clásica 40
3.1. Resolución por Triangulateración . . . . . . . . . . . . . . 41
3.1.1. Monumentación, materiales y características cons-
tructivas . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2. Especificaciones técnicas de la estación total uti-
lizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1
3.1.3. Observaciones angulares azimutales . . . . . . . . . 42
3.1.4. Observaciones distanciométricas . . . . . . . . . . . . 44
3.1.5. Cálculo de la Consistencia de la Figura y op-
timización del camino de cálculo del vector Xa . 45
3.1.5.1. Cálculo de las coordenadas aproximadas
por el camino de mejor consistencia an-
gular . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1.5.2. Cálculo de las coordenadas aproximadas
por el camino de mejor consistencia dis-
tanciométrica . . . . . . . . . . . . . . . . . . . 48
3.1.5.3. Las coordenadas aproximadas definitivas . 50
3.1.6. El factor de conversión y el peso de las formas
lineales de azimut . . . . . . . . . . . . . . . . . . . . . 50
3.1.7. El factor de conversión y peso de las formas li-
neales de distancia . . . . . . . . . . . . . . . . . . . . 51
3.1.8. Los pesos homogeneizados . . . . . . . . . . . . . . . . 52
3.1.9. Ecuaciones de azimut y de distancia factorizadas 53
3.1.10. El vector de variables, el vector de residuos y
la varianza a posteriori del observable de peso
unidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.11. Las matrices de criterio: matriz cofactor de las
variables o parámetros, matriz cofactor de los
residuos, matriz cofactor de los observables co-
rregidos, matriz varianza-covarianza de las varia-
bles o parámetros, matriz varianza-covarianza a
posteriori de los residuos, y matriz varianza-covarianza
a posteriori de los observables corregidos . . . . . 56
2
3.1.12. Comprobación de los observables: fiabilidad in-
terna de la red . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.13. Comprobación de los observables: fiabilidad ex-
terna de la red . . . . . . . . . . . . . . . . . . . . . . . 60
3.1.14. Semiejes de la elipse standard . . . . . . . . . . . . . 63
3.1.15. La elipse asociada a la curva pedal . . . . . . . . . . 64
3.1.16. Probabilidades asociadas a las figuras de error . 65
3.1.17. Error o perturbación db . . . . . . . . . . . . . . . . . 68
3.1.18. Resultados finales de la red triangulaterada . . . 70
3.2. Resolución por el método de incrementos de coordenadas 71
3.2.1. Test de Pearson. Cálculo de los incrementos de
coordenadas a partir de los observables clásicos 73
3.2.2. las coordenadas aproximadas . . . . . . . . . . . . . . 77
3.2.3. Formas lineales específicas de los incrementos de
coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2.4. Las matrices de pesos . . . . . . . . . . . . . . . . . . . 81
3.2.4.1. Sobre la importancia de la geometría del
cuadrilátero de ponderación y de su azimut 88
3.2.5. Síntesis y resultados del ajuste de la red por el
método de incrementos de coordenadas . . . . . . . 90
3.2.5.1. La matriz A1, la matriz de pesos P1, el vec-
tor de términos independientes K1, y la
matriz S1 de la subred 1 . . . . . . . . . . . . 90
3.2.5.2. La matriz A2, la matriz de pesos P2, el vec-
tor de términos independientes K2, y la
matriz S2 de la subred 2 . . . . . . . . . . . . 91
3
3.2.5.3. El vector de variables, el vector de resi-
duos y la varianza a posteriori del observa-
ble de peso unidad en la subred 1 . . . . . . 92
3.2.5.4. El vector de variables, el vector de resi-
duos y la varianza a posteriori del observa-
ble de peso unidad en la subred 2 . . . . . . 93
3.2.5.5. El resultado del ajuste doble por incre-
mentos de coordenadas a partir de los paráme-
tros dxV 2 y dyV 2 de las subredes 1 y 2 . . . . 93
3.2.5.6. Las matrices de criterio : matriz cofac-
tor de las variables o parámetros, ma-
triz cofactor de los residuos, matriz co-
factor de los observables corregidos, ma-
triz varianza-covarianza de las variables
o parámetros, matriz varianza-covarianza
a posteriori de los residuos, y matriz varianza-
covarianza a posteriori de los observables
corregidos de la subred 1 . . . . . . . . . . . 94
3.2.5.7. Las matrices de criterio : matriz cofac-
tor de las variables o parámetros, ma-
triz cofactor de los residuos, matriz co-
factor de los observables corregidos, ma-
triz varianza-covarianza de las variables
o parámetros, matriz varianza-covarianza
a posteriori de los residuos, y matriz varianza-
covarianza a posteriori de los observables
corregidos de la subred 2 . . . . . . . . . . . 95
4
3.2.5.8. Comprobación de los observables: fiabili-
dad interna de la subred 1 . . . . . . . . . . 96
3.2.5.9. Comprobación de los observables: fiabili-
dad interna de la subred 2 . . . . . . . . . . 98
3.2.5.10. Comprobación de los observables: fiabili-
dad externa de la subred 1 . . . . . . . . . . 99
3.2.5.11. Comprobación de los observables: fiabili-
dad externa de la subred 2 . . . . . . . . . . 100
3.2.5.12. Semiejes de la elipse standard de las sub-
redes 1 y 2 . . . . . . . . . . . . . . . . . . . . . 101
3.2.5.13. Las elipses asociadas a la curvas pedales
de las subredes 1 y 2 . . . . . . . . . . . . . . 103
3.2.5.14. Probabilidades de error asociadas a las
figuras de error de las subredes 1 y 2 . . . 104
3.2.5.15. Error o perturbación db de las subredes
1 y 2 . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.2.5.16. Resultados finales de la red por incre-
mentos parciales . . . . . . . . . . . . . . . . . 106
4. Resolución de la red de observables clásicos junto a observables
GNSS por el método de triangulateración 109
4.1. Objeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.2. El vector de observables GNSS . . . . . . . . . . . . . . . . . 110
4.3. Las coordenadas aproximadas . . . . . . . . . . . . . . . . . . 110
4.4. La matriz de pesos . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.5. Ecuaciones de distancia GNSS factorizadas . . . . . . . . . 114
5
4.6. Matriz de diseño A, vector K de términos independien-
tes y matriz de pesos de la red con descentrado . . . . . 115
4.6.1. Resultados del ajuste de la red triangulaterada
con descentrado . . . . . . . . . . . . . . . . . . . . . . 116
4.7. Matriz de diseño A, vector K de términos independien-
tes y matriz de pesos de la red sin descentrado . . . . . . 121
4.7.1. Resultados del ajuste de la red triangulaterada
sin descentrado . . . . . . . . . . . . . . . . . . . . . . . 122
4.8. Estudio de los parámetros y matrices de criterio de la
triangulateración clásica con observables adicionales
GNSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.9. Fiabilidad interna y fiabilidad externa de la triangu-
lateración clásica con observables adicionales GNSS . . 131
4.10. Recintos de error . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.11. Errores en redondeo dS y db . . . . . . . . . . . . . . . . . . 134
4.12. Conclusiones básicas . . . . . . . . . . . . . . . . . . . . . . . . 135
5. Una práctica usual desaconsejable: resolución de la red de observa-
bles clásicos junto a observables GNSS con matriz completa de
pesos factorizada 137
5.1. Cálculo de los incrementos de coordenadas a partir de
los observables clásicos. Test de Pearson . . . . . . . . . 138
5.2. Cálculo de los incrementos de coordenadas a partir de
los vectores GNSS. Test de Pearson . . . . . . . . . . . . . 140
5.3. Las coordenadas aproximadas . . . . . . . . . . . . . . . . . . 145
5.4. Matriz de diseño A y el vector K de términos indepen-
dientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6
5.4.1. Las matriz de pesos factorizada P' . . . . . . . . . . 146
5.4.2. Las matrices de diseño A' y K' . . . . . . . . . . . . . 148
5.5. Resultados del ajuste de la red mixta por incrementos
con matriz de pesos factorizada . . . . . . . . . . . . . . . . 150
6. Aplicación del método de incrementos de coordenadas en una red
GNSS 157
6.1. Cálculo de los incrementos de coordenadas a partir de
los vectores GNSS. Test de Pearson . . . . . . . . . . . . . 157
6.2. Las coordenadas aproximadas . . . . . . . . . . . . . . . . . . 159
6.3. Síntesis y resultados del ajuste de la red GNSS por el
método de incrementos de coordenadas . . . . . . . . . . . 160
6.3.1. El vector de variables, el vector de residuos y
la varianza a posteriori del observable de peso
unidad en la subred 1 GNSS . . . . . . . . . . . . . . . 164
6.3.2. El vector de variables, el vector de residuos y
la varianza a posteriori del observable de peso
unidad en la subred 2 GNSS . . . . . . . . . . . . . . . 165
6.3.3. El resultado del ajuste doble por incrementos
de coordenadas a partir de los parámetros dxV 2 y
dyV 2 de las subredes 1 y 2 GNSS . . . . . . . . . . . . . 166
6.3.4. Las matrices de criterio de la subred 1 . . . . . . . 166
6.3.5. Las matrices de criterio de la subred 2 . . . . . . . 167
6.3.6. Comprobación de los observables: fiabilidad in-
terna de la subred 1 . . . . . . . . . . . . . . . . . . . 168
6.3.7. Comprobación de los observables: fiabilidad in-
terna de la subred 2 . . . . . . . . . . . . . . . . . . . 169
7
6.3.8. Comprobación de los observables: fiabilidad ex-
terna de la subred 1 . . . . . . . . . . . . . . . . . . . 170
6.3.9. Comprobación de los observables: fiabilidad ex-
terna de la subred 2 . . . . . . . . . . . . . . . . . . . 171
6.3.10. Semiejes de la elipse standard y elipses asociadas
a la curvas pedales de las subredes 1 y 2 . . . . . . 172
6.3.11. Probabilidades de error asociadas a las figuras
de error de las subredes 1 y 2 . . . . . . . . . . . . . 173
6.3.12. Error o perturbación db de las subredes 1 y 2 . . . 175
6.3.13. Resultados finales de la red por incrementos par-
ciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
7. Conclusiones 178
7.1. Empezando por el principio: la normalidad del vector
de observables O y del vector de residuos R . . . . . . . . 178
7.2. El observable de peso unidad. Cumplimiento del test
Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . 182
7.3. La precaución de homogeneizar los pesos . . . . . . . . . . 185
7.4. Síntesis final . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
8. Bibliografía 192
8
Capítulo 1
En torno a la Teoría y Praxis de
aplicación
Esta publicación se re�ere esencialmente, y aporta una experiencia puntual, en la
investigación teórica y práctica de nuevos métodos de ajuste gaussiano en redes
locales y microgeodésicas, subrayando las di�cultades encontradas y las técnicas y
criterios de diseño aplicados en las distintas fases, a efectos de conservar el poder
de a�rmación estadístico-probabilista y el rigor matemático imprescindible desde
el principio del algoritmo hasta sus conclusiones �nales y propuesta de resultados.
Por ello entendemos necesario de�nir previamente el objeto especí�co perseguido,
dentro de un escenario completo, y la doctrina matemática y estadística básica de
aplicación, fundamentalmente en lo que contiene de novedoso.
1.1. Objeto
La observación, cálculo y compensación por mínimos cuadrados de una red local
o microgeodésica con�guran una doctrina y praxis centenarias que todavía, hasta
donde se nos alcanza, no han sido claramente superadas ni en rigor cientí�co ni en
utilidad práctica, a pesar de ciertos defectos y carencias que en algunos aspectos
y en anteriores publicaciones, que oportunamente se citarán, ya hemos puesto de
9
mani�esto, como lo seguiremos haciendo en este trabajo y los que sigan, siempre
con el esfuerzo añadido de subsanar o a lo menos aliviar cada de�ciencia detectada.
Entendemos que el tradicionalmente denominado ajuste de Gauss-Marcov continúa
vigente en pleno siglo XXI. Quizás porque otros esfuerzos cientí�cos, como los
basados en los Test �robustos� o los muy recientes de utilización de técnicas
bayesianas no hayan satisfecho las esperanzas que en ellos se fundaron o se
encuentren todavía en fase de elaboración. Quizás también porque la investigación
cientí�ca y la tecnología se hayan orientado más a la consecución de grandes
rendimientos prácticos que a la mejora de las precisiones alcanzables. Y tal vez
por todos los quizás juntos y porque la acelerada evolución y progreso de la
instrumentación moderna ha alcanzado ya y ofrece precisiones, rendimientos y
facilidad operativa que cubren ampliamente la gran mayoría de las exigencias de
los trabajos usuales.
Así, resultados de ajustes con �guras de error submilimétricas de décimas y aún
centésimas de milímetro aparecen frecuentemente en aplicaciones prácticas, libros
y revistas especializados. Y merece la pena preguntarse si los trabajos a que se
re�eren requieren precisiones tales e incluso, si ello fuera cierto, es factible su
contrastación real.
Después de todo, siquiera en aproximación de trazo grueso, tal parece anunciarse
el robot cartográ�co que cualquiera puede programar y abandonar a su suerte
en el terreno en el convencimiento de que volverá con el trabajo encomendado
impecablemente resuelto, sin intervención humana alguna. Con ello a nuestra vieja
y noble profesión no le quedaría apenas futuro.
Sin embargo, nosotros entendemos que sí le queda, ilimitado e ilusionante, y que
merece la pena empeñarse en su defensa. Porque nuestra experiencia nos dice que
todavía es fundamental la actuación humana aplicando el arte y la ciencia de una
ingeniería cartográ�ca de alto nivel experta en diseño, proyecto y observación para
que la �abilidad de los resultados intermedios y �nales obtenidos e interpretados
en gabinete sea correcta, lógica, y congruente con la realidad física y las previsiones
10
y necesarias exigencias establecidas de antemano.
Solamente así será posible aceptar el reto de una comprobación obligada y estricta
de resultados sobre tolerancias de precisión muy estrechas en aquellos trabajos
que verdaderamente lo requieran, arrostrando solamente, y ya es bastante, el
riesgo que entraña la condición imperfecta por humana de toda actuación técnica,
por concienzuda e irreprochable que sea. Porque es imperativo prevenirse ante
situaciones en que la discutible formulación de parámetros al límite del óptimo
teórico y �guras de error minúsculas dejen de ser un mero y cotidiano alarde de
excelencia aparente del trabajo y devengan en una ardua exigencia técnica de difícil
y obligado cumplimiento e ineludible comprobación.
Para progresar en el camino descrito, entendemos necesaria una revisión detallada
de los algoritmos y métodos clásicos de observación y cálculo. No se pretenderá, por
entenderlo ilusorio, mejorar sustancialmente en gabinete la calidad de los trabajos
observacionales. Pero sí se atenderá a comprobar paso a paso la adecuación y
correcta signi�cación física de cifras y niveles de �abilidad de previsiones, paráme-
tros, matrices y algoritmos de interpretación y control en general desde el principio
del cálculo en gabinete hasta la obtención del resultado �nal. Avances en el
concepto de observable y de recinto de error serán necesarios junto con progresos
en el tratamiento matemático y estadístico de la información, parcial y global.
Así, hemos iniciado la obra con una primera publicación sobre el estudio en
profundidad de la determinación y ajuste de un solo vértice variable de una
microrred planimétrica, ampliable a tres dimensiones. Se ha estudiado la tipología
existente de observables de acuerdo con la instrumentación más avanzada asequible
procediendo a su homogeneización en magnitudes lineales desarrollando un
nuevo método que denominamos de triangulateración. Simultáneamente se ha
avanzado también en el estudio riguroso de la normalidad a priori de residuos y
observables y muy especialmente en la ponderación de estos últimos con criterios
innovadores, entendemos que más rigurosos y cercanos a la realidad física que los
tradicionalmente empleados.
11
Por lo que concierne al presente trabajo, y siempre re�riéndonos a un solo
vértice libre continuamos el proyecto proponiendo un nuevo método de ajuste
que denominamos por incrementos de coordenadas, Mediante él avanzamos en
el tratamiento de observables obtenidos con instrumentación de vanguardia,
angulares, distanciométricos y GNSS, en su análisis geométrico y físico a priori
y a posteriori, y en el problema de las covarianzas a priori entre observables. Se
desarrollará la novedosa teoría de los lugares geométricos de a�jos de vectores de
observables en soluciones Gauss-Marcov a priori y se establecerá su relación con
los recintos de error a posteriori en los respectivos espacios de los observables y
las coordenadas compensadas, en este caso particular, bi o tridimensionales. En la
fase siguiente ampliaremos el cálculo y determinación de vértices variables de la
red a dos o más, sin limitación alguna y bi o tridimensionales. Posteriormente y
manteniendo siempre el mismo rigor y poder de a�rmación, a cualquier punto del
espacio comprendido por o de in�uencia de la red, con aplicación de la doctrina
contenida y desarrollada en lo que hemos denominado problemas del Datum y
Principal de Diseño. Finalmente abordaremos el problema de la evolución temporal
de las redes locales y microgeodésicas, sus variaciones, y la aplicación de las mismas
al cálculo y determinación de deformaciones.
Los espacios de observables y coordenadas serán a partir de ahora siempre supe-
riores a las cuatro dimensiones y por consiguiente los lugares geométricos y recintos
de error que en ellos se establezcan requerirán un estudio en detalle y avanzado.
Y fundamentalmente será preciso justi�car con el debido rigor la deducción,
individualizada o conjunta, y siempre con información geométrica y probabilística,
de los recintos de error bi o tridimensionales acordes con nuestra realidad física y
especí�cos de cualquier vértice o grupo de vértices concernidos. Se avanzará en la
teoría que hemos llamado de zonas de especial signi�cación.
Como objetivo �nal de ésta y sucesivas publicaciones, trataremos de llegar a es-
tablecer el iter completo de un proyecto actualizado Gauss-Marcov microgeodésico
o de red local, en su más amplia acepción y variable en el tiempo. Se apoyarán por
12
supuesto las páginas que siguen en los trabajos ya publicados, que obligadamente
hemos de dar por conocidos, en evitación de innecesarias repeticiones que harían
excesivamente farragosa la exposición1.
En síntesis �nal. Reiteramos que la instrumentación topográ�ca y geodésica
actual cubre ampliamente, por observación directa, las exigencias de precisión
de la inmensa mayoría de las aplicaciones usuales. Ni se requiere ajuste
alguno, ni compensación, ni otro expediente que aceptar como de�nitivos los
puros datos de campo en la certeza de que, con un amplio coe�ciente de
seguridad que tampoco es preciso cifrar, bastan y sobran para resolver el trabajo
encomendado. Adicionalmente, multitud de programas comerciales facilitan todo
tipo de información e interpretación a nuestro juicio generalmente accesorias y a
lo menos dudosamente �ables.
Pero existen y cabe pensar que existirán en el futuro cada vez más frecuentemente,
aplicaciones que de verdad exijan precisiones muy estrechas y que necesariamente
puedan y requieran ser comprobadas a posteriori rigurosamente. Sólo hacia ellas
se dedican las páginas que siguen. A empeños de presente y futuro como éste se
acostumbra a denominar investigación cientí�ca.
1
Como publicación inicial a la presente, M.J.Jiménez Martínez, A.Marqués Mateu,J.M.Paredes Asencio, M.Villar Cano �Progreso en la práctica del ajuste gaussiano deuna red local. Método de Triangulateración�. Real Academia de Cultura Valenciana. RevistaDigital: www.racv.es/racv digital. Valencia 2010. También y procedente del mismo equipode investigadores nos remitimos básicamente a las publicaciones: M.Chueca, J.Herráez,J.L.Berné �Tratado de Topografía�. En tres tomos, especialmente el tercero �Microgeodesiay Redes locales�. Ed. Paraninfo. Madrid. 1996. M.Chueca, J.L.Berné, A.B.Anquela,S.Baselga �Avances en la interpretación de resultados en redes locales. Recintos deerror.�. Ed. Universidad Politécnica de Valencia. Valencia 2001. M.Chueca, J.L.Berné,A.B.Anquela, S.Baselga, �Microgeodesia y redes locales. Complementos docentes.� Ed.Universidad Politécnica de Valencia, Valencia 2004. M.Chueca, A.B.Anquela, S.Baselga,�Diseño de redes y control de deformaciones. Los problemas del datum y principal de diseño�.Ed. Universidad Politécnica de Valencia. Valencia 2007. Finalmente, las Tesis Doctorales de losDres. A.B.Anquela, S.Baselga e I.Maestro.
13
Capítulo 2
Teoría sobre el ajuste gaussiano por
incrementos de coordenadas
2.1. Sobre la geometría de las soluciones
posibles en el ajuste Gauss-Marcov de
una red local
Si está justi�cado aceptar que el vector de observables O es un vector cuyas
componentes son variables aleatorias, él y las consecuencias que de él se deriven
pueden explicarse según un modelo estadístico. En dicho supuesto, la Red en
estudio se resolverá a través suyo, relacionándolo con un modelo matemático. Así
propondremos nuestra mejor solución.
Según es bien sabido, siendo
O = el vector de observables, cuyos componentes en cualquier proporción son
observables clásicos (angulares y distanciométricos), y GNSS, la solución de Gauss-
Marcov exige que se cumpla la condición
OvN (OT ,Σo) = N (OT ,σ2 ·Q) = N (OT ,σ
2 · P−1) (1)
14
Aseguramos con los test estadísticos convenientes que nuestros observables son
normales, como es el test de adherencia de Pearson.
Que implica que el vector de residuos cumpla la misma condición y
RvN (OT ,Σo) = N (OT ,σ2 ·Q) = N (OT ,σ
2 · P−1) (2)
Con la nomenclatura conocida
C = OT + R = vector de observables corregidos (es la solución de la red)
R = vector de residuos o correcciones
σ2= factor de varianza, entendida como la varianza del observable de peso unidad
Σo=σ2Q = matriz varianza covarianza del observable a priori
P = Q−1= σ2 · Σ−1o = matriz de pesos
Cumpliéndose que la probabilidad del vector de observables será:
P(O) = P(O1, y O2, y O3,........., y Om) = P(R) =
= P(R1, y R2, y R3,........., y Rm)=m
Π1
hi√π· e−h2
i ·R2i =
m
Π1
1√2·π·σi·e−
12·(Riσi
)2
= maximo
siendo
hi= 1σi·√
2
expresión que será de probabilidad máxima cuando se cumpla que:
m
Σ1
(Riσi
)2
=m
Σ1
1σ2i·R2
i=m
Σ1pi ·R2
i = RT · P ·R = k2 = mınimo (3)
principio de los cuadrados mínimos. Buscamos de esta manera que la probabilidad
de nuestros resultados sea la máxima alcanzable.
Siendo necesario para la licitud de (3) que sea
Σo= matriz diagonal de varianzas de los observables O a priori
15
y por tanto
Q = matriz diagonal cofactor = P−1 y
Cumplido lo que antecede, la condición Gauss-Marcov aplicable al ajuste de una
red local o microgeodésica se expresa según
RT · P ·R = k2 = mınimo (4)
Con la teoría, algoritmo y notación usual, bien conocidos. Donde merece la
pena recordar las consideraciones efectuadas sobre el vector de residuos R en las
publicaciones antes citadas1 y la necesidad de contar a priori con un vector de
observables, que implícitamente supone de residuos, excelente.
La solución R de (4) también puede escribirse como el vector√P · R, mínima
norma euclídea de orden dos, tal que
|√P ·R |2= k2 = mınimo (5)
(4) y (5) son expresiones de la misma solución.
Su interpretación geométrica corresponde al lugar del a�jo del vector R, haz de
hiperelipsoides HE en el espacio m-dimensional Em, de m ejes, referido a su centro
y en ecuación canónica, en este caso, por ser P una matriz diagonal.
Y también al lugar del a�jo del radio vector k
|√P ·R |2= k2 (6)
que puede escribirse como
HES = RT · P ·R = (√P ·R)T · (
√P ·R) = R′′T ·R′′ = k2 (7)
1
Ver p.ej. M.Chueca, J.L.Berné, A.B.Anquela, S.Baselga, �Microgeodesia y redes locales.Complementos docentes.� Opus cit. Pg. 9-14. Ed. Universidad Politécnica de Valencia, Valencia2004.
16
(6) y (7) expresan la misma forma cuadrática que de�ne ahora una hiperesfera
HES en el espacio m-dimensional Em, referida a su centro, y radio k =|√P ·R |.
Analíticamente corresponde a una simple reducción del ajuste a pesos unidad. Es
decir, si el peso es el mismo para cada uno de los observables del ajuste podemos
decir que el hiperelipsoide de observables es en este caso una hiperesfera, porque
cada uno de los semiejes tiene la longitud del radio k.
Hiperelipsoide e hiperesfera son �guras homólogas y se deducen una de otra recí-
procamente por una relación geométrica proyectiva, de la que nos hemos ocupado
en otros trabajos.
Y conocida una solución R, se obtiene inmediatamente
√P ·R = R′′ (8)
y siendo
|√P ·R |=| R′′ |= k = radio de HES (9)
Una vez de�nida la hiperesfera HES, cualquier otra solución arbitraria R' del
ajuste sobre HES se podrá escribir según la ecuación:
Γ′T ·R′′ = R′ (10)
Γ′ · Γ′T ·R′′ = R′
siendo Γ′T matriz cuadrada ortogonal rotación, siendo Γ′ asimilable para �jar
ideas a una matriz de cosenos directores o autovectores normalizados dispuestos
en columnas y en el espacio euclídeo Em.
El paso �nal de R' sobre la hiperesfera HES a R∗ sobre el hiperelipsoide HE es
sencillo.
Se tendrá
√P ·R∗ = R′ (11)
17
R∗ = (√P )−1) ·R′ (12)
Lícito siempre por ser P matriz de rango completo y diagonal.
De tal manera que la aplicación de la matriz rotación descrita corresponde y equi-
vale analíticamente al paso de una solución Gauss-Marcov conocida de vectores y
matrices:
x : vector de correcciones,
R : vector de residuos,
C : vector de observables compensados,
A : matriz de diseno,
S = AT · P · A,
a otra x∗, R∗, C∗, A∗, S∗ inmediata a partir de Γ′ , supuesto conocido.
No existe solución del problema fuera del hiperelipsoide o hiperesfera, y todos sus
puntos son solución. Es una de�nición geométrica exclusiva y excluyente, que
equivale directa y recíprocamente a la analítica bien conocida. Si los pesos son
iguales la solución de entrada es la hiperesfera, que coincide con el hiperelipsoide,
caso particular de todos los ejes iguales, si son diferentes la solución es el
hiperelipsoide. Es posible transformar una solución sobre la HES a la solución
sobre el HE, como ya hemos dicho, se deducen una de otra recíprocamente por
una relación geométrica proyectiva.
Por lo tanto, los componentes del vector R pueden variar para un k2 cualquiera,
y resolver la cuestión, siempre supuesto k2 mínimo según conviene en nuestros
ajustes cartográ�cos.
Y reiteramos que es fundamental tener en cuenta que la variación de los
componentes de R modi�ca también los vectores C (vector de observables
corregidos) y X (vector de coordenadas compensadas) y por lo tanto se re�eren
a distintas soluciones de la red calculables analíticamente a partir de los
correspondientes modelos matemáticos y condicionados complementarios.
La aparición de la tecnología GNSS, de universal aplicación, obliga a avanzar en
18
la teoría de los ajustes rigurosos de redes locales y microgeodésicas, quedando en
nuestra opinión su�cientemente justi�cada la procedencia de:
a) Retomar la exposición en el supuesto de que las matrices Σo, Q y P no sean
diagonales ni (4) ecuación canónica de HE, superando el obstáculo de que en
principio resulte incumplida la condición de Gauss-Marcov e ilícita la aplicación
del algoritmo de mínimos cuadrados a la red en presencia.
b) Estudiar la evolución de la solución mínimo cuadrática C, X, en función
de los distintos condicionados a agregar al modelo matemático inicial, linea de
investigación que dejaremos abierta por el momento.
La cuestión estriba en cómo puede diseñarse el trabajo en lo concerniente a los
datos de partida, especialmente por lo que respecta al vector de observables
y sus matrices de varianzas y pesos, en su caso más general y supuesta a
priori la aparición de covarianzas en ellas en orden a restablecer rigurosa y
satisfactoriamente la licitud de la solución y algoritmo antes citados.
Es fundamental tener en cuenta desde el primer momento que el proyectista tiene
plena libertad para elegir a priori los observables de partida más adecuados y
para combinarlos entre sí formando otros de concepción distinta (generalmente
homogeneizándolos todos en magnitudes lineales), generando así los componentes
más adecuados del vector O.
Y todo con�uye en de�nitiva en el estudio de las covarianzas que puedan
presentarse en las matrices de diseño a priori generadas por el vector de observables
O. Con todo ello podremos, entre otras cuestiones importantes, avanzar en la
resolución rigurosa Gauss-Marcov de redes con observables GNSS, cuestión que en
el momento presente entendemos que no está adecuadamente resuelta.
19
2.2. Las covarianzas a priori en las matrices
de diseño de observables
Supongamos ahora una matriz cualquiera ortogonal normalizada de autovectores
columna Γ′, siendo su transpuesta Γ′T representativa de la rotación más general
en el espacio euclídeo Em.
Así, siendo el sistema de formas lineales genérico
Ax � K = R (13)
Por de�nición de transformación ortogonal en el sistema el vector R rotará a R'
según
Γ′T ·(Ax−K) =Γ′T ·R = R′ (14)
y se cumplirá
|Ax−K |=| R |=| Γ′T ·R |=| R′ | (15)
es decir
RT ·R = (Ax−K)T · (Ax−K) =
=(Γ′T ·(Ax−K))T ·(Γ′T ·(Ax−K)) = (Γ′T ·R)T ·(Γ′T ·R) = R′T ·R′ (16)
Por lo tanto, en el caso de observables del mismo peso, P = I, la hiperesfera
genérica HES (7) se particulariza ahora en
| R |2= k2 = constante = radio de la esfera (17)
y representa a todas las soluciones Gauss-Marcov de la red, que pueden explicarse
por la rotación (14) del vector R. Con un mismo modelo matemático básico,
a cada condicionado complementario le corresponderá una matriz rotación Γ′T
20
representativa de una solución de la red, expresada por un vector R de módulo
constante e igual a k y componentes variables Ri con i ε 1,2,3,...m.
Si la matriz pesos es diagonal P = (diag pi) con la notación usual, se cumplirá
también teniendo en cuenta (7) y (14) que
Γ′T ·√P ·(Ax−K) =Γ′T ·
√P ·R = Γ′T ·R′′ = R′ (18)
conservando la notación Γ′ y R′ por tener idéntico signi�cado físico que en el caso
anterior. Y se sigue
RT · P ·R = R′′T ·R′′ = (√P · (Ax−K))T · (
√P · (Ax−K)) =
=(Γ′T ·√P (Ax−K))T ·(Γ′T ·
√P ·(Ax−K)) =(Γ′T ·R′′)T ·(Γ′T ·R′′) = R′T ·R′ (19)
Que es la generalización de la hiperesfera (11) a la (7), de ecuación (6). El vector
R de partida referido al hiperelipsoide HE es ponderado según la matriz diagonal
P, obteniéndose R′′ y quedando referido a la hiperesfera HES. La ulterior rotación
Γ′T da lugar a cualquier solución arbitraria, con el mismo condicionado del caso
anterior de pesos unitarios.
Con lo que queda incluso reiteradamente justi�cada la interpretación geométrica
establecida en el epígrafe anterior.
Pero si practicamos en (4) la rotación Γ′T según (14) directamente al vector R del
caso anterior, con P = (diag pi), se obtiene sucesivamente
Γ′T ·R = R′
Γ′ · Γ′T ·R = R = Γ′ ·R′ (20)
RT · P ·R =(Γ′·R′)T · P ·(Γ′·R′) = R′T · Γ′T · P · Γ′ ·R′ = R′T · P ′ ·R′ (21)
21
donde por de�nición de factorización, P ' es una matriz completa.
Lo que en principio puede parecer paradójico, ya que P es una matriz diagonal
de pesos y su inversa Q es la matriz cofactor de varianzas a priori, también
diagonal, así como la matriz varianza covarianza a priori de observables Σo=
s2 · P−1 = s2 · Q, siendo s2 el factor de varianza, de�niéndose así los observables
como estadísticamente independientes. Es lícito así mismo aceptar la hipótesis de
Gauss Marcov y ajustar por mínimos cuadrados, si previamente se demuestra por
aplicación del Test de Pearson o por cualquier otro procedimiento, que R y R'
presentan distribuciones normales.
Pero la aplicación de una rotación Γ′T al vector R genera P ', matriz de pesos
generalizada, y Q' cofactor de varianzas, que son ahora dos matrices completas y en
principio indicarían la aparente presencia de covarianzas inducidas arti�cialmente,
sin justi�cación física alguna, entre los observables.
La explicación se encuentra en que la rotación del vector R hasta R' desplaza al
a�jo de este último fuera del hiperelipsoide canónico
HE ≡ R′T · P ′ ·R′ = k2 = mınimo
lugar de las soluciones de la red, situándole sobre el hiperelipsoide rotado del
anterior alrededor de su centro
R'TP 'R' = k²
Que es ajeno a aquellas. Así, R' no es solución de la red propuesta.
Recíprocamente, factorizar una matriz de pesos generalizada completa P a priori
da lugar a
RT · P ·R =RT · Γ · V · ΓT ·R = (ΓT ·R)T · V · (ΓT ·R) = R′T · V ·R′ (22)
pasando ahora por medio de una rotación de sentido inverso a la anterior, de un
hiperelipsoide cualquiera con centro en el de coordenadas, a su posición canónica
22
respecto a los mismos ejes. Y en de�nitiva y con el mismo razonamiento del caso
anterior, no es lícito ajustar la red con
P ′ = V = (diag µi)
tomando como matriz de pesos P ′ la matriz diagonal de autovalores µi, i⊂
(1,2,...,m) con la notación usual y R′ vector de correcciones.
Es trivial que solamente podría aceptarse, y como solución aproximada, si la
rotación es diferencial y despreciable. Pero no como práctica habitual, en nuestra
opinión con evidente falta de rigor.
No es posible aplicar Gauss-Marcov con matrices de pesos completas ni resolver
la aparición de covarianzas mediante una rotación. Pero ciñéndonos a observables
GNSS vamos a ver que puede resolverse rigurosamente la cuestión actuando sobre
ellos, modi�cándolos. Y más adelante logrando a priori uni�car todos los pesos,
alcanzando en el límite su hiperelipsoide la condición de hiperesfera.
2.3. Caso de observables GNSS y relaciona-
dos con ellos
Es obvio que un observable aislado de Oi, i = orden del observable, i⊂ (1,2,..., m),
m > n = número de coordenadas a determinar, es por de�nición estadísticamente
independiente. Podrá estudiarse y establecerse su distribución, que será normal o
no, pero solamente se podrá hablar de covarianzas cuando se considere su relación
con el resto de los observables componentes del vector O. Esta relación debe
establecerse en su caso por el proyectista y según veremos en seguida, puede actuar
sobre ella con provecho para el trabajo en presencia.
En general y por lo tanto, una función cualquiera
G(O) = 0 (23)
23
Supone la existencia de covarianzas svij entre los observables de dichos subíndices.
En su caso más general, las matrices de diseño: varianza covarianza Σo, cofactor
Q y de pesos P resultarían completas, así como sus inversas.
En la práctica y como supuesto y ejemplo más frecuente, si consideramos en
planimetría la expresión de la distancia reducida lIJ entre dos vértices I, J, referidos
a unos ejes Oxy, puede escribirse en general, sean observables a priori, compensados
a posteriori, o, simplemente, valores calculados
lIJ = (∆x2IJ + ∆y2
IJ)12 (24)
e indudablemente, es lícito suponer que ningún observable del tipo loIJ guarda
relación a priori con otro loKL. Por lo tanto, no se tendrán en cuenta covarianzas del
tipo σloIJ loKL y su matriz varianza covarianza a priori Σloij resulta así una matriz
diagonal y se representará, con todo rigor y como consecuencia de lo expuesto
según
ΣlOij =
σ2lo12
0 0 0 0 0 0 0
0 σ2lo123
0 0 0 0 0 0
−− −− −− −− −− −− −− −−
0 0 0 σ2loij2
0 0 0 0
0 0 0 0 σ2lokm
0 0 0
−− −− −− −− −− −− −− −−
0 0 0 0 0 0 σ2lo(n−3)(n−2)
0
0 0 0 0 0 0 0 σ2lo(n−1)n
=
= (diag σ2loij) i, j ∈ 1, 2, 3,...(n-1), n i 6= j (25)
y ello sean los observables de origen clásico o GNSS .
Evidentemente (25) genera así mismo la matriz de pesos a priori
Σ−1loij
= Ploij = (diag 1σ2loij
) (26)
Siendo de aplicación toda la teoría conocida, recomendándose no obstante y por
supuesto lo ponderación según Pearson por la mediana.
24
En consecuencia, se puede resolver la red por trilateración o lo que es más
importante, agregar el paquete de observables a una red clásica mixta (de ángulos
y distancias y resolver por triangulateración, simplemente por decisión rigurosa y
lícita del proyectista.
Pero si los observables son del tipo (∆xoIJ , ∆yoIJ) apareados, también caso plani-
métrico, o el proyectista estima más procedente considerarlos así, deberá tenerse en
cuenta la existencia de covarianzas σ4xoIJ4yoKL y las matrices varias veces citadas
serán completas, de tipo banda, procedan indirectamente de observables clásicos
o directamente de observables GNSS. Su estructura será como la que escribimos a
continuación
Y retrocediendo al caso anterior, de nuevo los ceros de la matriz (27) ponen de
mani�esto la independencia de las reducidas loij de cada eje observado. Y se reitera
la imposibilidad de establecer a priori una relación funcional entre ellas y por lo
tanto se con�rma con todo rigor la estructura de la matriz varianza covarianza
Σloij como una matriz diagonal del tipo (25).
Retomando la exposición, con todo ello no hacemos sino respetar y adherirnos al
consenso más generalizado de la opinión cientí�ca del momento. En la matriz
(27) se representa según es usual con la notación subíndice IJ una pareja de
observables planimétricos, GNSS, o clásicos, entre los vértices I,J, que hemos
supuesto ordenados de alguna forma para simpli�car la notación, proyecciones
∆X,∆Y , de la reducida loij sobre los ejes coordenados, y siendo σ2 la varianza
de los observables considerados. Se representan solo ejes observados y ordenados
entre puntos consecutivos desde el 1-2 hasta el (n-1)-n, entendiéndose incluidos
en la matriz todos los demás, caso más general posible, siendo n el número de
coordenadas planas de la red.
La matriz (27) resulta simétrica y sus elementos distintos de cero se sitúan
exclusivamente sobre la diagonal principal , la diagonal inmediatamente superior, y
su simétrica respecto de la primera. No existe covarianza alguna entre coordenadas
de vértices cuya reducida no haya sido observada y proyectada sobre los ejes según
25
Figura 2.1: Expresión (27)
26
la bien conocida tecnología GNSS o deducida a partir de observables clásicos.
En general, no se cumple la condición de probabilidad máxima observacional del
método (3) y la matriz Σo y sus matrices deducidas Q y P impiden la aplicación
rigurosa del algoritmo de mínimos cuadrados.
No obstante, está también en manos del proyectista elegir a su buen gobierno
sus propios observables. Y contando con la disposición de éstos en abundancia,
supuesto siempre asumible en microgeodesia donde el número de vértices de
la red en general es escaso, prima la exactitud, y decae frente a ella la
importancia de la reiteración observacional en campo, siendo evidente que
si se suprime un observable de la pareja ∆Xij, ∆Yij , desaparece la
covarianza que relaciona a los dos. Dicha decisión es potestativa del
proyectista y aplicada adecuada y reiteradamente permite suprimir
todas las covarianzas y reducir al ajuste al supuesto fundamental Σo,
Q, y P, matrices diagonales.
Se aplica el cálculo del ajuste por el procedimiento Gauss-Marcov y queda resuelto
el problema, siendo posible desarrollar el principio expuesto en una metodología
más amplia en algoritmo y aplicaciones que denominaremos �de ajuste gaussiano
por incrementos de coordenadas� en la que ni tan siquiera se desaprovechan
observables útiles.
Con ello queda resuelta la cuestión, entendemos que rigurosamente y en toda
su generalidad. Con la ventaja adicional del empleo de matrices de diseño A de
Elementos Exactos, como veremos más adelante.
Pueden así ajustarse rigurosamente redes GNSS, mixtas y clásicas, transformando
los observables a la forma incremental desarrollada.
27
2.4. Teoría y praxis de ajuste doble por in-
crementos de coordenadas: una solución
rigurosa
En síntesis, una observación GNSS facilita la posición aproximada de un punto
respecto a otro, con respecto a un sistema de coordenadas tridimensional que
generalmente es el del elipsoide WGS84.
En la actualidad y en aplicaciones topográ�cas no existe mayor problema
para trasladar los resultados de las observaciones, incluso a través del mismo
instrumento y en tiempo real, a cualquier sistema OXYZ de coordenadas
cartesianas rectangulares topográ�cas locales arbitrariamente escogido, con
su�ciente precisión y para cualquier exigencia razonable. A dicho sistema
suponemos en cuanto sigue referidos los observables genéricos, sean o no GNSS,
que designaremos con la notación ∆Xij, ∆Yij, ∆Zij, proyecciones sobre los ejes de
la distancia entre los vértices I(Xi, Yi, Zi ) y J(Xj, Yj, Zj).
Así, entre dos puntos M y P se podrá escribir
XM −XP = DXMPo +RxMP(28)
YM − YP = DYMpo +RYMP(29)
ZM − ZP = DZMPo +RZMP(30)
Extendidas las expresiones a todos los vértices de la red, se obtiene el sistema de
formas lineales especí�cas, según metodología conocida,
AX = K +R (31)
Cuya inmediata resolución por mínimos cuadrados proporciona directamente las
coordenadas compensadas.
28
En el supuesto que de alguna manera se haya establecido un vector de coordenadas
aproximadas Xa = X − x, se tendrá
XMa −XPa + xM − xP = DXMPo +RxMP
YMa − YPa + yM − yP = DYMpo +RYMP
ZMa − ZPa + zM − zP = DZMPo +RZMP
Y sucesivamente
xM − xP = DXMPo − (XMa −XPa) +RxMP
yM − yP = DYMpo − (YMa − YPa) +RYMP
zM − zP = DZMPo − (ZMa − ZPa) +RZMP
xM − xP = DXMPo −DXMPa +RxMP(32)
yM − yP = DYMpo −DYMPa +RYMP(33)
zM − zP = DZMPo −DZMPa +RZMP(34)
es decir
Correcciones = Valores Observados � Valores Calculados + Residuos
Sistema de formas lineales que puede escribirse en la forma usual (13), idéntico al
utilizado en ajuste de redes clásicas, de observación azimutal y/o distanciométrica,
que puede integrarse con ellas formando el conjunto de lo que llamaremos �red
completa�.
29
Es subrayable que, en el caso completo mencionado y a partir de los observables
clásicos, siempre se podrá disponer a priori de un vector de coordenadas
aproximadas Xa = X − x.
La matriz de diseño A es del tipo de las que llamamos �de elementos exactos�, de
teoría y praxis bien conocida.
Supuesta la dependencia de observables, que da lugar a que su matriz a priori de
varianzas sea completa y de tipo banda como la (27) y convertidos y referidos los
observables GNSS al sistema local de ejes del levantamiento, procede la ulterior
aplicación del método y Test de Pearson para de�nir estadísticamente la mejor
estimación de la matriz citada.
Hemos visto que la relación de dependencia de observables y su evaluación forma
parte del trabajo y buen hacer subjetivo del proyectista. No son matemáticamente
graduables, y menos aún rigurosamente cifrables, e igual que en las redes clásicas
nos referíamos a posteriori a la cumplimentación sobrevenida de condiciones de geo-
metricidad, y aceptábamos la aparición de covarianzas, en redes GNSS obraremos
igual. Solo que a priori, lo que es esencial para determinar la aplicación o no del
ajuste gaussiano, aceptando que basta con tener en cuenta que el módulo del vector
distancia entre dos vértices
L2MP = ∆X2
MP + ∆Y 2MP + ∆Z2
MP (35)
corresponde a una realidad física indudable que implica aceptar la existencia de
covarianzas entre los observables � componentes.
En dicho supuesto y aplicado a planimetría, según venimos haciendo, sin di�cultad
alguna para completarlo con la altimetría cuando sea preciso, y así lo llevaremos
a cabo en su momento, escribiremos la forma bidimensional
I2MP = ∆X2
MP + ∆Y 2MP (36)
y también y con la notación bien conocida
30
lMP = lMPca + dlMPca = lMPo +RlMPo (37)
cuya forma lineal es
−XPa−XMa
lMPca· dXM − YPa−YMa
lMPca· dYM + XPa−XMa
lMPca· dXP + YPa−YMa
lMPca· dYP =
= lMP − lMPca +RlMPo
o bien
−∆XMPa
lMPca· dXM − ∆YMPa
lMPca· dYM + ∆XMPa
lMPca· dXP + ∆YMPa
lMPca· dYP =
= lMP − lMPca +RlMPo (38)
con
I2MPca = l2MPca = ∆X2
MPa + ∆Y 2MPa (39)
Y queda la cuestión fundamental a resolver en que condiciones puede aceptarse
la cumplimentación de la condición Gauss�Marcov, junto con el adecuado
tratamiento de las covarianzas a priori. En una palabra, la única opción sensata
pasa por calcularse algún estimador �able de la matriz So varianza covarianza de
observables (27).
A juicio del proyectista, puede aceptarse la aplicación de cualquiera de los
programas, instrumentales o no, que existen en el mercado para obtener So.
Sin embargo, entendemos preferible y con mayor poder de a�rmación realizar la
estimación especí�ca en cada ajuste y caso particular.
Un método adecuado es el clásico antes citado debido a Karl Pearson, que requiere
la comprobación previa de la normalidad de las variables a estudiar.
Hecho esto, calcularemos para cada componente (∆XMPo, ∆YMPo) de los lados
observados lMPo = Oli al variar M , P , los estadísticos siguientes con los que
calculamos la matriz varianza covarianza So:
31
σ2∆XMP
= Σ(∆XMPo−∆XMPo)2
nMP−1= varianza de∆XMPo (40)
σ2∆YMP
= Σ(∆YMPo−∆YMPo)2
nMP−1= varianza de∆YMPo (41)
σ∆XMPo,∆YMPo= Σ(∆XMPo−∆XMPo)·(∆YMPo−∆YMPo)
nMP−1=
= covarianza de ∆XMPo∆YMPo (42)
CR∆XMP ,∆YMP=
σ∆XMPo,∆YMPo
σ∆XMP·σ∆YMP
=
= Coe�ciente de correlación de ∆XMPo∆YMPo (43)
Así puede formarse la matriz varianza covarianza a priori (27) So.
Pueden incluso calcularse y gra�arse también las líneas de regresión y se recuerda
que:
−1(maxima correlacion negativa) ≤ CR ≤ +1(maxima correlacion positiva)
CR = 0, indica independencia de variables
Pues bien, si después de aplicar con éxito el Test de Pearson, rati�cando la
distribución normal de las variables estudiadas, se forma Slo, matriz varianza cova-
rianza, y se aprecia que las covarianzas resultantes en conjunto son a juicio del
proyectista su�cientemente pequeñas, y si, además, los coe�cientes de correlación
se encuentran en el entorno de cero, puede a�rmarse que no existe relación entre
las variables DXMPo, DYMPo, a fortiori tampoco entre las lMPo y en el caso que
nos ocupa está justi�cado efectuar el ajuste gaussiano por el procedimiento usual
a los observables GNSS, por separado en cualquiera de los dos casos supuestos y
así mismo englobados en una red completa.
Naturalmente y según costumbre, ese desideratum no acostumbrará a suceder y
serán mucho más frecuentes los casos dudosos.
32
Entonces procede actuar sobre los observables, suprimiendo los su�cientes para
conseguir matrices parciales diagonales S′o y aplicar a cada una de ellas el
procedimiento general de ajuste.
Dichas matrices deben permitir en principio calcular la totalidad de las coorde-
nadas de los vértices de la red, siendo buena práctica no desaprovechar trabajo útil
de campo y utilizar todos los observables aceptados tras el Test de Pearson en-
cuadrándolos adecuadamente en distintas matrices individualizadas. Se obtendrán
así un mínimo de dos soluciones Gauss Marcov de la red, comparables y prome-
diables.
También pueden formularse matrices que permitan calcular separadamente todas
las correcciones �x� y todas las �y�. Bastará para ello con formar separadamente
las matrices de los observables DX e DY . Teniendo en cuenta no obstante que
ambas soluciones serán Gauss Marcov.
Caben por supuesto todas las combinaciones intermedias dictadas por el buen
juicio del proyectista ante la exigencia y mejor cumplimentación del trabajo
encomendado.
2.5. Posibles soluciones aproximadas
Suponemos determinada la matriz general (27) So a través del algoritmo de
Pearson, según la doctrina referida aplicada especí�camente al ajuste en presencia.
El resultado obtenido es tal vez más artesanal, pero individualizado y difícilmente
discutible, supuesto fruto de una observación adecuada instrumentalmente,
metodológicamente rigurosa y su�cientemente reiterada para que el vector de
observables sea geodésica y estadísticamente correcto. En caso contrario, es inútil
seguir adelante. De nuevo insistimos en considerar menos �able la aplicación
automática de programas comerciales acompañen o no a la instrumentación
empleada.
33
A juicio del proyectista, puede suceder que considere las covarianzas obtenidas
despreciables frente a las varianzas. Es un caso banal de resolución inmediata.
En general, aunque solo sea por inevitables errores de muestreo, siempre aparecerán
covarianzas en mayor o menor magnitud y cuantía. Estas covarianzas aparentes
estimadas deberán ser juzgadas y, en su caso, despreciadas y no se tendrán en
cuenta, también según criterio del proyectista.
Es el caso de observables clásicos triangulados, trilaterados, y triangulaterados y
observables GNSS triangulaterados, todos a priori independientes.
Sin embargo, si nos referimos especí�camente al caso que nos ocupa, de observa-
bles GNSS o clásicos a priori dependientes, como los planimétricos DX e DY
contemplados en (4) y en dicho supuesto, es muy improbable que las covarianzas
(42) resulten o puedan considerarse despreciables.
Un primer recurso consiste en factorizar So, completa, y en consecuencia Q y P
que aceptamos como matriz de pesos generalizada. Así escribimos (22), con la
notación usual
RT · Γ · V · ΓT ·R = (ΓT ·R)T · V · (ΓT ·R) = R′T · V ·R′ = k2 = mınimo (44)
con
R′ = ΓT ·R (45)
que no es una solución Gauss Marcov.
R′ es el vector R sometido a una rotación ΓT siendo G matriz de autovectores
columna de P .
R′ y R tendrán el mismo módulo y distintos componentes.
De tomarse R′ por R y V , matriz diagonal de autovalores de P por P ′, matriz
diagonal de pesos, se obtendrán X ′ y C ′, soluciones aproximadas distintas de X y
C, que sabemos no gaussianas, por situarse el a�jo de R′ según hemos visto fuera
34
del lugar geométrico de R. Puede de�nirse como solución aproximada de la red, con
un modelo matemático desconocido y distinto a la expresión general F (X)−C = 0
, caso observaciones indirectas, de universal aplicación y único que consideramos,
si resulta despreciable la rotación ΓT .
Siempre teniendo en cuenta que el modelo matemático de obligado cumplimiento
que de�ne e individualiza la solución del ajuste y la correspondiente aplicación
mínimo cuadrática gaussiana son teóricamente incompatibles por la condición de
P como matriz banda.
La factorización permite la aplicación descrita con una aproximación que, a lo
menos, es conveniente estudiar.
El criterio de aceptación o rechazo puede basarse en la propia matriz cuadrada G
de rango completo R (G) = m = número de componentes Ri de R a determinar,
que de�nimos como �columna� por estar formadas éstas por los componentes de
los autovectores de P en dicha disposición, que representamos por la notación
autovectores columna =vi, i ⊂ 1, 2, 3, ...,m
vi =
vi1
vi2
....
vik
....
vim
(46)
matriz Γ = (v1 v2 v3 ... vm)
Será tanto más aceptable la solución propuesto cuanto mejor cumpla G la condición
vik ∼= 0 =⇒ k 6= j
vij∼= 1 (47)
en el límite de dicho supuesto la transformación puede considerarse diferencial y
despreciable. Llegando a ser G matriz próxima a la matriz identidad.
35
2.6. Síntesis y conclusión
La condición Gauss-Marcov aplicable al ajuste de una red local o microgeodésica
se expresa según:
RT · P ·R = k2 = mınimo
siendo la matriz P generalizada, una matriz cuadrada, completa, simétrica, de
rango completo y factorizable según (44), esta expresión representa un haz
de hiperelipsoides concéntricos en el espacio euclídeo Em, con centro en el de
coordenadas, al variar el parámetro k2. Cada k2 da lugar a un hiperelipsoide HEG.
Insistimos en que existen covarianzas a priori entre los observables y sus residuos.
Las soluciones Gauss-Marcov del ajuste de una red local se generan y relacionan
con aquella cuando el haz es canónico y k2= mınimo. Entonces P = (diagpi)
cuadrada, diagonal y de rango completo. El hiperelipsoide HE resultante,
canónico, referido a sus ejes, es el lugar geométrico de los a�jos de R, soluciones
de la red. Un modelo matemático linealizado Ax − K = R, con R(A) = m − n,
completo, particulariza R y da lugar a la solución determinista única que venimos
estudiando, aplicada a la determinación de un solo vértice variable. Si R(A) <
m− n, incompleto, caso red libre, habrá in�nitas soluciones, situación de notable
utilidad en otros aspectos de la teoría de redes, con determinación de más de
un vértice variable y división de la red en distintas zonas especí�cas, que hoy
no contemplamos. En cualquier caso, no existen covarianzas a priori entre los
observables o sus residuos.
En el caso general, si k2 = mınimo se obtiene un hiperelipsoide genérico HEG′
que no es una solución Gauss-Marcov rigurosa. La factorización de la matriz P
conduce al mismo resultado que una rotación de argumento GT siendo G matriz de
autovectores columna de P y re�ere HEG′ a sus ejes, con expresión canónica (44)
HE ′ = R′T · V ·R′ = k2 = mınimo (48)
36
que es una solución Gauss-Marcov de una cierta red de matriz diagonal de pesos
P ' = V = (diag vi)
con un modelo matemático y condicionado complementario desconocidos, que
puede aceptarse por aproximada de la red en presencia con todas las reservas
necesarias y siempre de acuerdo con el contenido del epígrafe 2.5 anterior.
Así mismo y en el caso general, si todos los autovalores de P resultaran iguales,
según vi = v, se tendrá
RT · Γ · V · ΓT ·R = RT · Γ · (diag v) · ΓT ·R = RT · v · (Γ · ΓT ) ·R = RT · v · I ·R =
= RT · (diag v) ·R = RT · V ·R = (√v ·R)T · (
√vT ·R) = R′′T ·R′′ = k2 =
mınimo (49)
resultando HEG′ particularizado como una hiperesfera HES ′, de radio k,
transformada por homotecia de la HES de radio 1√v· k , lugar geométrico de
soluciones rigurosas Gauss-Marcov de modelos desconocidos. No existen tampoco,
como debe ser, covarianzas a priori.
Y es claro que una rotación arbitraria Γ′T transforma HE, lugar de soluciones
Gauss Marcov, en HEG′ fuera de dicho lugar, originando la aparición de cova-
rianzas inducidas a priori. Y cuanto se ha dicho de HE y HEG′ puede decirse
correlativamente del a�jo del vector R, solución Gauss-Marcov, y del a�jo del
vector R′, rotado de R que no es solución.
En conclusión, la solución Gauss-Marcov es rigurosamente incompatible con
las covarianzas estudiadas aparecidas a priori o inducidas, que siempre pueden
explicarse a través de una rotación directa genérica de matriz ΓT o Γ′T , o una
rotación inversa Γ o Γ′, del n-edro coordenado. Pueden evitarse modi�cando los
observables, en especial los GNSS según se explica en los epígrafes anteriores,
aplicando triangulateración o doble ajuste por incrementos de coordenadas. Con
ello se resuelve rigurosamente el problema.
37
Merece la pena no obstante y en la práctica estudiar la posibilidad de existencia
de solución aproximada.
Finalmente, es claro que la solución HES, hiperesfera, permite una capacidad
de proyecto y diseño muy superior a la HE, hiperelipsoide, y debe perseguirse.
Conduce a proyectar redes de observables lo más aproximados a equiprecisos y a
la aplicación ulterior de técnicas relacionadas con el conocido Problema de Diseño
de Orden Dos PD2. En cualquier caso, nos hallamos de nuevo ante una cuestión
de proyecto y tratamiento de pesos de observables. En otro orden de ideas, debe ser
preceptivo para el proyectista garantizar la aplicación correcta a posteriori de los
F-Test y χ2 - Test en el entorno de sus óptimos respectivos asegurándose de que
número de observables y redundancias estén relacionados convenientemente. En
próximos trabajos D.m. abordaremos en detalle la doctrina y praxis concernidas.
Adelantamos que, para avanzar en el campo de los recintos de error en redes locales,
cualquiera que sea su dimensión y sean totales o especí�cos, desarrollaremos alguna
idea que entendemos novedosa sobre el paralelismo existente entre el hiperelipsoide
a priori de observables (4)
HEo = RT · P ·R = RT · σ2 · Σ−10 ·R = k2 = mınimo (50)
y el de correcciones a posteriori
HExx = xT · S · x = xT · AT · P · A · x = xT · σ2 · σ−1xx · x = f 2
α (51)
a los que por primera vez distinguimos por medio de los subíndices �o� y �xx�.
Ambos, por ejemplo, dependen de P y del vector K = OT − OC, diferencia entre
valores observados y calculados de los observables. Es decir y como era de esperar,
de la calidad del trabajo en campo, exigiendo que sea excelente.
Es en nuestra opinión la gran verdad, que surgirá siempre a través de nuevos al-
goritmos (hiperpodarias, integrales múltiples extendidas a paraleletópodos, análisis
multivariante, etc...). Hoy por hoy, y tal parece que durante un futuro no limitado,
38
exigiendo también la intervención humana directa, dentro de un marco tecnológico
tipo de ingeniería superior.
39
Capítulo 3
Aplicación del método de
incrementos de coordenadas en una
red clásica
Se vuelve a la red local situada en la Universidad Politécnica de Valencia
sobre la que los autores realizaron un primer trabajo de ajuste y compensación
planimétricos por el Método de Triangulateración, con vector de observables mixto,
compuesto por medidas angulares azimutales y distancias reducidas electrónicas,
cuyo desarrollo y resultado se recoge en una publicación anterior1.
A partir de una nueva observación de la red en estudio se hará un primer ajuste
por triangulateración y una vez completado el cálculo se propone el ajuste por el
método de incrementos de coordenadas.
Con ello será posible comparar rigurosamente la metodología y resultados
del ajuste por triangulateración y del ajuste por incrementos de coorde-
nadas.Veri�cando la validez de ambos métodos de ajuste gaussiano determinista.
1
Op. cit. �Progreso en la práctica del ajuste gaussiano de una red local...�, de Mª Jesús JiménezMartínez et alt., cuyo contenido, especialmente en datos y resultados, suponemos reproducidoy utilizaremos sistemáticamente en las páginas que siguen.
40
3.1. Resolución por Triangulateración
Con el �n de veri�car la bondad de los resultados del método de incrementos de
coordenadas se resolverá la red por Triangulateración en primera instancia.
3.1.1. Monumentación, materiales y características
constructivas
Tres de los cuatro pilares forman parte de la red de calibración de la Universidad
Politécnica de Valencia2 que se pretende densi�car con un nuevo vértice.
Dichos pilares V1, V3 y V4 son de acero inoxidable de 1.2 m de altura y diámetro
exterior de 22 cm. Se construyeron en doble tubo concéntrico con una cámara
de aire que separa el tubo interior anclado directamente a cimentación, del tubo
exterior cuyas funciones básicas son de protección tanto frente a posibles agresiones
externas como a la posible dilatación por insolación directa.
En cuanto al pilar V2 es de acero y está anclado sobre el hormigón de la vía
del campus universitario, tiene una altura de 1.3 m., y en la parte superior tres
alineaciones para estacionar la basada.
3.1.2. Especificaciones técnicas de la estación total
utilizada
Se utilizaron las distancias y los ángulos medidos con la estación total TS15I de
la marca Leica.
El cuadro de características técnicas de catálogo está contenido en el cuadro 3.1.
2
Cfr. �Base de calibración de la Universidad Politécnica de Valencia: descripción y medición�, deJosé Luis Berné et alt. Actas del IX Congreso Nacional TOPCART, Valencia 2008.
41
Fabricante LeicaModelo TS15I
Precisión angular 3cc
Precisión distanciométrica 1 mm + 1,5 ppmCompensador automático 2 ejes
Aumentos 30
Cuadro 3.1: Característica técnicas de la estación total de la casa Leica
La medida de precisión angular (entendida como repetibilidad) está expresada
como la desviación típica de una coordenada medida una vez en CD y CI. Y la
medida de precisión en distancia está expresada como la desviación típica de una
coordenada medida una vez en CD y CI. Según las normas ISO 17123.
La observación se ha realizado por especialistas del Laboratorio de Instrumentos
Topográ�cos3 de la Escuela de Ingeniería Geodésica de la Universidad Politécnica
de Valencia.
3.1.3. Observaciones angulares azimutales
Se observaron independientemente los 12 azimutes de la red, (tres por vértice), con
la nomenclatura indicada.
La correcta aplicación del ajuste por mínimos cuadrados requiere como condición
previa la distribución normal de cada uno de los observables, que implica así mismo
la distribución normal de los residuos. A este efecto se ha contrastado cada uno
de los azimutes a través del Test de Adherencia de Pearson.
Los azimutes, junto a su número de lecturas por azimut: n, desviación típica y
varianza, y el nivel de aceptación del Test de Pearson, son los siguientes:
3
El trabajo de observación ha recaído directamente sobre José Manuel Paredes Asencio.
42
Azimutθv4−v2
Azimut = 54,75546 g
n = 20desviación típica = σ = 1,7cc
varianza = σ2 = 2,85·10−8
nivel de aceptación= 91%
Azimutθv2−v1
Azimut = 312,32077 g
n = 20desviación típica =σ =5,9 cc
varianza = σ2 = 3,49·10−7
nivel de aceptación= 81%
Azimutθv3−v2
Azimut = 395,68190g
n = 20desviación típica = dα=2,6 cc
varianza = σ2 = 6.75·10−8
nivel de aceptación= 76%
Azimut:θv2−v3
Azimut = 195,68170 g
n = 20desviación típica = dα= 2,5 cc
varianza = σ2 = 2.5·10−7
nivel de aceptación= 86%
43
Azimut:θv2−v4
Azimut = 254.75551 g
n = 20desviación típica = dα= 2,6 cc
varianza = σ2 = 6.75·10−8
nivel de aceptación= 79%
El azimut θv2−v1 lo hemos rechazado por tener una varianza excesiva respecto al
resto de azimutes, y puede desestabilizar la homogeneidad de los pesos.
Hemos considerado como único vértice libre el V2, por lo tanto, los azimutes entre
vértices �jos no aparecen re�ejados en este epígrafe.
El número de decimales afecta decisivamente al nivel de bondad que se obtenga
en el Test de Pearson. El instrumento alcanza los 4 decimales, y la media entre
círculo directo e inverso puede añadir uno más. De modo que hemos tomado los
azimutes con 5 decimales, nos parece que no tiene sentido superar ese número.
3.1.4. Observaciones distanciométricas
Desde cada uno de los vértices se observan las distancias a los tres vértices
restantes. Las distancias reducidas se han obtenido a partir de las distancias
geométricas y ángulos verticales.
Las distancias reducidas, junto a su número de lecturas por distancia: n, desviación
típica, varianza, y nivel de aceptación del Test de Pearson, son las siguientes:
Distancia reducida V4V283,14996 m.n = 20
desviación típica = σ = 0,25 mm.varianza = σ2 = 6,2·10−8 m.nivel de aceptación = 87%
44
Distancia reducida V3V266,38916 m.n = 10
desviación típica = σ = 0,22 mm.varianza = σ2 = 4,9·10−8 m.nivel de aceptación= 83%
El resto de distancias no se ajustaban a las exigencias de normalidad, de desviación
típica y de valor en el vector de términos independientes K.
Hemos aplicado el Test de Pearson a las distancias redondeando al cuarto decimal
porque no es posible llegar a la centésima de milímetro en la observación de un
vértice con la instrumentación de la que disponemos, y en la actualidad quizá con
ninguna otra.
3.1.5. Cálculo de la Consistencia de la Figura y op-
timización del camino de cálculo del vector
Xa
Sea el esquema aproximado de la red representado en la Fig.3.1, que siempre podrá
obtenerse a partir de los datos de campo.
45
Figura 3.1: Croquis de la red
El camino V3V4V2�V2V4V1 resulta ser el más apropiado para la triangulación,
caso que nos ocupa, con un parámetro de consistencia C = 5 (mejor consistencia
angular). En el triángulo V3V4V2 se partirá del lado V3V4 para calcular el V4V2
y seguidamente en el V2V4V1 se partirá del V2V4 y se calculará el V2V1.
Si se tratara de trilaterar, el camino mejor sería el V3V4V2-V3V1V2, con
parámetro de consistencia C = 22 (mejor consistencia distanciométrica).
3.1.5.1. Cálculo de las coordenadas aproximadas por el
camino de mejor consistencia angular
Hemos calculado las coordenadas aproximadas de nuestros vértices siguiendo el
camino de mejor consistencia angular, que es el que ofrece la cadena de triángulos
V3V4V2�V2V4V1. Lo hemos hecho siguiendo los pasos que siguen.
1. Elegimos arbitrariamente las coordenadas del vértice V4:
x4 = 100 m.
y4 =100 m.
46
2. Adoptamos un azimut arbitrario V4-V34:
θ = 111,19012g
3. Según la libreta de campo la distancia reducida V4-V3 es 68,57579 m.
4. Con la distancia y el azimut V4-V3 obtenemos las coordenadas de V3:
x3 = 167,51914 m.
y3 = 88,00813 m.
5. Por intersección directa, a partir de las coordenadas V3 y V4 y los ángulos
56,43465g y 84,49178g obtenemos las coordenadas de V2:
x2 =163,01957 m.
y2 = 154,24381 m.
6. Finalmente, por intersección directa a partir de las coordenadas V2 y V4, y los
ángulos 57,56525g y 54,75547g obtenemos las coordenadas de V1:
x1a =100 m.
y1a =166,59479 m.
Diremos que estas coordenadas aproximadas son las mejores para la triangulación
pura, se identi�can con el subíndice a.
4
A partir de la libreta de campo se obtiene este azimut aproximado, tomando como eje origen delecturas azimutales el V4-V1.
47
3.1.5.2. Cálculo de las coordenadas aproximadas por el
camino de mejor consistencia distanciométrica
Hemos calculado las coordenadas aproximadas de nuestros vértices siguiendo el
camino de mejor consistencia distanciométrica, que es el que ofrece la cadena de
triángulos V4V3V2�V3V1V2. Las coordenadas de los vértices V2, V3 y V4 resultan
las mismas que las que provienen del camino de mejor consistencia angular.
Y el vértice V1 lo calculamos con el triángulo V3V1V2 según la �gura 3.2.
Figura 3.2: Croquis del triángulo V3V1V2
Con los ángulos interiores del triángulo V3V1V2:
V 3 = 40, 86761g
V 2 = 59, 07382g + 57, 56525g = 116, 63907g
Y con las coordenadas de los vértices V3 y V2 obtenemos las nuevas coordenadas
del vértice V1:
xV 1d =100,00254 m.
48
yV 1d =166,59455 m.
Diremos que estas coordenadas aproximadas son las mejores para resolver la
trilateración, se identi�can con el subíndice d.
Si queremos calcular una triangulateración las coordenadas aproximadas óptimas
serán la media entre las coordenadas calculadas por el camino de mejor consistencia
angular y las del camino de mejor consistencia distanciométrica. Resultando que
las coordenadas del vértice V1 serán:
xV 1m=(xV 1a + xV 1d)/2 = 100+100,002542
= 100,00127 m.
yV 1m = (yV 1a + yV 1d)/2 = 166,59479+166,594552
= 166,59467 m.
NOTA: Creemos que quizá sería más correcto ponderar los caminos de consistencia
en función del número de observables de cada tipo: sabiendo que tenemos 5
observables de ángulo y 2 de distancia. De modo que podríamos ponderar siguiendo
la ecuación que proponemos, y obtener la coordenada xV 1p:
xV 1p = numero de observables angularesnumero total de observables
·xV 1a+numero de observables distanciometricosnumero total de observables
·xV 1d =
= 57·100+2
7· 100, 00254 = 100,0007 m.
La diferencia con xV 1m(= 100,00127 m.) es de 5 décimas de mm., de modo que
adoptamos la coordenada aproximada xV 1 = 100,0007 m.
En cuanto a la coordenada yV 1p:
yV 1p = numero de observables angularesnumero total de observables
·yV 1a+numero de observables distanciometricosnumero total de observables
·yV 1d =
=57· 166, 59479+2
7·166, 59455= 166,59472 m.
La diferencia con yV 1m(=166,59467 m.) es de 5 centésimas de mm., nos movemos
en términos de magnitud despreciable. Adoptamos yV 1m = 166,59472 m.
49
3.1.5.3. Las coordenadas aproximadas definitivas
Finalmente las coordenadas aproximadas que emplearemos en lo sucesivo son las
que siguen:
Vértice X [m] Y [m]
V1 100,0007 166,59472
V2 163,01957 154,24381
V3 167,51914 88,00813
V4 100 100
3.1.6. El factor de conversión y el peso de las formas
lineales de azimut
Siguiendo el protocolo de actuación de la triangulateración hemos calculado
los factores de conversión y las varianzas σ2o (que en la publicación anterior5
llamábamos varianzas proporcionales vpαij) de todas las ecuaciones de azimut,
que recogemos en las siguientes tablas:
Ecuación Azimut :θij =θv4−v2 Factorij=lij ·senλij
µσ2o = vpαij = (
lij ·dα·senλµ
)2
Azimut = 54,75547 g 8, 64 · 10−5 2, 13 · 10−8m2
error angular = dα= 1,7cc
Distancia= lij = 83,14996 mλij = 46,00g
Ecuación Azimut :θij =θv2−v1 Factorij=lij ·senλij
µσ2o = vpαij = (
lij ·dα·senλµ
)2
Azimut = 312,32076 g 8, 37 · 10−5 3, 55 · 10−7m2
error angular = dα= 5,9cc
Distancia= lij = 64,21704 mλij = 100,00g
5
Epígrafe 4.4 del artículo �Progreso en la práctica del ajuste gaussiano de una red local�, de Mª
Jesús Jiménez Martínez et alt.
50
Ecuación Azimut :θij =θv3−v2 Factorij=lij ·senλij
µσ2o = vpαij = (
lij ·dα·senλµ
)2
Azimut = 395,68190g 8, 06 · 10−5 4, 39 · 10−8m2
error angular = dα= 2,6cc
Distancia= lij = 66,38916 mλij = 56,29g
Ecuación Azimut :θij =θv2−v3 Factorij=lij ·senλij
µσ2o = vpαij = (
lij ·dα·senλµ
)2
Azimut = 195,68170 g 1 · 10−4 2, 75 · 10−7m2
error angular = dα= 5cc
Distancia= lij = 66,38916 mλij = 100,00g
Ecuación Azimut :θij = θv2−v4 Factorij=lij ·senλij
µσ2o = vpαij = (
lij ·dα·senλµ
)2
Azimut = 254,75551 g 1, 3 · 10−4 1, 15 · 10−7m2
error angular = dα= 2,6cc
Distancia= lij = 83,14996 mλij = 100,00g
3.1.7. El factor de conversión y peso de las formas
lineales de distancia
A continuación, las tablas con factores de conversión y varianzas proporcionales
de todas las ecuaciones de distancia:
Ecuación Distancia : Dv4−v2 Factorij=cosλij σ2o = vplij = dl2ij · cos2λij
error dist = dl= 2, 5 · 10−4m 0,7501 3,5·10−8m2
Distancia= lij = 83,14996 mλij = 46,00g
51
Ecuación Distancia : Dv3−v2 Factorij=cosλij σ2o = vplij = dl2ij · cos2λij
error dist = dl= 2, 2 · 10−4m 0,634 1,98·10−8m2
Distancia= lij = 66,38916 mλij = 56,29g
3.1.8. Los pesos homogeneizados
Una vez conocida la varianza de cada una de las formas lineales de azimut y
distancia, que hemos llamado en el epígrafe anterior σ2o(= vpi), seleccionamos de
entre todos ellos el valor de la mediana, que desde ese momento se convierte en el
estimador de la varianza a priori del observable de peso unidad6 σ2o = vp2
mediana.
La mediana es σ2o = 4 , 39 · 10−8 . Y �nalmente calcularemos el peso de cada
observable con la expresión:
POTi = σ2o
σ2oi
=vp2mediana
vpi2
Resultando:
PO1a = σ2o
σ2oi
=vp2mediana
vpi2=2, 07
PO2a = σ2o
σ2oi
=vp2mediana
vpi2=0, 12
PO3a = σ2o
σ2oi
=vp2mediana
vpi2=1
6
Consideramos que el valor de la varianza del observable de peso unidad σ20 que más se ajusta
a su valor real es el de la mediana de los valores de σoTi , obtenidos a partir de los datos decampo. Y así lo hemos hecho en nuestros cálculos, mejorando notablemente tanto el resultadocomo su interpretación. A�rma Jean M. Rüeger en el artículo �Precision of measurements andleast squares�, presentado en el 37th Australian Surveyors Congress, 13-19 April 1996 Perth,Western Australia: ...Not knowing what precision values to use, many student and professional
surveyors resort to the �acuracy speci�cations� published by the manufacturers or some other
magic �precision values� from textbooks. In most instances, these �acuracy speci�cations�
and other �precision values� are totally inappropiate for the weighting of least
squares data. They should not be used for this purpose.
52
PO4a = σ2o
σ2oi
=vp2mediana
vpi2=0, 16
PO5a = σ2o
σ2oi
=vp2mediana
vpi2=0, 38
PO1d= σ2
o
σ2oi
=vp2mediana
vpi2=1, 25
PO2d= vp2
o
σ2oi
=2, 22
3.1.9. Ecuaciones de azimut y de distancia facto-
rizadas
Las 5 formas lineales azimutales y las 2 formas lineales de distancia del sistema
de ecuaciones que resolveremos por el método de variación de coordenadas,
constituyen la matriz A y el vector de términos independientes K:
variable dxv2 variable dyv2 dθv2 K
Azimut θv4−v2 4994,70575 -5802,76734 0 −4, 95 · 10−2
Azimut θv2−v1 -6125,11174 -4767,88240 -1 −2, 09
Azimut θv3−v2 9567,28096 649,93143 0 −2, 94 · 10−2
Azimut θv2−v3 5348,84348 5610,29059 -1 −1, 74 · 10−1
Azimut θv2−v4 776,26827 -842,40818 -1 2, 27
Distancia Dv4−v2 0,75791 0,65236 0 3, 53 · 10−4
Distancia Dv3−v2 -0,06778 0,99770 0 8, 22 · 10−4
Las diferencias entre los valores del vector K se deben fundamentalmente a las
unidades del tipo de ecuación (azimut/distancia).
Según la teoría expuesta anteriormente sobre el método de cálculo de la
triangulateración en ajuste gaussiano7, es imprescindible convertir las unidades7
Nos referimos de nuevo al artículo �Progreso en la práctica del ajuste gaussiano...�, de Mª JesúsJiménez Martínez et alt.
53
angulares de las ecuaciones de azimut en unidades lineales [m]. Conocido el
factor de conversión de cada una de las ecuaciones de azimut multiplicaremos
ordenadamente a las 7 ecuaciones para obtener las nuevas expresiones resultantes:
variable dxv2 variable dyv2 dθv2 K
Azimut θv4−v2 0,43154 -0,50136 0 −4, 27 · 10−6
Azimut θv2−v1 -0,51278 -0,39916 -1 −1, 75 · 10−4
Azimut θv3−v2 0,77164 0,05242 0 −2, 37 · 10−6
Azimut θv2−v3 0,55780 0,58506 -1 −1, 82 · 10−5
Azimut θv2−v4 0,10139 -0,11003 -1 2, 96 · 10−4
Distancia Dv4−v2 0,56851 0,48934 0 2, 65 · 10−4
Distancia Dv3−v2 -0,04296 0,63245 0 5, 21 · 10−4
La factorización del vector K ha convertido en unidades lineales [m] sus valores y
eso nos permite advertir errores que no hayamos detectado antes.
3.1.10. El vector de variables, el vector de residuos
y la varianza a posteriori del observable de
peso unidad
El resultado se expresa según:
- diferencial de la coordenada x: dxV 2,
- diferencial de la coordenada y: dyV 2
- y por último el diferencial del error debido al descentrado de la línea de ceros del
limbo: dθv2, en el vértice V2. Este error está asociado sólo a la ecuación de azimut,
y no a la ecuación de ángulo. No aporta nada a nuestro resultado, pero asume
la existencia de ese error y le da un valor, completando así las correcciones del
vértice V2. Si el parámetro dθv2 no estuviera incluido en el sistema de ecuaciones
normales quedarían afectados desfavorablemente los valores dxV 2 y dyV 2. Cuando
estudiemos los errores de redondeo eliminaremos no obstante este parámetro, sin
perjuicio de la calidad del resultado �nal, de forma matemáticamente rigurosa.
54
VARIABLES O PARÁMETROS [m]diferencial de la coordenada x: dxV 2=1.149E-004diferencial de la coordenada y: dyV 2=5.015E-004diferencial del descentrado θ: dθV 2=-1.197E-004RESIDUOS [m]-1.98E-0043.559E-0051.173E-0044.95E-004-2.198E-0044.574E-005-2.087E-004Varianza de la medida de peso ud. = 6.2E-008 m2
Desv. típica de la medida de peso ud. = 2.5E-004 m
Los residuos son muy similares y podemos comprobar que tanto las observaciones
distanciométricas como las azimutales son de análoga precisión.
La desviación típica a posteriori del observable de peso unidad 2, 5 · 10−4 m es la
esperable, considerando que la desviación típica a priori8del observable de peso
unidad es 2, 1 · 10−4 m (recordemos que es el valor de la mediana de los valores
obtenidos a partir de las estadísticas de la libreta de campo). La diferencia entre la
desviación típica a priori y a posteriori, con�rma la bondad del cálculo y trabajo.
No se olvide que la varianza a posteriori del observable de la medida de peso unidad
es un parámetro fundamental entre otras cosas porque multiplica a las matrices
de criterio del ajuste.
8
Siendo el vector de observables O, el de observables promediados OT , el factor de varianza depeso unidad σ2, para un observable de orden i, (i ε 1, 2, 3, ...mi, para mi > 1), se obtendrá apartir de la ecuación:
σ2oi =
∑(OTi−Oi)
2
mi−1El valor de la varianza muestral es muy próxima a la que propone el fabricante de la estacióntotal que hemos utilizado. Podría justi�carse la utilización de la varianza poblacional en lugarde la muestral.
55
3.1.11. Las matrices de criterio: matriz cofactor
de las variables o parámetros, matriz co-
factor de los residuos, matriz cofactor de
los observables corregidos, matriz varianza-
covarianza de las variables o parámetros, ma-
triz varianza-covarianza a posteriori de los
residuos, y matriz varianza-covarianza a pos-
teriori de los observables corregidos
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+000.68197976 +000.01823947 +000.06855640
+000.01823947 +000.55952194 +000.00513607
+000.06855640 +000.00513607 +001.52206269
Matriz cofactor de los RESIDUOS
+000.22334435 +000.06440368 -000.20574663 +000.02746301 -000.03190138 -000.02869836 +000.18468484
+000.06440368 +006.46092520 +000.34083251 -001.18275611 -001.54228960 +000.35829711 +000.13213281
-000.20574663 +000.34083251 +000.59091691 -000.26629570 +000.00449318 -000.32095172 -000.00480268
+000.02746301 -001.18275611 -000.26629570 +004.39481043 -001.47694457 -000.34600367 -000.19636561
-000.03190138 -001.54228960 +000.00449318 -001.47694457 +001.10891021 +000.03253929 +000.04095410
-000.02869836 +000.35829711 -000.32095172 -000.34600367 +000.03253929 +000.43546747 -000.16267775
+000.18468484 +000.13213281 -000.00480268 -000.19636561 +000.04095410 -000.16267775 +000.22637808
Matriz cofactor de los observables corregidos
+000.25974743 -000.06440368 +000.20574662 -000.02746302 +000.03190138 +000.02869835 -000.18468485
-000.06440368 +001.87240813 -000.34083251 +001.18275611 +001.54228959 -000.35829711 -000.13213282
+000.20574662 -000.34083251 +000.40908308 +000.26629570 -000.00449319 +000.32095172 +000.00480267
-000.02746302 +001.18275611 +000.26629570 +001.85518956 +001.47694456 +000.34600366 +000.19636561
+000.03190138 +001.54228959 -000.00449319 +001.47694456 +001.52266873 -000.03253930 -000.04095411
+000.02869835 -000.35829711 +000.32095172 +000.34600366 -000.03253930 +000.36453252 +000.16267774
-000.18468485 -000.13213282 +000.00480267 +000.19636561 -000.04095411 +000.16267774 +000.22407236
56
Matriz varianza-cov de las variables o PARÁMETROS
+000.00000004 +000.00000000 +000.00000000
+000.00000000 +000.00000003 +000.00000000
+000.00000000 +000.00000000 +000.00000009
Matriz varianza-cov a posteriori de los residuos
+000.00000001 +000.00000000 -000.00000001 +000.00000000 -000.00000000 -000.00000000 +000.00000001
+000.00000000 +000.00000040 +000.00000002 -000.00000007 -000.00000010 +000.00000002 +000.00000000
-000.00000001 +000.00000002 +000.00000003 -000.00000002 +000.00000000 -000.00000002 -000.00000000
+000.00000000 -000.00000007 -000.00000002 +000.00000027 -000.00000009 -000.00000002 -000.00000001
-000.00000000 -000.00000010 +000.00000000 -000.00000009 +000.00000006 +000.00000000 +000.00000000
-000.00000000 +000.00000002 -000.00000002 -000.00000002 +000.00000000 +000.00000002 -000.00000001
+000.00000001 +000.00000000 -000.00000000 -000.00000001 +000.00000000 -000.00000001 +000.00000001
Matriz varianza-cov a posteriori de los observables corregidos
+000.00000001 -000.00000000 +000.00000001 -000.00000000 +000.00000000 +000.00000000 -000.00000001
-000.00000000 +000.00000011 -000.00000002 +000.00000007 +000.00000009 -000.00000002 -000.00000001
+000.00000001 -000.00000002 +000.00000002 +000.00000001 -000.00000000 +000.00000002 +000.00000000
-000.00000000 +000.00000007 +000.00000001 +000.00000011 +000.00000009 +000.00000002 +000.00000001
+000.00000000 +000.00000009 -000.00000000 +000.00000009 +000.00000009 -000.00000000 -000.00000000
+000.00000000 -000.00000002 +000.00000002 +000.00000002 -000.00000000 +000.00000002 +000.00000001
-000.00000001 -000.00000001 +000.00000000 +000.00000001 -000.00000000 +000.00000001 +000.00000001
En una primera interpretación, todas tienen sus términos aceptablemente
pequeños. No obstante, la información que ofrecen es claramente insu�ciente
a efectos de interpretar resultados con el poder de a�rmación que entendemos
adecuado. Para ello y en primer lugar, acudiremos a la �abilidad, interna y externa,
de la red y sus recintos de error.
3.1.12. Comprobación de los observables: fiabilidad
interna de la red
Se entiende por �abilidad interna de la red, como su capacidad de detección y
control de posibles errores �groseros� en los observables. A través de ella, es posible
cifrar la sensibilidad de la red ante los errores groseros. En nuestro caso, dadas las
precauciones que hemos tomado desde el inicio, es sólo otra manera de comprobar
que la repetibilidad y exactitud de los observables son las previstas.
La redundancia de un observable es un parámetro adimensional, y nos muestra lo
bien o mal que está �controlado� dicho observable 9. La expresión que nos permite
9
Cfr. M. Chueca et. alt. �Tratado de Topografía� Tomo III, pag. 295 y siguientes.
57
calcular el número de redundancias de un observable es:
ri = pi · qi
donde
ri : redundancia de un observable
pi : peso de un observable
qi : elemento de orden ii de la matriz cofactor de los residuos a posteriori
Nuestras redundancias son homogéneas y próximas a 47
= 0, 57. Todas están en
torno a la redundancia media 0, 57, que en la práctica es el valor óptimo, puesto
que la suma de las redundancias debe valer 4, redundancia total de la red.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +002.07 +000.22334435 +000.46232281
2 +000.12 +006.46092520 +000.77531102
3 +001 +000.59091691 +000.59091691
4 +000.16 +004.39481043 +000.70316966
5 +000.38 +001.10891021 +000.42138588
6 +001.25 +000.43546747 +000.54433433
7 +002.22 +000.22637808 +000.50255935
Suma de Redundancias = +004
El parámetro de Baarda depende del nivel de signi�cación α y de la potencia del
test β, en nuestro caso se ha establecido α = 5 % y β = 80 %. El parámetro de
Baarda se obtiene a partir de la expresión:
wi = RiσRi
El parámetro de Baarda es el que se emplea para eliminar o rechazar un observable.
Además este parámetro permite controlar los errores groseros introducidos en la
red. De este modo un observable será rechazado cuando el parámetro de Baarda
sea superior al punto porcentual establecido para el nivel de signi�cación, que
58
para nosotros es 3,29 (wi<3,29). Todos los parámetros de Baarda en nuestro caso
se encuentran en el intervalo [+0,94 - 1,75] <3,29, y por tanto todos los observables
son aceptados.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 -000.00019760 +000.00011855 -001.66678204
2 +000.00003558 +000.00063763 +000.05581478
3 +000.00011734 +000.00019283 +000.60853094
4 +000.00049541 +000.00052589 +000.94203679
5 -000.00021983 +000.00026416 -000.83217929
6 +000.00004574 +000.00016554 +000.27631601
7 -000.00020873 +000.00011935 -001.74878912
El mínimo error detectable para un observable se obtiene a partir de la siguiente
expresión:
∇Oi = δ·σi√ri
Siendo δ el parámetro de translación, función de α = 5 % y β = 80 %, y que tiene
un valor de 4,12.
En consecuencia el error máximo que puede deslizarse en uno de nuestros
observables y no ser detectado es de 0,00196 metros (observable nº 5), que se
encuentra en el listado de Fiabilidad interna de la red.
El parámetro de homogeneidad, µINi = δo√ri, con�rma la información facilitada
por los números de redundancia.
59
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +000.00012785 +000.67994324 +000.00077468 +006.05932929
2 +000.00034326 +000.88051747 +000.00160615 +004.67906670
3 +000.00016044 +000.76871120 +000.00085993 +005.35962007
4 +000.00034168 +000.83855212 +000.00167875 +004.91323063
5 +000.00030954 +000.64914242 +000.00196465 +006.34683525
6 +000.00015145 +000.73779017 +000.00084578 +005.58424353
7 +000.00011874 +000.70891421 +000.00069012 +005.81170463
Sin embargo, la �abilidad interna en sí misma no facilita información sobre la
repercusión última que puede tener la aparición de errores como los descritos en
las coordenadas de los vértices de la red, solución del problema. El análisis de la
�abilidad externa de la red nos dirá cómo in�uirá en dichos resultados los errores
no detectados por el análisis de la �abilidad interna.
3.1.13. Comprobación de los observables: fiabilidad
externa de la red
Una aceptable �abilidad interna de la red puede no ser su�ciente para garantizar la
calidad del ajuste. El debido rigor en el trabajo requiere completar su estudio con
la descripción de la �abilidad externa, para que no se deteriore la calidad exigible
en la precisión por los errores despreciados o no detectados.
La �abilidad externa quedará de�nida por los siguientes elementos:
1 - Los parámetros de homogeneidad µExi = µINi√
1− ri , (conocido µINi = δo√ri).
La calidad del ajuste es inversamente proporcional al valor de los parámetros
de homogeneidad. Es claro que en una red tan pequeña como la estudiada la
información que ofrecen tanto µExi como µINi es muy escasa. Sin embargo en una
red amplia puede ser muy importante poner de mani�esto las diferencias de nivel
de control entre unas zonas y otras.
60
Comprobaciones de Fiabilidad Externa de la red
O.�√
1− ri�- Parámetro de Homogeneidad µExi = µINi√
1− ri
1 +000.73326474 +004.44309255
2 +000.47401368 +002.21794166
3 +000.63959603 +003.42799173
4 +000.54482137 +002.67683306
5 +000.76066688 +004.82782743
6 +000.67503011 +003.76953257
7 +000.70529472 +004.09896459
2 - Los vectores son ∇xOi = (ATPA)−1ATPei∇Oi .
Un error no detectado ∇Oi (calculado en el apartado anterior dedicado a la
�abilidad interna) en el observable de orden i afectaría a cada variable según:
error dxV 2 = Variable 1, error dyV 2 = Variable 2 y error dθv2 = Variable 3, según
el listado siguiente.
61
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +000.00045727
Variable o Parámetro 2... -000.00043722
Variable o Parámetro 3... +000.00004331
Observable ... ( 2 )����[m]
Variable o Parámetro 1... -000.00008202
Variable o Parámetro 2... -000.00004584
Variable o Parámetro 3... -000.00030053
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +000.00045335
Variable o Parámetro 2... +000.00003732
Variable o Parámetro 3... +000.00004572
Observable ... ( 4 )����[m]
Variable o Parámetro 1... +000.00008663
Variable o Parámetro 2... +000.00008928
Variable o Parámetro 3... -000.00039775
Observable ... ( 5 )����[m]
Variable o Parámetro 1... -000.00000106
Variable o Parámetro 2... -000.00004842
Variable o Parámetro 3... -000.00113156
Observable ... ( 6 )����[m]
Variable o Parámetro 1... +000.00041932
Variable o Parámetro 2... +000.00030042
Variable o Parámetro 3... +000.00004386
Observable ... ( 7 )����[m]
Variable o Parámetro 1... -000.00002721
Variable o Parámetro 2... +000.00054095
Variable o Parámetro 3... +000.00000046
Renunciando por el momento al parámetro o variable 3: dθv2 , la composición
cuadrática de los errores transmitidos por los observables, supuesto el caso más
desfavorable, resulta:
62
Observable√error dx2 + error dy2
1 0,63 mm2 0,09 mm3 0,45 mm4 0,13 mm5 0,04 mm6 0,50 mm7 0,54 mm
En ninguno de los casos se supera el milímetro. Parece que la precisión en la
determinación del vértice V2 es próxima al milímetro.
3.1.14. Semiejes de la elipse standard
Conocida la matriz S = (ATPA)
MATRIZ S
S = ATPA =
1, 4742 − 0, 0474 − 0, 0662
−0, 0474 1, 7888 − 0, 0039
−0, 0662 − 0, 0039 0, 6600
y conocida la desviación típica del observable de peso unidad a posteriori σ0 =
2, 508 ·10−4m2, podemos calcular, según teoría conocida10, los semiejes de la elipse
estándar de error.
En primer lugar obtendremos los autovalores de la matriz S:
autovalores de S
µ1 =1,4726
µ2 =1,7959
µ3 =0,6546
10
Cfr. M. CHUECA et. alt. �Tratado de Topografía� Tomo III, pag. 273 y siguientes.
63
No obstante, el tercer autovalor corresponde al descentrado y en el caso que nos
ocupa puede ser ignorado. Sólo se utilizarán los dos primeros para formar la elipse
de error del vértice en estudio.
Y en segundo y último lugar calcularemos los semiejes genéricos, según la ecuación
Φi = σ0 ·√µ−1i , y serán los que siguen:
Φ1 = 2, 07 · 10−4m
Φ2 = 1, 87 · 10−4m
3.1.15. La elipse asociada a la curva pedal
Se puede demostrar que la elipse asociada a la podaria es de la forma:
ES ≡ σ2x · y2 − 2σxy · x · y + σ2
y · x2 = (σ2xσ
2y − σ2
xy)
Elipse genérica standard de incertidumbre a posteriori en coordenadas cartesianas
para un punto compensado cualquiera de la red, en nuestro caso el vértice V2, en
función de su matriz varianza covarianza σxxV 2, referida al sistema de ejes locales
con origen en V2 y paralelos a los del levantamiento OXY .
A partir de la matriz varianza covarianza de las variables o parámetros de la red
triangulaterada (con eliminación del descentrado) obtenemos:
σ2x = 0, 00000004 m2
σ2y = 0, 00000003 m2
2σxy = 0
Los semiejes de la elipse en dirección y módulo, se calculan a partir de la ecuación
de la elipse asociada a la podaria:
64
0, 00000004 · y2 − 0 · x · y + 0, 00000003 · x2 = (0, 00000004 · 0, 00000003)
siendo fácil calcular a partir de ella los semiejes mayor y menor:
a = 2, 00 · 10−4m
b = 1, 73 · 10−4m
En general, errores máximo y mínimo en valor absoluto.
La semejanza entre ejes deriva en similitud entre podaria elipse y circunferencia
de incertidumbre.
3.1.16. Probabilidades asociadas a las figuras de
error
Una primera re�exión se plantea sobre la impropia denominación tradicional de la
elipse ES como �gura de error �standard�. En efecto, el recinto que corresponde a
esa denominación, de probabilidad constante, es el delimitado por la podaria. Es
más, la probabilidad asociada a la elipse mal llamada standard es variable en cada
caso. No obstante, seguiremos denominándola así, bien entendido lo que antecede.
Puede estimarse la probabilidad asociada a la elipse standard, según se ha de�nido
y aceptado. Bastará con calcular la relación existente entre las áreas delimitadas
por las dos super�cies de error, en su caso más general.
Conocida el área de la podaria y el área de la elipse se puede estimar en primera
aproximación y sin exigencias de rigor teórico la probabilidad asociada a la elipse
a partir de la probabilidad conocida de la podaria.
Siendo la probabilidad de la podaria 1σ2(una varianza)<> ±1σ (una desviación
típica),< 0, 68 >, y la probabilidad de la elipse asociada a K2σ2(varianzas)
<> ±Kσ (desviaciones típicas) con:
65
Area Podaria = AP = π · a2+b2
2
Area Elipse = AE = π · ab
K2 = AEAP
= 2aba2+b2
= 2·2,00·10−4·1,73·10−4
(2,00·10−4)2+(1,73·10−4)2 = 6,92·10−8
6,9929·10−8 = 0, 9895
K = ±0, 9947
Prob ES <> ±√
( 2aba2+b2
σ2)=±Kσ = ±0, 9895 · 0, 68 = 0, 6764 desviaciones típicas
Así en nuestra red:
A la elipse standard de semiejes mayor y menor:
a = 2, 07 · 10−4m
b = 1, 87 · 10−4m
se asocia una �abilidad del 67, 64 % = 67, 6 %.
Una homotecia de razón adecuada según rutina de la distribución normal
practicada a la �gura descrita genera el recinto de incertidumbre con la
probabilidad que se precise.
Si en la tabla de la integral de Gauss11 buscamos la abscisa z correspondiente a
un área de I = 0,99 obtenemos :
zt = ±2, 575
y si recordamos que el área de error de la elipse correspondía a:
za = ±0, 676
11
�Tratado de Topografía� Tomo I, Manuel CHUECA et alt., páginas 23 y 24. Editorial Paraninfo.Madrid, 1996.
66
resulta
ztza'4
Multiplicaremos por 4 los semiejes de la elipse standard para conseguir el área de
error de probabilidad 99%:
4 · a = 2, 07 · 10−4 · 4 = 8, 28 · 10−4m = 0, 83 mm
4 · b = 1, 87 · 10−4 · 4 = 7, 48 · 10−4m = 0, 75 mm
Podemos decir �nalmente que después de la compensación de la triangulateración
las correcciones del único vértice libre V2 son:
VARIABLES O PARÁMETROS [m]
diferencial de la coordenada x: dxV 2= 1.203E-004 m
diferencial de la coordenada y: dyV 2= 5.019E-004 m
que modi�can las coordenadas aproximadas del vértice V2 :
xV 2 =163,01957 m.
yV 2 = 154,24381 m.
que de�nitivamente serán:
X ′V 2 =163,0196 + 0,00012 = 163,01972 m
Y ′V 2 = 154,2438 + 0,00050 = 154,24430 m
Y �nalmente, la posición exacta y siempre desconocida del vértice que podemos
llamar V2E se encontrará en el interior de la elipse (con semiejes: 0, 83 · 10−4m, y
67
0, 75·10−4m) de centro el vértice V2 (compensado rigurosamente) con una �abilidad
del 99% .
En consecuencia, tal parece que todos los números que hemos realizado hasta
ahora conducen a de�nir las coordenadas del vértice V2 con cifras exactas hasta
los milímetros. A�nar más se nos antoja aventurado, y todavía lo será más cuando
nos ocupemos de las posibles perturbaciones en los elementos del sistema lineal de
ecuaciones normales, tarea que emprendemos a continuación.
3.1.17. Error o perturbación db
La expresión �nal de cómo afecta el error relativo‖db‖‖b‖ al error relativo del vector
de correcciones ‖dx‖‖x‖ es:
‖dx‖‖x‖ ≤ k · ‖db‖‖b‖ = k · [TrB]
12
‖b‖ = µmaximoµmınimo
·
[Tr(AT ·P ·diag (
σ2iNi
)·P ·A)
] 12
‖b‖
La matriz S y sus autovalores son:
MATRIZ S
S = ATPA =
1, 4742 − 0, 0474 − 0, 0662
−0, 0474 1, 7888 − 0, 0039
−0, 0662 − 0, 0039 0, 6600
autovalores de S
µ1 =1,4742
µ2 =1,7888
µ3 =0,6546
Los dos primeros autovalores son los que corresponden a dx y dy, y el tercero
al dθ, valor que no afecta a nuestros resultados bajo ningún punto de vista. Es
precisamente ese valor el que provoca que el parámetro k (condicionamiento de
68
la matriz S) pueda alcanzar el valor de 2,7435, valor muy superior al 1, que es el
óptimo. Es precisamente el coe�ciente k quien provoca que: ‖dx‖‖x‖ = 1, 2517.
En consecuencia y con el �n de mejorar el valor de k, damos un paso más.
Sea nuestro sistema de ecuaciones normales:
S · x = AT · P · A · x = AT · P ·K = b
S · x = b
Y eliminando por sustitución la ecuación del parámetro dθ se obtiene12:
S ′ · x = A′T · P · A′ · x = A′T · P ·K ′ = b′
MATRIZ A'
A'( 1, 1) = .43154
A'( 1, 2) = -.50135
A'( 2, 1) = -.51278
A'( 2, 2) = -.39916
A'( 3, 1) = .77164
A'( 3, 2) = 5.242E-002
A'( 4, 1) = .5578
A'( 4, 2) = .58506
A'( 5, 1) = .10139
A'( 5, 2) = -.11003
A'( 6, 1) = .5685
A'( 6, 2) = .48933
A'( 7, 1) = -4.296E-002
A'( 7, 2) = .63245
12
Según teoría sobre eliminación del descentrado en redes de triangulación, cfr. M. CHUECA et.alt. �Tratado de Topografía� Tomo II, pag. 424 y siguientes.
69
VECTOR K' [m]
K'( 1) = -4.27E-006
K'( 2) = -1.75E-004
K'( 3) = -2.4E-006
K'( 4) = -1.818E-005
K'( 5) = 2.96E-004
K'( 6) = 2.65E-004
K'( 7) = 5.21E-004
Y a partir de las matrices A′, K ′ y la matriz conocida de pesos P , obtenemos b′ y
S ′,
b′ = A′T · P ·K ′ =
0, 0015
0, 0089
S ′ = A′T · P · A′ =
1, 4742 −0, 0474
−0, 0474 1, 7888
y el número de condición de S:
k′ = µmaximoµmınimo
= 1,78881,4742
= 1, 22
Obtenemos:
‖dx‖‖x‖ = 0, 12, como error relativo de un 12% sobre las variables: dx = 0, 12 mm y
dy = 0, 5mm.
3.1.18. Resultados finales de la red triangulaterada
En primer lugar, hay que de�nir el resultado en las variables dxV 2 y dyV 2 .
El vértice V2 se ha determinado con una �abilidad del 99% según un recinto
de error de�nido por una elipse estándar asociada a una podaria (con semiejes:
0, 69 · 10−4m, y 0, 56 · 10−4m) de centro el vértice V2 (compensado rigurosamente).
Dentro de él debe ubicarse el punto exacto.
70
Existe el riesgo añadido de que cálculos y redondeos den lugar a un error relativo
máximo adicional en coordenadas de un 12%.
Nuestra mejor solución (con las reservas de instrumentación, observación y
replanteo, las formuladas al principio del trabajo) es:
XV2C= XV 2 + dxV 2 = 163, 0196 + 0, 00012 = 163, 01972 ' 163, 020m
YV2C= YV 2 + dyV 2 = 154, 2438 + 0, 0005 = 154, 2443 ' 154, 244m
Con un recinto de error elipsoidal, con 0,99 de �abilidad, de semiejes:
a = semieje mayor · (1 + 0, 12) = 0, 83 · 1, 12 ' 0, 93mm
b = semieje menor · (1 + 0, 12) = 0, 75 · 1, 12 ' 0, 84mm
Podemos aceptar con su�ciente poder de a�rmación, que incluso si se produjera el
error de redondeo, la precisión del vértice V2 estaría rondando el milímetro.
3.2. Resolución por el método de incremen-
tos de coordenadas
Una vez resuelta la red de observables clásicos por triangulateración lo haremos
por el método de incrementos de coordenadas.
La resolución de la red por ambos métodos, permite contrastar los resultados,
porque en ambas son valores lineales. Y así comparar: el vector K, los estimadores
a priori y a posteriori, las matrices de criterio, las variable o parámetros . . . , y
asegurar que el resultado guarda una conformidad en un ajuste y otro.
El estudio de la normalidad de los datos de campo que se hizo en la
triangulateración, la obtención de las coordenadas aproximadas, el cálculo de las
71
varianzas a partir de la libreta de campo, y la valoración del cuadrilátero de
compensación de los observables de la triangulateración resultan fundamentales en
el ajuste por incrementos de coordenadas, siendo un primer análisis de los datos
de campo que permite valorar la cota de error y la bondad de los observables.
Con alguna adaptación, el método sigue una ponderación similar a la propuesta
en la Triangulateración, basada en la proyección lineal de las desviaciones típicas
de los errores angulares y lineales de los observables clásicos. Los cuadriláteros de
ponderación de los azimutes y distancias de la red triangulaterada dimensionan
los pesos de los observables, que en este caso son los incrementos de coordenadas.
Cuando los observables provienen de vectores GNSS, se utiliza la varianza de
la libreta de campo. La novedad del método es que resuelve el problema de las
covarianzas de los incrementos de coordenadas (considerados como observables)
provenientes de las lecturas angulares y distanciométricas clásicas o de los vectores
GNSS.
Desaconsejamos la resolución conjunta de incrementos de coordenadas, prove-
nientes de observables clásicos y GNSS, debido a las diferencias excesivas13 que
se producen en la ponderación de unos y otros, lo que afecta negativamente a los
resultados, su análisis e interpretación.
La aplicación de la teoría del método de incrementos se expone sintéticamente en
los epígrafes siguientes, sobre el ejemplo real adoptado.
13
Las precisiones de los equipos de topografía clásica son mejores, por el momento, a las precisionesde los equipos GNSS, y en consecuencia los pesos de unos y otros observables resultan claramentediferentes.
72
3.2.1. Test de Pearson. Cálculo de los incrementos
de coordenadas a partir de los observables
clásicos
Es determinante decidir el número de decimales de los observables y el número
de lecturas de cada observable antes de someterlos al test de normalidad. El
instrumento de medición que hemos utilizado discrimina hasta el cuarto decimal
en observables angulares y las medias, entre círculo directo e inverso, en algunos
casos provocan un quinto decimal. La precisión que establece el catálogo del equipo
es de 3 segundos sexagesimales, y repitiendo las lecturas de un mismo observable
tiene sentido llegar al segundo o el medio segundo, es decir llegar al cuarto o
quinto decimal. En cuanto a las distancias reducidas se aprecian con un número
prácticamente ilimitado de decimales porque provienen del producto de la distancia
geométrica por su coseno. La precisión que establece el catálogo del equipo es de
1 mm ± 1,5 ppm y tiene sentido llegar hasta la décima de milímetro, pero no
más, un total de 4 decimales. El número de decimales como hemos dicho es una
variable que de�nitivamente nos facilita que los observables superen con éxito el
test de Pearson, pero nos parece que no responde a la realidad tomar demasiados
porque corremos el peligro de tomar por normal un observable que no lo es. En
cuanto al número de lecturas, como tenemos abundantes datos de campo podemos
decidir el número de lecturas que adoptamos para cada observable. Tomar 7, 15
ó 20 lecturas afectará a la varianza del observable y al porcentaje de bondad del
test de Pearson. Lo realmente importante es tener muchos observables y de calidad
para poder seleccionar los que más nos interesen.
Los observables azimut[grados centesimales] para calcular los incrementos entre
vértices, sus promedios[grados centesimales], varianzas [grados centesimales2] y
desviaciones típicas [grados centesimales] son los que siguen:
73
En el apartado 3.1.3 analizamos la normalidad de los azimutes, y todos superaban
el porcentaje de bondad del Test de Pearson con más del 75%.
En cuanto a las distancias reducidas es necesario que sean 5, tantas como azimutes,
para calcular los incrementos entre vértices. Se hizo una nueva observación para
añadir 2 nuevas distancias a las 3 que se utilizaron en la triangulateración, que
también siguen distribuciones normales.
74
Las diferencias en el número n de lecturas por distancia reducida se debe
fundamentalmente a la búsqueda de la normalidad de los datos y de la varianza,
para lograr que haya similitud entre los lados del cuadrilátero de ponderación.
La tres distancias añadidas V2V1 = 64,2163 m., V2V3 = 66,3892 m. y V2V4 =
83,1499 m. tienen un porcentajes de bondad de 76%, 99% y 79% respectivamente.
En la imagen de la �gura 3.3 representamos la curva de distribución de la distancia
V2V3.
75
Figura 3.3: Observaciones, media, desviación típica, porcentaje de aceptación ycurva de distribución de la distancia V2V3
A partir de los promedios de azimutes [grados centesimales] y distancias reducidas
[metros] calculamos los incrementos [metros] observados de la red.
Los incrementos �nales [metros] son los siguientes:
76
3.2.2. las coordenadas aproximadas
Las coordenadas aproximadas que emplearemos según estudiamos en el epígrafe
3.1.5, calculadas por el mejor camino de consistencia distanciométrica, son las que
siguen:
Vértice X [m] Y [m]
V1 100,00127 166,59472
V2 163,01957 154,24381
V3 167,51914 88,00813
V4 100 100
3.2.3. Formas lineales específicas de los incrementos
de coordenadas
Siguiendo el texto del epígrafe teórico 2.4 los observables genéricos, sean o no
GNSS, los escribimos con la notación ∆Xij, ∆Yij, ∆Zij, y son las proyecciones
sobre los ejes de la distancia entre los vértices I (Xi, Yi, Zi ) y J (Xj, Yj, Zj).
A partir de los observables clásicos (azimutes y distancias) calculamos los
incrementos entre el vértice libre V 2 y los vértices ligados V 1 ,V 3 y V 4. Esos
incrementos constituyen los observables que forman el sistema lineal de ecuaciones.
Conocido el vector de coordenadas aproximadas Xa = X − x, entre dos puntos M
y P se podrá escribir:
xM − xP = DXMPo −DXMPa +RxMP
yM − yP = DYMpo −DYMPa +RYMP
zM − zP = DZMPo −DZMPa +RZMP
es decir
77
Correcciones = Valores Observados � Valores Calculados + Residuos
que equivale a
AX = K +R
cuya resolución por mínimos cuadrados proporciona directamente las coordenadas
compensadas.
Siendo la matriz A, constituida por las 10 formas lineales incremento de coordenada
calculados en el epígrafe 3.2.1:
La matriz de diseño A es del tipo de las que llamamos �de elementos exactos�.
Y el vector K = Incrementos Observados− Incrementos Calculados, en metros:
78
Apoyándonos en el ajuste por triangulateración previo de la red hemos decidido
eliminar los incrementos de coordenadas ∆XV 2V 1, ∆YV 2V 1. El valor del elemento
del vector K referido a la distancia V2V1 alcanzaba en la triangulateración el
milímetro, un valor excesivo comparado con el resto de elementos de ese vector K.
Y, en la red ajustada por incrementos de coordenadas, el valor de los elementos
de K referido a los observables ∆XV 2V 1, ∆YV 2V 1 es de 0,88 mm y 0,83 mm
respectivamente, valores altos que nos con�rman en la decisión de no utilizar esos
dos incrementos en el sistema de ecuaciones lineales de�nitivo.
Sabemos que cada componente ∆XMPo, ∆YMPo, con vértices genéricos M, P de la
red, tiene varianzas y covarianzas que podemos calcular a partir de la libreta de
campo con las siguientes expresiones:
σ2∆XMP
= Σ(∆XMPo−∆XMPo)2
nMP−1= varianza de∆XMPo
σ2∆YMP
= Σ(∆YMPo−∆YMPo)2
nMP−1= varianza de∆YMPo
σ∆XMPo,∆YMPo= Σ(∆XMPo−∆XMPo)·(∆YMPo−∆YMPo)
nMP−1=covarianza de ∆XMPo∆YMPo
Así puede formarse la matriz varianza covarianza a priori Σo de la ecuación (27).
Nos encontramos con una matriz varianza covarianza banda, con dependencia entre
las variables que constituyen una pareja de incrementos de coordenadas, siendo el
resto de los elementos de la matriz nulos.
Para evitar el problema de las covarianzas entre los incrementos de la red se
resuelven dos redes con incrementos coaligados separados alternativamente en cada
una de ellas, de modo que se eliminan las covarianzas que incomodan.
Distribuyendo los incrementos en dos matrices parciales de diseño A1 y A2,
consiguiendo así matrices parciales diagonales S1, S1, y aplicando, a cada una
de ellas, el procedimiento general de ajuste. De modo que obtenemos las mismas
variables en cada una de las subredes y luego hacemos la media entre los dos
resultados.
79
Otra opción sería resolver cada una de las variables ∆XMPo, ∆YMPo con su propio
sistema, que por separado, responden a un ajuste Gauss-Marcov, aunque no de
manera conjunta.
Las matrices parciales de diseño A1 y A2, que proceden de la matriz A son:
Disociamos de�nitivamente las parejas de incrementos en cada subred, y así se
anulan sus covarianzas. La separación alternativa también tendrá en cuenta el
peso del incremento de coordenada, intentando que en cada uno de los sistemas
de ecuiaciones las varianzas se parezcan. Lo veremos a continuación cuando
estudiemos la matrices de los pesos.
En cuanto a los vectores K1 y K2, que se obtienen a partir de K:
80
3.2.4. Las matrices de pesos
Llegamos ahora a un capítulo determinante en el diseño de la red. Veamos por
qué.
Con alguna adaptación, el método de incrementos sigue una ponderación similar
a la que propusimos en el método de triangulateración14, basada en la proyección
lineal de las desviaciones típicas de los errores angulares y distanciométricos de los
observables clásicos.
En la �gura 3.6 aparece la interpretación geométrica de la observación del vértice
M ≡ j(xj, yj) desde la estación O ≡ i(xi, yi). Siendo el azimut θijo = α = δijo y la
distancia reducida Distijo = ρ = lijo.
Figura 3.4: Cuadrilátero de ponderación. Se levanta el vértice M desde la estaciónO. El error debido al distanciómetro (dρ) y la proyección del error acimutal (ρ ·dα)dan lugar al vector MP , error total del vértice M
14
Cuyo desarrollo teórico y práctico se recoge en el epígrafe 4.4 del artículo �Progreso en la prácticadel ajuste gaussiano...�, de Mª Jesús Jiménez Martínez et alt.
81
Los errores o correcciones de la observación se representan por dα (error del azimut
α) y dρ (error de la distancia ρ). Recordemos de nuevo que ambos errores se
obtienen a partir de la desviación típica de los observables de la libreta de campo.
El error total en el levantamiento del vértice M se explica geométricamente por la
composición de dos errores lineales:
- la proyección lineal del error dα sobre su cuerda: ρ · dα- y el error lineal debido a la distancia: dρ
cuya resultante es el vector MP , corrección total del cuadrilátero de ponderación.
(Para que la ponderación sea equilibrada es necesario que los dos errores lineales
anteriores sean similares. Ese debe ser el criterio principal del diseñador del
proyecto. Siendo los cuadriláteros de ponderación de todos los vértices similares en
tamaño y forma, podemos asegurar resultados a posteriori acordes con la previsión,
y un análisis e interpretación de los resultados coherente ).
(La corrección total MP , diagonal del cuadrilátero, será la que determine el valor
de la varianza de cada una de las formas lineales que hemos llamado incremento
de coordenada y también su peso).
Iniciamos el cálculo de las varianzas y de los pesos de los observables incremento
de coordenada.
1. Conocidos el azimut θOM , la distancia ρOM , el error angular dαOM , y el error
distanciométrico dρOM , calculamos el valor de λOM , según la expresión:
λ = arctg ρ·dαdρ
2. Obtenemos la proyección de los lados del cuadrilátero de ponderación sobre la
diagonal MP según las ecuaciones:
Ldα = proyeccion del lado funcion de dα = (ρ · dα · 1000 · senλ)/636620
82
( siempre que las unidades de dα sean grados centesimales y de ρ sean metros)
Ldρ = proyeccion del lado funcion de dρ = dρ · cosλ
3. Calculamos la diagonal del cuadrilátero de ponderación, que responde a la
ecuación:
MP = Ldα+ Ldρ
En los cuadros 3.2 y 3.3 hemos calculado el valor de λ, Ldα, Ldρ , y de las diagonales
de los cuadriláteros de ponderación para cada pareja de azimut y distancia de
nuestra red, a partir de sus valores conocidos: dα, ρ, y dρ.
θv4−v2 θv3−v2 θv2−v3 θv2−v4
θ[g] 54,75547 395,68190 195,68170 254,75551
dα2[g2] 2,85E-08 6,75E-08 2,53E-07 6,75E-08
dα[g] 0,00017 0,00026 0,00050 0,00026
λ[g] 46,0 56,3 71,3 65,9
Ldα[m] 0,00015 0,00021 0,00047 0,00029
diag [m] 0,00033 0,00035 0,00058 0,00039
Cuadro 3.2: En negrita, los valores λ y las diagonales de los cuadriláteros deponderación, de los observables azimut
DistV 4V 2 DistV 3V 2 DistV 2V 3 DistV 4V 2
ρ[m] 83,15000 66,38920 66,38920 83,14990
dρ2[m2] 6,25E-08 4,93E-08 6,46E-08 4,06E-08
dρ[m] 0,00025 0,00022 0,00025 0,00020
λ[g] 46,0 56,3 71,3 65,9
Ldρ [m] 0,00019 0,00014 0,00011 0,00010
diag [m] 0,00033 0,00035 0,00058 0,00039
Cuadro 3.3: En negrita, los valores de λ y de las diagonales de los cuadriláteros deponderación, de los observables distancia
83
4. Obtenemos las varianzas de los observables incremento de coordenada, que serán
las proyecciones de la diagonal genérica MP del cuadrilátero sobre los ejes de
coordenadas.
Así las desviaciones típicas de los incrementos ∆XOM , ∆YOM , serán:
σ∆XOM=|MP · sen(θ + λ) |
σ∆YOM=|MP · cos(θ + λ) |
En el cuadro 3.4 se muestra el listado de desviaciones típicas y varianzas de los
observables de nuestra red.
∆Xv4−v2 ∆Yv4−v2 ∆Xv3−v2 ∆Yv3−v2 ∆Xv2−v3 ∆Yv2−v3 ∆Xv2−v4 ∆Yv2−v4
σ∆xy 0,00033 0,00033 0,00026 0,00024 0,00051 0,00029 0,00037 0,00037
σ2∆xy 1,11E-07 1,11E-07 6,52E-08 5,76E-08 2,56E-07 8,36E-08 1,40E-07 1,40E-07
Cuadro 3.4: Desviaciones típicas y varianzas de los observables incremento decoordenada
5. Una vez conocido las varianzas de cada una de las formas lineales de incremento
seleccionamos de entre ellas el valor de la mediana, que desde ese momento se
convierte en el estimador de la varianza a priori del observable de peso unidad
σ20. Como tenemos dos ajustes tendremos también dos medianas, una para cada
subred.
Distribuyendo los incrementos en dos matrices parciales, como vimos en el apartado
3.2.3, formamos dos sistemas de formas lineales: la subred 1 y la subred 2.
La mediana (varianza a priori del observable de peso unidad) de la subred 1 es σ20
= 1, 266 · 10−7 m2.
Y �nalmente calcularemos el peso de cada observable de la subred 1 con la
expresión:
84
POTi = σ2o
σ2oTi
=vp2mediana
vpi2
Y los pesos de la subred 1 son los del cuadro 3.5.
Mediana = σ2o [m2] Varianza = σ2
oTi[m2] PoTi = σ2
o
σ2oTi
=vp2mediana
vpi2
∆Xv4−v2 1, 266 · 10−7m2 1, 116 · 10−7 1,1∆Xv2−v3 1, 266 · 10−7 2, 56 · 10−7 0,4∆Yv2−v4 1, 266 · 10−7 1, 40 · 10−7 0,9∆Yv3−v2 1, 266 · 10−7 5, 76 · 10−8 2,1
Cuadro 3.5: Mediana, varianzas y pesos de los observables de la subred 1
La mediana de la subred 2 (varianza a priori del observable de peso unidad) es
σ20 = 9, 76 · 10−8 m2. Y calcularemos los pesos de la subred 2, que aparecen en el
cuadro 3.6.
Mediana = σ2o [m2] Varianza = σ2
OTi[m2] POTi = σ2
o
σ2OTi
=vp2mediana
vpi2
∆Yv4−v2 9, 76 · 10−8 1, 116 · 10−7 0,9∆Yv2−v3 9, 76 · 10−8 2, 56 · 10−7 1,2∆Xv2−v4 9, 76 · 10−8 1, 40 · 10−7 0,7∆Xv3−v2 9, 76 · 10−8 5, 76 · 10−8 1,5
Cuadro 3.6: Mediana, varianzas y pesos de los observables de la subred 2
En el caso en que se cumpla alguna de estas condiciones:
(θOM + λ) ' 100g
(θOM + λ) ' 200g
(θOM + λ) ' 300g
(θOM + λ) ' 400g
85
se produce una descompensación aparente en los pesos, aunque el cuadrilátero sea
de lados iguales. Y esa situación la encontramos entre los vértices V4 y V2:
(θV 4V 2 + λV 4V 2) = 54, 75546 + 46 = 100, 75546g
(θV 2V 4 + λV 2V 4) = 254, 75551 + 65 = 309, 75546g
Y las varianzas de los observables de la red de incrementos serán:
σ2∆XV 4V 2
= (MP · sen(θV 4V 2 + λV 4V 2))2 = (83, 1495 · sen(100, 75546))2 = 6912, 94
σ2∆YV 4V 2
= (MP · cos(θV 4V 2 + λV 4V 2))2 = (83, 14996 · cos(100, 75546))2 = 0, 97
σ2∆XV 2V 4
= (MP · sen(θV 4V 2 + λV 4V 2))2 = (83, 1494 · sen(309, 75546))2 = 6752, 84
σ2∆YV 2V 4
= (MP · cos(θV 4V 2 + λV 4V 2))2 = (83, 1494 · cos(309, 75546))2 = 161, 04
Pero hay que hacer notar que la casual posición horizontal de la diagonal genérica
MP en el caso (θOM + λ) ' 100g podría ser vertical si λ< 0, que implicaría que
(θOM − λ) ' 0g. Se puede ver en las �guras 3.7 y 3.8 las posiciones aleatorias +λ
y −λ del error total MP y su in�uencia sobre las proyecciones de los ejes de esa
diagonal. Si pasáramos de la posición +λ a −λ se invertirían los valores de σ2∆XV 4V 2
por los de σ2∆YV 4V 2
.
86
Figura 3.5: Posición del cuadrilátero de compensación en el caso (θOM +λ) ' 100g
Figura 3.6: Posición del cuadrilátero de compensación en el caso (θOM − λ) ' 0g
87
Ante esta situación optamos por asignar la peor situación tanto para σ2∆XV 4V 2
como para σ2∆YV 4V 2
. Como hemos disociado las parejas de incrementos en redes
diferentes podemos coger el peor supuesto para ambos. Lo que supone que la
varianza coincidirá con el cuadrado de la longitud de la diagonal MP . Que en el
caso concreto que nos ocupa es:
σ2∆XV 4V 2
= (0, 00033)2 m2 y σ2∆YV 4V 2
= (0, 00033)2 m2
σ2∆XV 2V 4
= (0, 00039)2 m2 y σ2∆YV 2V 4
= (0, 00039)2 m2
3.2.4.1. Sobre la importancia de la geometría del cuadrilátero
de ponderación y de su azimut
Queremos insistir en la importancia de la geometría del cuadrilátero de
compensación, función directa de los errores dα (error del azimut α) y dρ (error
de la distancia ρ) sobre los errores de las coordenadas de los vértice o sobre sus
incrementos.
Como muestran las �guras 3.9 y 3.10, un cuadrilátero con ejes desiguales provoca
errores desiguales en sus coordenadas, debido a la proyección del error total
(diagonal MP ) sobre los ejes coordenados.
88
Figura 3.7: Cuadrilátero de ponderación de lados desiguales, con predominio deρ · dα sobre dρ. La proyección del error MP del vértice M en los ejes XY provocavariaciones muy importantes en al cálculo de las coordenadas de los vértices, loque in�uirá decisivamente en la ponderación de la red de incrementos
Figura 3.8: Cuadrilátero de ponderación de lados desiguales, con predominio de dρsobre ρ · dα. El azimut afecta decisivamente a la proyección de la diagonal MP
89
Por último es bueno subrayar que el azimut del vértice a levantar in�uye en los
errores de las coordenadas de ese vértice. Si por algún motivo necesitamos que
disminuya o aumente el error, en una de las coordenadas del vértice, podremos
conseguirlo modi�cando la orientación de los ejes XY del levantamiento. Puede
suceder que un cuadrilátero con ejes desiguales provoque errores similares en los
incrementos de coordenadas si el azimut es próximo a 50g ó 250g.
3.2.5. Síntesis y resultados del ajuste de la red por
el método de incrementos de coordenadas
Conocidas las matrices parciales de diseño A1, A2, los vectores K1, K2 y las
matrices de pesos P 1 y P 2. Iniciamos el ajuste de la subred 1 y la subred 2.
3.2.5.1. La matriz A1, la matriz de pesos P1, el vector de
términos independientes K1, y la matriz S1 de la
subred 1
MATRIZ A1
A1( 1, 1) = 1
A1( 1, 2) = 0
A1( 2, 1) = -1
A1( 2, 2) = 0
A1( 3, 1) = 0
A1( 3, 2) = -1
A1( 4, 1) = 0
A1( 4, 2) = 1
VECTOR K1 [m]
k1 ( 1) = 2.6E-004
k1 ( 2) = 2.7E-004
k1 ( 3) = -1.9E-004
k1 ( 4) = 8.2E-004
90
MATRIZ DIAGONAL P1 [adimensional]
Peso del observable 1 1.1
Peso del observable 2 .4
Peso del observable 3 .9
Peso del observable 4 2.1
Por último, la matriz S:
MATRIZ S
S = ATPA =1,5 0
0 3
3.2.5.2. La matriz A2, la matriz de pesos P2, el vector de
términos independientes K2, y la matriz S2 de la
subred 2
MATRIZ A2
A2( 1, 1) = 0
A2( 1, 2) = 1
A2( 2, 1) = 0
A2( 2, 2) = -1
A2( 3, 1) = -1
A2( 3, 2) = 0
A2( 4, 1) = 1
A2( 4, 2) = 0
VECTOR K2 [m]
k2( 1) = 2.3E-004
k2( 2) = -8E-004
k2( 3) = -3E-004
k2( 4) = -6E-005
91
MATRIZ DIAGONAL P2 [adimensional]
Peso del observable 1 .9
Peso del observable 2 1.2 P
eso del observable 3 .7
Peso del observable 4 1.5
Por último, la matriz S:
MATRIZ S
S = ATPA =2,2 0
0 2,1
3.2.5.3. El vector de variables, el vector de residuos y la
varianza a posteriori del observable de peso unidad
en la subred 1
El resultado se expresa según:
- diferencial de la coordenada x: dxV 2,
- diferencial de la coordenada y: dyV 2
VARIABLES O PARÁMETROS [m]
diferencial de la coordenada x: dxV 2 =1.2E-004
diferencial de la coordenada y: dyV 2 =6.3E-004
RESIDUOS [m]
-1.4E-004
-3.9E-004
-4.4E-004
-1.9E-004
Varianza de la medida de peso ud. = 1.7E-007 m2
Desv. típica de la medida de peso ud. = 4.0E-004 m
92
La desviación típica a posteriori del observable de peso unidad es la esperable,
considerando que la desviación típica a priori del observable de peso unidad es
3, 6 · 10−4 m. La diferencia entre la desviación típica a priori y a posteriori es de
cuatro centésimas de milímetro, con�rmando la bondad del cálculo y trabajo.
3.2.5.4. El vector de variables, el vector de residuos y la
varianza a posteriori del observable de peso unidad
en la subred 2
VARIABLES O PARÁMETROS [m]
diferencial de la coordenada x: dxV 2 =5.4E-005
diferencial de la coordenada y: dyV 2 =5.6E-004
RESIDUOS [m]
3.3E-004
2.4E-004
2.45E-004
1.1E-004
Varianza de la medida de peso ud. = 1.1E-007 m2
Desv. típica de la medida de peso ud. = 3.4E-004 m
La desviación típica a posteriori del observable de peso unidad es la esperable,
considerando que la desviación típica a priori del observable de peso unidad es
3, 1 · 10−4 m. La diferencia entre la desviación típica a priori y a posteriori es de
tres centésimas de milímetro, es un buen resultado.
3.2.5.5. El resultado del ajuste doble por incrementos de
coordenadas a partir de los parámetros dxV 2 y dyV 2 de
las subredes 1 y 2
Hemos obtenido dos soluciones de las mismas variables, que procedes de las
subredes 1 y 2. Ambas soluciones son promediables, y es así como llegamos a
la solución �nal:
Diferencial de la coordenada X:
93
dxV 2−RI = (1, 2 · 10−4 + 5, 4 · 10−5)/2 = 0, 9 · 10−4 m.
Diferencial de la coordenada Y:
dyV 2−RI = (6, 3 · 10−4 + 5, 6 · 10−4)/2 = 5, 95 · 10−4 m.
Resultado que coincide satisfactoriamente con el correspondiente al ajuste de la
red triangulaterada, que recordamos fueron:
Diferencial de la coordenada X en la red triangulaterada:
dxV 2−TT = 1, 2 · 10−4 m.
Diferencial de la coordenada Y en la red triangulaterada:
dyV 2−TT = 5, 02 · 10−4 m.
Subrayamos que las diferencias entre la solución de la red triangulaterada y la
solución de la red por incrementos son de décimas y centésimas de milímetro:
dxV 2−TT − dxV 2−RI = 1, 2 · 10−4 − 0, 9 · 10−4 = 0, 00003 m.
dyV 2−TT − dyV 2−RI = 5, 02 · 10−4 − 5, 95 · 10−4 = −0, 0001 m.
Ambos métodos con�rman el resultado y la equivalencia de aplicación de cualquiera
de ellos.
3.2.5.6. Las matrices de criterio : matriz cofactor de las
variables o parámetros, matriz cofactor de los resi-
duos, matriz cofactor de los observables corregidos,
matriz varianza-covarianza de las variables o pará-
metros, matriz varianza-covarianza a posteriori de
los residuos, y matriz varianza-covarianza a posterio-
ri de los observables corregidos de la subred 1
94
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+000.66666666 +000
+000 +000.33333333
Matriz cofactor de los RESIDUOS.
+000.24242424 +000.66666666 +000 +000
+000.66666666 +001.83333333 +000 +000
+000 +000 +000.77777777 +000.33333333
+000 +000 +000.33333333 +000.14285714
Matriz cofactor de los observables corregidos.
+000.66666666 -000.66666667 +000 +000
-000.66666667 +000.66666666 +000 +000
+000 +000 +000.33333333 -000.33333333
+000 +000 -000.33333333 +000.33333333
Matriz varianza-cov de las variables o PARÁMETROS.
+000.00000011 +000
+000 +000.00000005
Matriz varianza-cov a posteriori de los residuos.
+000.00000004 +000.00000011 +000 +000
+000.00000011 +000.00000030 +000 +000
+000 +000 +000.00000012 +000.00000005
+000 +000 +000.00000005 +000.00000002
Matriz varianza-cov a posteriori de los observables corregidos.
+000.00000011 -000.00000011 +000 +000
-000.00000011 +000.00000011 +000 +000
+000 +000 +000.00000005 -000.00000006
+000 +000 -000.00000006 +000.00000005
3.2.5.7. Las matrices de criterio : matriz cofactor de las
variables o parámetros, matriz cofactor de los resi-
duos, matriz cofactor de los observables corregidos,
matriz varianza-covarianza de las variables o pará-
metros, matriz varianza-covarianza a posteriori de
los residuos, y matriz varianza-covarianza a posterio-
ri de los observables corregidos de la subred 2
95
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+000.45454545 +000
+000 +000.47619047
Matriz cofactor de los RESIDUOS.
+000.63492063 +000.47619047 +000 +000
+000.47619047 +000.35714285 +000 +000
+000 +000 +000.97402597 +000.45454545
+000 +000 +000.45454545 +000.21212121
Matriz cofactor de los observables corregidos.
+000.47619047 -000.47619048 +000 +000
-000.47619048 +000.47619047 +000 +000
+000 +000 +000.45454545 -000.45454545
+000 +000 -000.45454545 +000.45454545
Matriz varianza-cov de las variables o PARÁMETROS.
+000.00000005 +000
+000 +000.00000005
Matriz varianza-cov a posteriori de los residuos.
+000.00000007 +000.00000005 +000 +000
+000.00000005 +000.00000004 +000 +000
+000 +000 +000.00000011 +000.00000005
+000 +000 +000.00000005 +000.00000002
Matriz varianza-cov a posteriori de los observables corregidos.
+000.00000005 -000.00000005 +000 +000
-000.00000005 +000.00000005 +000 +000
+000 +000 +000.00000005 -000.00000005
+000 +000 -000.00000005 +000.00000005
3.2.5.8. Comprobación de los observables: fiabilidad interna
de la subred 1
Las redundancias son homogéneas y próximas a 24
= 0, 5. Todas están en torno
a la redundancia media 0, 5, que en la práctica es el valor óptimo, puesto que la
suma de las redundancias debe valer 2, redundancia total de la red.
96
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +001.1 +000.24242424 +000.266
2 +000.4 +001.83333333 +000.733
3 +000.9 +000.77777777 +000.7
4 +002.1 +000.14285714 +000.3
Suma de Redundancias = +002
El parámetro de Baarda es el que se emplea para eliminar o rechazar un
observable.Todos los parámetros de Baarda en nuestro caso se encuentran en el
intervalo [-0,70-1,23] < 3,29, y por tanto todos los observables son aceptados.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 -000.00014133 +000.00020073 -000.70406395
2 -000.00038867 +000.00055203 -000.70406395
3 -000.00044100 +000.00035956 -001.22649662
4 -000.00018900 +000.00015409 -001.22649662
El error máximo que puede deslizarse en uno de nuestros observables y no ser
detectado es de ∇Oi = 0,000077 metros, ocho centésimas de milímetro, realmente
despreciable (observable nº 1). En la triangulateración el mínimo error detectable
era 0,00196 metros, muy superior a éste.
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +000.00033288 +000.51639777 +000.00007735 +000.23237900
2 +000.00033288 +000.85634883 +000.00004664 +000.14012980
3 +000.00023538 +000.83666002 +000.00003376 +000.14342743
4 +000.00023538 +000.54772255 +000.00005157 +000.21908902
97
3.2.5.9. Comprobación de los observables: fiabilidad interna
de la subred 2
Los parámetros de �abilidad interna son muy similares a los de la subred 1.
Las redundancias son homogéneas y próximas a 24
= 0, 5 , más próximas a la
redundancia media 0, 5 que en la subred 1.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia
1 +000.9 +000.63492063 +000.57142857
2 +001.2 +000.35714285 +000.42857142
3 +000.7 +000.97402597 +000.68181818
4 +001.5 +000.21212121 +000.31818181
Suma de Redundancias = +002
Todos los parámetros de Baarda se encuentran en el intervalo [0,73-1,21] < 3,29,
y por tanto todos los observables son aceptados.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 +000.00032571 +000.00026959 +001.20816313
2 +000.00024428 +000.00020219 +001.20816313
3 +000.00024545 +000.00033391 +000.73507948
4 +000.00011454 +000.00015582 +000.73507948
El error máximo que puede deslizarse en uno de nuestros observables y no
ser detectado es de ∇Oi = 0,000048 metros, cinco centésimas de milímetro del
observable nº 4.
98
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +000.00023347 +000.75592894 +000.00003706 +000.15874507
2 +000.00023347 +000.65465367 +000.00004279 +000.18330302
3 +000.00022810 +000.82572282 +000.00003315 +000.14532721
4 +000.00022810 +000.56407607 +000.00004852 +000.21273726
3.2.5.10. Comprobación de los observables: fiabilidad externa
de la subred 1
Es claro que la subred es más pequeña que la red triangulaterada por tanto el
parámetro de homogeneidad µExi ofrece muy poca información.
Comprobaciones de Fiabilidad Externa de la red
O.�√
1− ri�- Parámetro de Homogeneidad µExi = µINi√
1− ri
1 +000.85634883 +000.19899748
2 +000.51639777 +000.07236272
3 +000.54772255 +000.07855844
4 +000.83666002 +000.18330302
En cuanto al error no detectado ∇Oi en el observable de orden i afectaría a cada
variable dxV 2 y dyV 2 según los valores de la tabla siguiente. El error no detectado
afectaría en centésimas de milímetro a las variables.
99
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +000.00005672
Variable o Parámetro 2... +000
Observable ... ( 2 )����[m]
Variable o Parámetro 1... -000.00001244
Variable o Parámetro 2... +000
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +000
Variable o Parámetro 2... -000.00001013
Observable ... ( 4 )����[m]
Variable o Parámetro 1... +000
Variable o Parámetro 2... +000.00003609
La composición cuadrática de los errores transmitidos a las variables dxV 2 y dyV 2
por los observables, supuesto el caso más desfavorable, resulta su composición
cuadrática, que en ningún caso alcanza la décima de milímetro.
Observable√error dx2 + error dy2
1 0,057 mm2 0,012 mm3 0,010 mm4 0,036 mm
3.2.5.11. Comprobación de los observables: fiabilidad externa
de la subred 2
El error no detectado ∇Oi afectaría en centésimas de milímetro a las variables dxV 2
y dyV 2 según los valores de la tabla siguiente:
100
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +000
Variable o Parámetro 2... +000.00010513
Observable ... ( 2 )����[m]
Variable o Parámetro 1... +000.00007008
Variable o Parámetro 2... +000
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +000
Variable o Parámetro 2... +000.00010513
Observable ... ( 4 )����[m]
Variable o Parámetro 1... +000.00019824
Variable o Parámetro 2... +000
Como en la subred 1 la composición cuadrática de los errores transmitidos tampoco
supera la décima de milímetro.
Observable√error dx2 + error dy2
1 0,1 mm2 0,07 mm3 0,1 mm4 0,1 mm
3.2.5.12. Semiejes de la elipse standard de las subredes 1 y 2
Siguiendo el texto del epígrafe 3.1.14 podemos escribir:
Siendo las matrices S = (ATPA) de las subredes 1 y 2:
MATRIZ S1 de la subred 1
S = ATPA =1,5 0
0 3
101
MATRIZ S2 de la subred 2
S = ATPA =2,2 0
0 2,1
obtendremos los autovalores de las matrices S de las subredes 1 y 2:
Autovalores de S1 de la subred 1
µ1 =1.5
µ2 =3.0
Autovalores de S2 de la subred 2
µ1 =2.2
µ2 =2.1
Y conocidas la desviaciones típicas del observable de peso unidad a posteriori de
las subredes 1 y 2:
σ0 subred 1 = 4 · 10−4m.
σ0 subred 2 = 3, 4 · 10−4m.
podemos calcular, los semiejes de las elipses estándar de error del vértice V 2:
Los semiejes genéricos, según la ecuación Φi = σ0 ·√µ−1i , y serán los que siguen,
semiejes subred 1:
Φ1 subred 1 = 3, 27 · 10−4m
Φ2 subred 1 = 2, 31 · 10−4m
semiejes subred 2:
Φ1 subred 2 = 2, 33 · 10−4m
Φ2 subred 2 = 2, 28 · 10−4m
semiejes que de�nen un círculo en lugar de una elipse.
102
3.2.5.13. Las elipses asociadas a la curvas pedales de las
subredes 1 y 2
Siguiendo el texto del epígrafe 3.1.15, a partir de la matriz varianza covarianza de
las variables o parámetros de la subred 1 obtenemos:
σ2x = 0, 00000011 m2
σ2y = 0, 00000005 m2
2σxy = 0
siendo fácil calcular los semiejes mayor y menor:
asubred 1 = 3, 3 · 10−4m
bsubred 1 = 2, 2 · 10−4m
En general a y b son los errores máximo y mínimo en valor absoluto.
Con la matriz varianza covarianza de las variables o parámetros de la subred 2
siendo conocido σ2x = 0, 00000005 m2 = 0, 05 mm2, σ2
y = 0, 05 mm2, y σxy = o, la
curva podaria queda determinada según
σ2r = 0, 05 · (cos2w + sen2w) = (x2 + y2)2
o bien
0, 05 · (x2 + y2) = (x2 + y2)2
es decir
x2 + y2 = 0, 05
resultando una circunferencia de 0, 22mm. de radio, centrada en el vértice V2 .
r = asubred 2 = bsubred 2 = 2, 2 · 10−4m
103
3.2.5.14. Probabilidades de error asociadas a las figuras de
error de las subredes 1 y 2
Conocida el área de la podaria y el área de la elipse se puede estimar, siguiendo la
teoría expuesta en el epígrafe 3.1.16, la probabilidad asociada a la elipse a partir
de la probabilidad conocida de la podaria.
En la subred 1, siendo la probabilidad de la podaria 1 ·σ2(una varianza)<> ±1 ·σ
(una desviación típica),< 0, 68 >, y la probabilidad de la elipse asociada a
K2 · σ2(varianzas) <> ±K · σ (desviaciones típicas) con:
K2subred 1 = AE
AP= 2·a·b
a2+b2= 2·(3,3·10−4·2,2·10−4)
(3,3·10−4)2+(2,2·10−4)2 = 14,52·10−8
15,73·10−8 = 0, 9231
K = ± 0, 9608
Prob ES <> ±√
( 2aba2+b2
σ2)=±K · σ = ± 0, 9608 · 0, 68 = 0, 6533 desviaciones
típicas
Así en nuestra subred 1:
A la elipse standard de semiejes mayor y menor:
asubred 1 = 3, 27 · 10−4m
bsubred 1 = 2, 31 · 10−4m
se asocia una �abilidad del 65, 33 % = 65, 3 %.
Una homotecia de razón adecuada según rutina de la distribución normal
practicada a la �gura descrita, genera el recinto de incertidumbre con la
probabilidad que se precise.
Si en la tabla de la integral de Gauss15 buscamos la abscisa z correspondiente a
un área de I = 0,99 obtenemos :15
�Tratado de Topografía� Tomo I, Manuel CHUECA et alt, páginas 23 y 24. Editorial Paraninfo.Madrid, 1996.
104
zt = ±2, 575
y si recordamos que el área de error de la elipse correspondía a:
za = ±0, 628
resulta
ztza'4
Multiplicaremos por 4 los semiejes de la elipse standard para conseguir el área de
error de probabilidad 99%:
4 · asubred 1 = 3, 27 · 10−4 · 4 = 13, 08 · 10−4m = 1, 3 mm
4 · bsubred 1 = 2, 31 · 10−4 · 4 = 9, 24 · 10−4m = 0, 9 mm
En la subred 2 sabemos que la super�cie de error es un círculo:
asubred 2 = bsubred 2 = 2, 2 · 10−4m
La elipse y su podaria standard óptimas que denominamos ESO y PSO se
confunden en la circunferencia CS standard, y se tiene:
Probabilidad CS = Probabilidad ESO =
= Probabilidad PSO<>√
2R2
R2+R2σ2 = ±1σ <> 0, 68 (probabilidad standard)
Una homotecia de razón adecuada según rutina de la distribución normal
practicada a las �guras descritas genera el recinto de incertidumbre con la
probabilidad que se precise.
Así en nuestra subred 2:
A la circunferencia standard de radio 0, 22mm se asocia una �abilidad del 68%.
105
A la circunferencia de radio (2 · 0, 22mm) = 0, 44mm se asocia una �abilidad del
95%.
A la circunferencia de radio (2, 5 · 2, 2mm) = 0, 55mm se asocia una �abilidad del
99%.
3.2.5.15. Error o perturbación db de las subredes 1 y 2
Siguiendo el mismo método de cálculo que en el epígrafe 3.1.17 obtenemos:
en la subred 1
‖dx‖‖x‖ = 0, 22, error relativo de un 22% sobre las variables: dxV 2 subred 1 = 0, 12 mm
y dyV 2 subred 1 = 0, 63mm.
en la subred 2
‖dx‖‖x‖ = 0, 184, error relativo de un 18,4% sobre las variables: dxV 2 subred 2 = 3, 12mm
y dyV 2 subred 2 = 0, 5mm.
3.2.5.16. Resultados finales de la red por incrementos par-
ciales
En cuanto a los resultados de la subred 1:
El vértice V2 se ha determinado con una �abilidad del 99% según un recinto
de error de�nido por una elipse estándar asociada a una podaria (con semiejes:
13, 5 · 10−4 m, y 9, 02 · 10−4m) de centro el vértice V2.
Existe el riesgo añadido de que cálculos y redondeos den lugar a un error relativo
máximo adicional en coordenadas de un 22% sobre las variables calculadas:
dxV 2 subred 1 = 0, 12mm y dyV 2 subred 1 = 0, 63mm.
La solución de la subred 1 será
106
XV2C= XV 2 + dxV 2 subred 1 = 163, 0196 + 0, 00012 = 163, 01972 ' 163, 020m
YV2C= YV 2 + dyV 2 subred 1 = 154, 2438 + 0, 00063 = 154, 2443 ' 154, 244m
Solución igual a la que se obtuvo en la red triangulaterada:
XV2C= XV 2 +dxV 2 triangulateracion = 163, 0196+0, 00012 = 163, 01972 ' 163, 020m
YV2C= YV 2 + dyV 2 triangulateracion = 154, 2438 + 0, 0005 = 154, 2442 ' 154, 244m
Y tendrá un recinto de error elipsoidal, con 0,99 de �abilidad, de semiejes:
asubred 1 = semieje mayor subred 1 · (1 + 0, 22) = 1, 3 · 1, 22 ' 1, 58mm
bsubred 1 = semieje menor subred 1 · (1 + 0, 22) = 0, 9 · 1, 22 ' 1, 1mm
En cuanto a los resultados de la subred 2:
El vértice V2 se ha determinado con una �abilidad del 99% según un recinto de
error de�nido por un círculo (con radio: 5, 5 · 10−4 mm) de centro el vértice V2.
Existe el riesgo añadido de que cálculos y redondeos den lugar a un error relativo
máximo adicional en coordenadas de un 18,4% sobre las variables calculadas:
dxV 2 subred 1 = 0, 054mm y dyV 2 subred 1 = 0, 56mm.
La solución de la subred 2 será
XV2C= XV 2 + dxV 2 subred 1 = 163, 0196 + 0, 000054 = 163, 01965 ' 163, 020m
YV2C= YV 2 + dyV 2 subred 1 = 154, 2438 + 0, 00056 = 154, 24436 ' 154, 244m
(es el mismo resultado que se obtuvo en la red triangulaterada y en la subred 1)
Y esa solución tendrá un recinto de error circular, con 0,99 de �abilidad, de radio:
r = radio · (1 + 0, 18) = 0, 55 · 1, 18 = 0, 65mm
107
De nuevo, como en el caso de la red triangulaterada, se está en el entorno de la
precisión de 1 mm con �abilidad de 0,99. Lo que con�rma el rigor y veracidad
del nuevo método de ajuste estudiado, de incrementos de coordenadas, y su
equivalencia en �abilidad y resultados con el de triangulateración.
Tan solo nos falta aplicarlo a observables GNSS, logrando así, entendiendo que en
situación pionera, resolver con rigor el inevitable problema de las covarianzas a
priori entre parejas de observables de dicho tipo.
108
Capítulo 4
Resolución de la red de observables
clásicos junto a observables GNSS
por el método de triangulateración
4.1. Objeto
Se trata de agregar a la red de observables clásicos del artículo ya citado1 distancias
reducidas GNSS. Para conseguir éstas últimas se ha partido de las correspondientes
distancias inclinadas entre vértices, observadas con equipos GNSS Leica System
12002, y se han reducido al sistema de referencia local practicando una nivelación
de precisión clásica complementaria.
Y de nuevo se insiste en que no se considera primordial la precisión absoluta
que alcancen los resultados. Antes bien, se estudiará el efecto que provoca en los
1
Cfr. �Progreso en la práctica del ajuste gaussiano...�, de Mª Jesús Jiménez Martínez et alt.
2
Medición en modo post-proceso estático, con señal de frecuencia L1. Los vectores GNSS, encomponentes cartesianas geocéntricas, se han calculado con el programa Geolab. Se han cotejadolos resultados obtenidos con otros programas, como son el TTC (Trimble Total Control), Bernessey DDBASE.
109
mismos, obtenidos a partir de observables clásicos, la adición de observables GNSS,
así como la �abilidad en su interpretación a posteriori.
4.2. El vector de observables GNSS
Se han observado todos los lados y diagonales de la red, y para comprobar la
normalidad de la distribución de las distancias se les aplica, como es habitual, el
Test de Pearson.
Siendo el vértice incógnita V2, son utilizables las distancias GNSS V1-V2, V3-V2
y V4-V2.
Se aceptan los observables
� V1-V2 con un parámetro q² = 0,44 y n = 2 grados de libertad, nivel de a�rmación
positivo de 80,55%.
� V3-V2 con un parámetro q² = 0,46 y n = 2 grados de libertad, nivel de a�rmación
positivo de 79,91%.
Se rechaza el observable
� V4-V2 con un parámetro q² = 2,60 y n = 2 grados de libertad, nivel de a�rmación
positivo de 28,05%.
Queda el vector de observables con�gurado con 10 observables, de los que 8,
son �clásicos� y corresponden al trabajo inicial (5 de azimut y 3 de distancia
reducida electrónica) añadiendo 2 distancias reducidas GNSS, obtenidas según se
ha explicado.
4.3. Las coordenadas aproximadas
Las coordenadas aproximadas3 que emplearemos son las que siguen:3
Cfr. epígrafe 3.3.2 del artículo �Progreso en la práctica del ajuste gaussiano...�, de Mª JesúsJiménez Martínez et alt..
110
Vértice X [m] Y [m]
V1 99,9997 166,59758
V2 163,01455 154,2486
V3 167,52085 88,01078
V4 100 100
4.4. La matriz de pesos
Conocemos el peso y la varianzas de cada una de las formas lineales clásicas de
azimut y distancia4.
Para obtener el peso de las 2 observaciones GNSS calculamos en primer lugar las
desviaciones típicas de las distancias GNSS V1-V2 y V3-V2, a partir de los datos
de campo.
periodo de observación Dv1−v2[m] Dv3−v2[m]1 64,2182 66,37992 64,2147 66,38443 64,2133 66,38504 64,2152 66,38325 64,21525 66,39346 64,2170 66,39347 64,21325 66,38748 64,2128 66,3843
media [m] 64,21497 66,3864σ0 [m]= error dist = dl 0,001915 0,004824
Cuadro 4.1: Observaciones de campo GNSS, valor medio y desviación típica
A continuación, y siguiendo el método de triangulateración, calculamos las tablas
con factores de conversión y varianzas proporcionales de las 2 ecuaciones de
distancia:4
Cfr. epígrafe 4.4.3.1 del artículo �Progreso en la práctica del ajuste gaussiano...�, de Mª JesúsJiménez Martínez et alt.
111
Ecuación Distancia : Dv3−v2 λijg= arctg ρ·dα
dlFactorij=cosλij σ2
o = vplij = dl2ij · cos2λij
error dist = dl = 48 · 10−4m 5,0608g 0,9968 2,289·10−5[m2]Distancia= lij = 66, 38637merror angular = dα = 3, 66cc
Ecuación Distancia : Dv1−v2 λijg= arctg ρ·dα
dl. Factorij=cosλij, σ2
o = vplij = dl2ij · cos2λij
error dist = dl = 19 · 10−4m 8,3513g 0,9914 3,548·10−6[m2]Distancia= lij = 64, 2149merror angular = dα = 2, 48cc
Los valores del parámetro λij : 5,06g y 8,3513g, dan lugar a cuadriláteros de
ponderación con lados absolutamente diferentes que provocarán correcciones en
dx, y dy sobre los ejes grandes y pequeñas alternativamente, cfr. �gura 3.10.
Las varianzas de las 5 formas lineales de azimut, 3 formas lineales de distancia
reducida (obtenidas con estación total) y 2 formas lineales de distancia reducida
GNSS son :
Forma lineal varianza:σ20 [m2]
θv4−v2 2, 37 · 10−8
θv1−v2 2, 56 · 10−8
θv3−v2 7, 95 · 10−8
θv2−v4 10, 61 · 10−8
θv2−v3 8, 77 · 10−8
Dv4−v2 4, 85 · 10−8
Dv3−v2 6, 00 · 10−8
Dv1−v2 4, 89 · 10−8
Dv3−v2GNSS 354, 82 · 10−8
Dv1−v2GNSS 2289, 5 · 10−8
Cuadro 4.2: Las varianzas de las distancias GNSS son muy superiores a lasvarianzas del resto de los observables
112
Seleccionamos de entre todas las varianzas el valor de la mediana, que desde ese
momento se convierte en el estimador de la varianza a priori del observable de peso
unidad σ20 = vp2
mediana = 6, 975 · 10−8.
Haciendo notar que la mediana = 6, 975 ·10−8 y la media = 269, 23 ·10−8, no tienen
valores próximos.
Y los pesos de las 10 formas lineales son:
PO1a = σ2o
σ2oTi
=vp2mediana
vpi2=6,975·10−8
2,37·10−8 = 2, 94
PO2a = σ2o
σ2OTi
=vp2mediana
vpi2=6,975·10−8
2,56·10−8 = 2, 72
PO3a = σ2o
σ2oTi
=vp2mediana
vpi2=6,975·10−8
7,95·10−8 = 0, 88
PO4a = σ2o
σ2oTi
=vp2mediana
vpi2=6,975·10−8
10,61·10−8 = 0, 66
PO5a = σ2o
σ2oTi
=vp2mediana
vpi2=6,975·10−8
8,77·10−8 = 0, 80
PO1d= σ2
o
σ2oTi
=vp2mediana
vpi2=6,975·10−8
4,85·10−8 = 1, 44
PO2d= σ2
o
σ2oTi
=vp2mediana
vpi2=6,975·10−8
6,00·10−8 = 1, 16
PO3d= σ2
o
σ2OTi
=vp2mediana
vpi2=6,975·10−8
4,89·10−8 = 1, 43
PO1d GNSS V 3V 2= σ2
o
σ2oTi
=vp2mediana
vpi2= 6,975·10−8
354,82·10−8 =1, 96 · 10−2
PO2d GNSS V 1V 2= σ2
o
σ2oTi
=vp2mediana
vpi2= 6,975·10−8
2289,5·10−8 =3, 05 · 10−3
El resultado es que la matriz de varianzas a priori y la de pesos no son homogéneas.
Y eso sabemos que no es bueno para la interpretación de resultados. Así, lo que
antecede conduce a una sencilla re�exión.
Consideremos las desviaciones típicas de los dos observables GNSS y la desviación
típica media de los observables clásicos:
113
sv1d GNSS V 3V 2 =√
354, 82,10−8 = 1, 88 · 10−3m ∼= 2 mm.
sv2d GNSS V 1V 2 =√
2289, 5,10−8 = 4, 78 · 10−3m ∼= 5 mm.
sv2OT α, d = (48,10−8
8)2 = 6 · 10−8m2
svOT α, d = (6,10−8)1/2 = 2, 45 · 10−84m2 ∼= 0, 25 mm
Podemos a�rmar que los observables clásicos son notablemente más precisos que
los GNSS. Y en nuestro caso, la relación de desviaciones típicas a priori puede
expresarse como
20,25≤ svOT GNSS
ˆsv_OT α, d
≤ 50,25
8 ≤ svOT GNSSˆ
sv_OT α, d≤ 20
para conseguir una triangulateración mixta correcta (�estética�) es preciso diseñar
la red reiterando más los observables GNSS que los clásicos. Y ello teniendo
presente que la práctica indicada tiene límites bien conocidos: aumentar el número
de observaciones no implica forzosamente que la varianza del observable GNSS
disminuya.
4.5. Ecuaciones de distancia GNSS factor-
izadas
Las 2 ecuaciones factorizadas de distancia GNSS las añadiremos a las 8 restantes5
para formar la matriz de diseño A y completar el vector K.
Ecuaciones variable dxv2 variable dyv2 dθv2 K [m]
Distancia Dv3−v2GNSS -6,77·10−2 0,9945 0 -4,52·10−3
Distancia Dv1−v2GNSS 0,9729 -0,1906 0 1,43·10−3
5
Cfr. epígrafes 5.1 y 5.2 del artículo �Progreso en la práctica del ajuste...�, de Mª Jesús JiménezMartínez et alt.
114
4.6. Matriz de diseño A, vector K de térmi-
nos independientes y matriz de pesos de
la red con descentrado
Las matrices de diseño que resultan de los cálculos previos son las que siguen:
MATRIZ A
A( 1, 1) = 0.4176
A( 1, 2) = -0.4851
A( 1, 3) = 0
A( 2, 1) = -0.1256
A( 2, 2) = -0.6409
A( 2, 3) = 0
A( 3, 1) = 0.7281
A( 3, 2) = 4.95E-002
A( 3, 3) = 0
A( 4, 1) = 0.4176
A( 4, 2) = -0.4851
A( 4, 3) = 0.1385
A( 5, 1) =0.7281
A( 5, 2) = 4.95E-002
A( 5, 3) = 0.1043
A( 6, 1) = 0.5822
A( 6, 2) = 0.5012
A( 6, 3) = 0
A( 7, 1) = -4.64E-002
A( 7, 2) = .6820
A( 7, 3) = 0
A( 8, 1) = 0.7431
A( 8, 2) = -0.1456
A( 8, 3) = 0
A( 9, 1) = -6.77E-002
A( 9, 2) = 0.9945
A( 9, 3) = 0
A( 10, 1) = 0.9729
A( 10, 2) = -0.1906
A( 10, 3) = 0
115
VECTOR K [m]
k( 1) = -4.21E-006
k( 2) = -4.42E-004
k( 3) = 2.25E-004
k( 4) = 1.72E-004
k( 5) = -1.29E-004
k( 6) = 7.68E-004
k( 7) = 2.05E-004
k( 8) = 6.05E-004
k( 9) = -4.52E-003
k( 10) = 1.43E-003
MATRIZ DIAGONAL P [adimensional]
Peso del observable 1 2.94
Peso del observable 2 2.72
Peso del observable 3 0.88
Peso del observable 4 0.66
Peso del observable 5 0.8
Peso del observable 6 1.44
Peso del observable 7 1.16
Peso del observable 8 1.43
Peso del observable 9 1.96E-002
Peso del observable 10 3.05E-003
4.6.1. Resultados del ajuste de la red triangulate-
rada con descentrado
El resultado se expresa según:
- diferencial de la coordenada x: dxV 2,
- diferencial de la coordenada y: dyV 2
- y por último el diferencial del error debido al descentrado de la línea de ceros del limbo:
dθv2, en el vértice V2.
116
VARIABLES O PARÁMETROS [m]diferencial de la coordenada x: dxV 2 =6.459E-004
diferencial de la coordenada y: dyV 2 =4.433E-004
diferencial del descentrado θ: dθV 2 =-1.925E-003
RESIDUOS [m]5.89E-005
7.675E-005
2.673E-004
-3.838E-004
4.205E-004
-1.697E-004
6.737E-005
-1.895E-004
4.9171E-003
-8.860E-004
Varianza de la medida de peso ud. = 1.28E-007 m2
Desv. típica de la medida de peso ud. = 3.59E-004 m
A continuación los listados parámetros y matrices de criterio de la red mixta en estudio,
que más tarde interpretaremos:
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+0.41911511 +0.00540705 -1.93060819
+0.00540705 +0.35169784 +0.63697887
-1.93060819 +0.63697887 +56.94877144
Matriz cofactor de los RESIDUOS
+0.18647512 -0.08624255 -0.11719073 +0.00079709 -0.00087324 -0.01599365 +0.12281447 -0.15262193 +0.17909616 -0.19981512
-0.08624255 +0.21570398 +0.05204202 -0.06328543 +0.06933030 +0.14597748 +0.15158478 +0.00877496 +0.22104043 +0.01149447
-0.11719073 +0.05204202 +0.91292680 +0.07312840 -0.08011347 -0.18851722 -0.00038618 -0.22385362 -0.00055122 -0.29307980
+0.00079709 -0.06328543 +0.07312840 +0.57800107 -0.63321043 +0.09546370 +0.05024050 +0.05892007 +0.07325755 +0.07714290
-0.00087324 +0.06933030 -0.08011347 -0.63321043 +0.69369325 -0.10458218 -0.05503936 -0.06454798 -0.08025495 -0.08451142
-0.01599365 +0.14597748 -0.18851722 +0.09546370 -0.10458218 +0.46087996 -0.11091597 -0.15721337 -0.16172928 -0.20583550
+0.12281447 +0.15158478 -0.00038618 +0.05024050 -0.05503936 -0.11091597 +0.69792572 +0.04659754 -0.23935611 +0.06100135
-0.15262193 +0.00877496 -0.22385362 +0.05892007 -0.06454798 -0.15721337 +0.04659754 +0.46158060 +0.06796117 -0.31123263
+0.17909616 +0.22104043 -0.00055122 +0.07325755 -0.08025495 -0.16172928 -0.23935611 +0.06796117 +50.67137551 +0.08896872
-0.19981512 +0.01149447 -0.29307980 +0.07714290 -0.08451142 -0.20583550 +0.06100135 -0.31123263 +0.08896872 +327.46137428
Matriz cofactor de los observables corregidos
+0.15366093 +0.08624254 +0.11719072 -0.00079710 +0.00087323 +0.01599365 -0.12281448 +0.15262192 -0.17909616 +0.19981511
+0.08624254 +0.15194307 -0.05204202 +0.06328542 -0.06933031 -0.14597749 -0.15158478 -0.00877497 -0.22104043 -0.01149448
+0.11719072 -0.05204202 +0.22343682 -0.07312841 +0.08011346 +0.18851722 +0.00038617 +0.22385362 +0.00055121 +0.29307980
-0.00079710 +0.06328542 -0.07312841 +0.93715044 +0.63321042 -0.09546371 -0.05024050 -0.05892007 -0.07325755 -0.07714290
+0.00087323 -0.06933031 +0.08011346 +0.63321042 +0.55630674 +0.10458218 +0.05503935 +0.06454798 +0.080254 +0.08451141
+0.01599365 -0.14597749 +0.18851722 -0.09546371 +0.10458218 +0.23356448 +0.11091596 +0.15721336 +0.16172927 +0.2058355
0 -0.12281448 -0.15158478 +0.00038617 -0.05024050 +0.05503935 +0.11091596 +0.16414323 -0.04659755 +0.23935611 -0.06100136
+0.15262192 -0.00877497 +0.22385362 -0.05892007 +0.06454798 +0.15721336 -0.04659755 +0.23772009 -0.06796118 +0.31123263
-0.17909616 -0.22104043 +0.00055121 -0.07325755 +0.08025494 +0.16172927 +0.23935611 -0.06796118 +0.34903265 -0.08896872
+0.19981511 -0.01149448 +0.29307980 -0.07714290 +0.08451141 +0.20583550 -0.06100136 +0.31123263 -0.08896872 +0.40747817
117
Matriz varianza-cov de las variables o PARÁMETROS
+0.00000005 +0.00000000 -0.00000025
+0.00000000 +0.00000004 +0.00000008
-0.00000025 +0.00000008 +0.00000734
Matriz varianza-cov a posteriori de los residuos
+0.00000002 -0.00000001 -0.00000002 +0.00000000 -0.00000000 -0.00000000 +0.00000001 -0.00000002 +0.00000002 -0.00000003
-0.00000001 +0.00000002 +0.00000000 -0.00000001 +0.00000000 +0.00000001 +0.00000001 +0.00000000 +0.00000002 +0.00000000
-0.00000002 +0.00000000 +0.00000011 +0.00000000 -0.00000001 -0.00000002 -0.00000000 -0.00000003 -0.00000000 -0.00000004
+0.00000000 -0.00000001 +0.00000000 +0.00000007 -0.00000008 +0.00000001 +0.00000000 +0.00000000 +0.00000000 +0.00000000
-0.00000000 +0.00000000 -0.00000001 -0.00000008 +0.00000008 -0.00000001 -0.00000001 -0.00000001 -0.00000001 -0.00000001
-0.00000000 +0.00000001 -0.00000002 +0.00000001 -0.00000001 +0.00000005 -0.00000001 -0.00000002 -0.00000002 -0.00000003
+0.00000001 +0.00000001 -0.00000000 +0.00000000 -0.00000001 -0.00000001 +0.00000008 +0.00000000 -0.00000003 +0.00000000
-0.00000002 +0.00000000 -0.00000003 +0.00000000 -0.00000001 -0.00000002 +0.00000000 +0.00000005 +0.00000000 -0.00000004
+0.00000002 +0.00000002 -0.00000000 +0.00000000 -0.00000001 -0.00000002 -0.00000003 +0.00000000 +0.00000653 +0.00000001
-0.00000003 +0.00000000 -0.00000004 +0.00000000 -0.00000001 -0.00000003 +0.00000000 -0.00000004 +0.00000001 +0.00004220
Matriz varianza-cov a posteriori de los observables corregidos
+0.00000001 +0.00000001 +0.00000001 -0.00000000 +0.00000000 +0.00000000 -0.00000002 +0.00000001 -0.00000002 +0.00000002
+0.00000001 +0.00000001 -0.00000001 +0.00000000 -0.00000001 -0.00000002 -0.00000002 -0.00000000 -0.00000003 -0.00000000
+0.00000001-0.00000001 +0.00000002 -0.00000001 +0.00000001 +0.00000002 +0.00000000 +0.00000002 +0.00000000 +0.00000003
-0.00000000 +0.00000000 -0.00000001 +0.00000012 +0.00000008 -0.00000001 -0.00000001 -0.00000001 -0.00000001 -0.00000001
+0.00000000 -0.00000001 +0.00000001 +0.00000008 +0.00000007 +0.00000001 +0.00000000 +0.00000000 +0.00000001
+0.00000001
+0.00000000 -0.00000002 +0.00000002 -0.00000001 +0.00000001 +0.00000003 +0.00000001 +0.00000002 +0.00000002 +0.00000002
-0.00000002 -0.00000002 +0.00000000 -0.00000001 +0.00000000 +0.00000001 +0.00000002 -0.00000001 +0.00000003 -0.00000001
+0.00000001 -0.00000000 +0.00000002 -0.00000001 +0.00000000 +0.00000002 -0.00000001 +0.00000003 -0.00000001 +0.00000004
-0.00000002 -0.00000003 +0.00000000 -0.00000001 +0.00000001 +0.00000002 +0.00000003 -0.00000001 +0.00000004 -0.00000001
+0.00000002 -0.00000000 +0.00000003 -0.00000001 +0.00000001 +0.00000002 -0.00000001 +0.00000004 -0.00000001 +0.00000005
Listados de comprobación de la �abilidad interna de la red:
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +2.94 +0.18647512 +0.54823686
2 +2.72 +0.21570398 +0.58671483
3 +0.88 +0.91292680 +0.80337559
4 +0.66 +0.57800107 +0.38148070
5 +0.8 +0.69369325 +0.55495460
6 +1.44 +0.46087996 +0.66366714
7 +1.16 +0.69792572 +0.80959384
8 +1.43 +0.46158060 +0.66006026
9 +0.0196 +50.67137551 +0.99315896
10 +0.00305 +327.46137428 +0.99875719
Suma de Redundancias = +7
118
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 +0.00005890 +0.00015503 +0.37997818
2 +0.00007674 +0.00016673 +0.46029871
3 +0.00026726 +0.00034302 +0.77913091
4 -0.00038386 +0.00027294 -1.40637382
5 +0.00042052 +0.00029901 +1.40637381
6 -0.00016974 +0.00024372 -0.69643543
7 +0.00006736 +0.00029992 +0.22461335
8 -0.00018954 +0.00024391 -0.77708806
9 +0.00491714 +0.00255557 +1.92408598
10 -0.00088605 +0.00649661 -0.13638636
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +0.00014073 +0.74043018 +0.00078307 +5.56433283
2 +0.00013994 +0.76597312 +0.00075271 +5.37877876
3 +0.00016970 +0.89631221 +0.00078004 +4.59661256
4 +0.00034754 +0.61764124 +0.00231831 +6.67053897
5 +0.00026777 +0.74495275 +0.00148092 +5.53055208
6 +0.00017350 +0.81465768 +0.00087747 +5.05733888
7 +0.00014545 +0.89977432 +0.00066601 +4.57892592
8 +0.00017504 +0.81244092 +0.00088765 +5.07113792
9 +0.00021209 +0.99657360 +0.00087685 +4.13416526
10 +0.00022917 +0.99937840 +0.00094477 +4.12256257
Listados de comprobación de la �abilidad externa de la red:
119
Comprobaciones de Fiabilidad Externa de la red
O.�√
1− ri�- Parámetro de Homogeneidad µExi = µINi√
1− ri
1 +0.67213327 +3.73997325
2 +0.64287258 +3.45786942
3 +0.44342351 +2.03824608
4 +0.78645997 +5.24611191
5 +0.66711722 +3.68952658
6 +0.57994211 +2.93296379
7 +0.43635553 +1.99803969
8 +0.58304351 +2.95669407
9 +0.08271057 +0.34193920
10 +0.03525348 +0.14533471
120
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +0.00039690
Variable o Parámetro 2... -0.00038758
Variable o Parámetro 3... -0.00256750
Observable ... ( 2 )����[m]
Variable o Parámetro 1... -0.00011487
Variable o Parámetro 2... -0.00046288
Variable o Parámetro 3... -0.00033937
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +0.00020965
Variable o Parámetro 2... +0.00001465
Variable o Parámetro 3... -0.00094327
Observable ... ( 4 )����[m]
Variable o Parámetro 1... -0.00014534
Variable o Parámetro 2... -0.00012260
Variable o Parámetro 3... +0.01036204
Observable ... ( 5 )����[m]
Variable o Parámetro 1... +0.00012328
Variable o Parámetro 2... +0.00010399
Variable o Parámetro 3... +0.00540905
Observable ... ( 6 )����[m]
Variable o Parámetro 1... +0.00031174
Variable o Parámetro 2... +0.00022670
Variable o Parámetro 3... -0.00101684
Observable ... ( 7 )����[m]
Variable o Parámetro 1... -0.00001218
Variable o Parámetro 2... +0.00018511
Variable o Parámetro 3... +0.00040482
Observable ... ( 8 )����[m]
Variable o Parámetro 1... +0.00039433
Variable o Parámetro 2... -0.00005990
Variable o Parámetro 3... -0.00193878
Observable ... ( 9 )����[m]
Variable o Parámetro 1... -0.00000040
Variable o Parámetro 2... +0.00000600
Variable o Parámetro 3... +0.00001313
Observable ... ( 10 )����[m]
Variable o Parámetro 1... +0.00000117
Variable o Parámetro 2... -0.00000018
Variable o Parámetro 3... -0.00000576
4.7. Matriz de diseño A, vector K de térmi-
nos independientes y matriz de pesos de
la red sin descentrado
La matriz A de diseño que resulta de eliminar el error debido al descentrado de la
línea de ceros del limbo: dθv2, en el vértice V2, es la que sigue:
121
MATRIZ A
A( 1, 1) = 0.4176
A( 1, 2) = -0.4851
A( 2, 1) = -0.1256
A( 2, 2) = -0.6409
A( 3, 1) = 0.7281
A( 3, 2) = 4.95E-002
A( 4, 1) = -0.2986
A( 4, 2) = -0.4214
A( 5, 1) = 0.2384
A( 5, 2) = 0.3365
A( 6, 1) =0 .5822
A( 6, 2) = 0.5012
A( 7, 1) = -4.64E-002
A( 7, 2) = 0.6820
A( 8, 1) =0 .7431
A( 8, 2) = -0.1456
A( 9, 1) = -6.77E-002
A( 9, 2) = 0.9945
A( 10, 1) = 0.9729
A( 10, 2) = -0.1906
El vector K y la matriz de los pesos, como debe ser, son las mismas que en la red
con descentrado.
4.7.1. Resultados del ajuste de la red triangulate-
rada sin descentrado
El resultado se expresa según:
- diferencial de la coordenada x: dxV 2,
- diferencial de la coordenada y: dyV 2
122
VARIABLES O PARÁMETROS [m]diferencial de la coordenada x: dxV 2 =6.2491E-004
diferencial de la coordenada y: dyV 2 =3.997E-004
RESIDUOS [m]7.129E-005
1.074E-004
2.498E-004
-5.27E-004
4.125E-004
-2.039E-004
3.8585E-005
-1.988E-004
4.875E-003
-8.982E-004
Varianza de la medida de peso ud. = 1.2587E-007 m2
Desv. típica de la medida de peso ud. = 3.547E-004 m
A continuación los listados parámetros y matrices de criterio de la red mixta en estudio,
que interpretaremos y analizaremos en los epígrafes posteriores.
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+0.41504605 -0.00407930
-0.00407930 +0.33672652
Matriz cofactor de los RESIDUOS
+0.18686435 -0.08376232 -0.11946751 -0.01720668 +0.01374715 -0.01933805 +0.12069781 -0.15429821 +0.17600973 -0.20200986
-0.08376232 +0.22344493 +0.04670927 -0.10551088 +0.08425145 +0.13673403 +0.14453413 +0.00544781 +0.21075935 +0.00713813
-0.11946751 +0.04670927 +0.91580441 +0.09594740 -0.07660447 -0.18268574 +0.00467056 -0.22241667 +0.00682244 -0.29119829
-0.01720668 -0.10551088 +0.09594740 +1.41937658 +0.07647406 +0.14166089 +0.09027200 +0.07033423 +0.13163087 +0.09208842
+0.01374715 +0.08425145 -0.07660447 +0.07647406 +1.18893723 -0.11311054 -0.07208569 -0.05615134 -0.10511234 -0.07351880
-0.01933805 +0.13673403 -0.18268574 +0.14166089 -0.11311054 +0.47155622 -0.10236238 -0.15381651 -0.14925661 -0.20138785
+0.12069781 +0.14453413 +0.00467056 +0.09027200 -0.07208569 -0.10236238 +0.70429762 +0.04984232 -0.23006479 +0.06524981
-0.15429821 +0.00544781 -0.22241667 +0.07033423 -0.05615134 -0.15381651 +0.04984232 +0.46209215 +0.07269268 -0.31056276
+0.17600973 +0.21075935 +0.00682244 +0.13163087 -0.10511234 -0.14925661 -0.23006479 +0.07269268 +50.68492386 +0.09516379
-0.20200986 +0.00713813 -0.29119829 +0.09208842 -0.07351880 -0.20138785 +0.06524981 -0.31056276 +0.09516379 +327.46225147
Matriz cofactor de los observables corregidos
+0.15327169 +0.08376231 +0.11946750 +0.01720667 -0.01374715 +0.01933804 -0.12069781 +0.15429820 -0.17600973 +0.20200985
+0.08376231 +0.14420212 -0.04670927 +0.10551088 -0.08425146 -0.13673403 -0.14453414 -0.00544781 -0.21075936 -0.00713814
+0.11946750 -0.04670927 +0.22055922 -0.09594740 +0.07660447 +0.18268573 -0.00467056 +0.22241667 -0.00682245 +0.29119828
+0.01720667 +0.10551088 -0.09594740 +0.09577493 -0.07647406 -0.14166089 -0.09027201 -0.07033424 -0.13163088 -0.09208842
-0.01374715 -0.08425146 +0.07660447 -0.07647406 +0.06106276 +0.11311054 +0.07208568 +0.05615134 +0.10511234 +0.07351879
+0.01933804 -0.13673403 +0.18268573 -0.14166089 +0.11311054 +0.22288821 +0.10236237 +0.15381651 +0.14925661 +0.20138784
-0.12069781 -0.14453414 -0.00467056 -0.09027201 +0.07208568 +0.10236237 +0.15777134 -0.04984232 +0.23006479 -0.06524982
+0.15429820 -0.00544781 +0.22241667 -0.07033424 +0.05615134 +0.15381651 -0.04984232 +0.23720854 -0.07269268 +0.31056276
-0.17600973 -0.21075936 -0.00682245 -0.13163088 +0.10511234 +0.14925661 +0.23006479 -0.07269268 +0.33548429 -0.09516379
+0.20200985 -0.00713814 +0.29119828 -0.09208842 +0.07351879 +0.20138784 -0.06524982 +0.31056276 -0.09516379 +0.40660098
123
Matriz varianza-cov de las variables o PARÁMETROS
+0.00000005 -0.00000000
-0.00000000 +0.00000004
Matriz varianza-cov a posteriori de los residuos
+0.00000002 -0.00000001 -0.00000002 -0.00000000 +0.00000000 -0.00000000 +0.00000001 -0.00000002 +0.00000002 -0.00000003
-0.00000001 +0.00000002 +0.00000000 -0.00000001 +0.00000001 +0.00000001 +0.00000001 +0.00000000 +0.00000002 +0.00000000
-0.00000002 +0.00000000 +0.00000011 +0.00000001 -0.00000001 -0.00000002 +0.00000000 -0.00000003 +0.00000000 -0.00000004
-0.00000000 -0.00000001 +0.00000001 +0.00000017 +0.00000000 +0.00000001 +0.00000001 +0.00000000 +0.00000001 +0.00000001
+0.00000000 +0.00000001 -0.00000001 +0.00000000 +0.00000014 -0.00000001 -0.00000001 -0.00000001 -0.00000001 -0.00000001
-0.00000000 +0.00000001 -0.00000002 +0.00000001 -0.00000001 +0.00000005 -0.00000001 -0.00000002 -0.00000002 -0.00000003
+0.00000001 +0.00000001 +0.00000000 +0.00000001 -0.00000001 -0.00000001 +0.00000008 +0.00000000 -0.00000003 +0.00000000
-0.00000002 +0.00000000 -0.00000003 +0.00000000 -0.00000001 -0.00000002 +0.00000000 +0.00000005 +0.00000000 -0.00000004
+0.00000002 +0.00000002 +0.00000000 +0.00000001 -0.00000001 -0.00000002 -0.00000003 +0.00000000 +0.00000638 +0.00000001
-0.00000003 +0.00000000 -0.00000004 +0.00000001 -0.00000001 -0.00000003 +0.00000000 -0.00000004 +0.00000001 +0.00004121
Matriz varianza-cov a posteriori de los observables corregidos
+0.00000001 +0.00000001 +0.00000001 +0.00000000 -0.00000000 +0.00000000 -0.00000002 +0.00000001 -0.00000002 +0.00000002
+0.00000001 +0.00000001 -0.00000001 +0.00000001 -0.00000001 -0.00000002 -0.00000002 -0.00000000 -0.00000003 -0.00000000
+0.00000001 -0.00000001 +0.00000002 -0.00000001 +0.00000000 +0.00000002 -0.00000000 +0.00000002 -0.00000000 +0.00000003
+0.00000000 +0.00000001 -0.00000001 +0.00000001 -0.00000001 -0.00000002 -0.00000001 -0.00000001 -0.00000002 -0.00000001
-0.00000000 -0.00000001 +0.00000000 -0.00000001 +0.00000000 +0.00000001 +0.00000000 +0.00000000 +0.00000001 +0.00000000
+0.00000000 -0.00000002 +0.00000002 -0.00000002 +0.00000001 +0.00000002 +0.00000001 +0.00000001 +0.00000001 +0.00000002
-0.00000002 -0.00000002 -0.00000000 -0.00000001 +0.00000000 +0.00000001 +0.00000001 -0.00000001 +0.00000002 -0.00000001
+0.00000001 -0.00000000 +0.00000002 -0.00000001 +0.00000000 +0.00000001 -0.00000001 +0.00000002 -0.00000001 +0.00000003
-0.00000002 -0.00000003 -0.00000000 -0.00000002 +0.00000001 +0.00000001 +0.00000002 -0.00000001 +0.00000004 -0.00000001
+0.00000002 -0.00000000 +0.00000003 -0.00000001 +0.00000000 +0.00000002 -0.00000001 +0.00000003 -0.00000001 +0.00000005
Listados de comprobación de la �abilidad interna de la red:
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +2.94 +0.18686435 +0.54938121
2 +2.72 +0.22344493 +0.60777021
3 +0.88 +0.91580441 +0.80590788
4 +0.66 +1.41937658 +0.93678854
5 +0.8 +1.18893723 +0.95114978
6 +1.44 +0.47155622 +0.67904096
7 +1.16 +0.70429762 +0.81698523
8 +1.43 +0.46209215 +0.66079177
9 +0.0196 +50.68492386 +0.99342450
10 +0.00305 +327.46225147 +0.99875986
Suma de Redundancias = +8
124
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 +0.00007128 +0.00015336 +0.46480606
2 +0.00010736 +0.00016770 +0.64016368
3 +0.00024977 +0.00033952 +0.73565127
4 -0.00052702 +0.00042269 -1.24681795
5 +0.00041246 +0.00038685 +1.06619289
6 -0.00020387 +0.00024363 -0.83677042
7 +0.00003858 +0.00029774 +0.12957863
8 -0.00019883 +0.00024117 -0.82440853
9 +0.00487516 +0.00252587 +1.93008772
10 -0.00089821 +0.00642027 -0.13990239
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +0.00013890 +0.74120254 +0.00077208 +5.55853460
2 +0.00013472 +0.77959618 +0.00071201 +5.28478725
3 +0.00016662 +0.89772372 +0.00076469 +4.58938523
4 +0.00010979 +0.96787837 +0.00046738 +4.25673319
5 +0.00008767 +0.97526908 +0.00037036 +4.22447513
6 +0.00016750 +0.82403941 +0.00083746 +4.99976082
7 +0.00014092 +0.90387235 +0.00064235 +4.55816572
8 +0.00017279 +0.81289099 +0.00087579 +5.06833019
9 +0.00020549 +0.99670683 +0.00084945 +4.13361268
10 +0.00022623 +0.99937974 +0.00093266 +4.12255705
Listados de comprobación de la �abilidad externa de la red:
125
Comprobaciones de Fiabilidad Externa de la red
O.�√
1− ri�- Parámetro de Homogeneidad µExi = µINi√
1− ri
1 +0.67128145 +3.73134117
2 +0.62628251 +3.30976983
3 +0.44055886 +2.02189436
4 +0.25141888 +1.07022311
5 +0.22102084 +0.93369705
6 +0.56653246 +2.83252683
7 +0.42780224 +1.94999352
8 +0.58241585 +2.95187584
9 +0.08108940 +0.33519221
10 +0.03521552 +0.14517799
126
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +0.00039792
Variable o Parámetro 2... -0.00037465
Observable ... ( 2 )����[m]
Variable o Parámetro 1... -0.00009589
Variable o Parámetro 2... -0.00041696
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +0.00020322
Variable o Parámetro 2... +0.00000921
Observable ... ( 4 )����[m]
Variable o Parámetro 1... -0.00003770
Variable o Parámetro 2... -0.00004340
Observable ... ( 5 )����[m]
Variable o Parámetro 1... +0.00002891
Variable o Parámetro 2... +0.00003328
Observable ... ( 6 )����[m]
Variable o Parámetro 1... +0.00028893
Variable o Parámetro 2... +0.00020066
Observable ... ( 7 )����[m]
Variable o Parámetro 1... -0.00001642
Variable o Parámetro 2... +0.00017125
Observable ... ( 8 )����[m]
Variable o Parámetro 1... +0.00038700
Variable o Parámetro 2... -0.00006520
Observable ... ( 9 )����[m]
Variable o Parámetro 1... -0.00000054
Variable o Parámetro 2... +0.00000558
Observable ... ( 10 )����[m]
Variable o Parámetro 1... +0.00000115
Variable o Parámetro 2... -0.00000019
4.8. Estudio de los parámetros y matrices de
criterio de la triangulateración clásica
con observables adicionales GNSS
En los epígrafes 4.6.1 y 4.7.1 se han reproducido los listados correspondientes al
ajuste de la red con y sin descentrado. Puede apreciarse que los resultados son
127
perfectamente comparables. En las redes con y sin descentrado, las correcciones
a las coordenadas aproximadas a priori en la expresión X = Xa + x , objetivo
fundamental del ajuste, son:
� Con descentrado
- diferencial de la coordenada x: dxV 2 = 6, 46 · 10−4m. <> 0, 65 mm.,
- diferencial de la coordenada y: dyV 2 = 4, 43 · 10−4m. <> 0, 44 mm.
� Sin descentrado
- diferencial de la coordenada x: dxV 2 = 6, 25 · 10−4m. <> 0, 63 mm,
- diferencial de la coordenada y: dyV 2 = 4, 00 · 10−4m. <> 0, 40 mm
coincidiendo la cifra de las décimas de mm., que como vamos a ver más adelante,
no es signi�cativa.
Sucede lo mismo, aun cuando en menor cuantía relativa, con el resto de los
componentes, más secundarios, del algoritmo. Por ejemplo con el vector de
observables compensado C = OT +R, según puede constatarse, y con los resultados
intermedios y �nales de ambos listados.
Por consiguiente y para simpli�car, se utiliza en adelante solamente uno de ellos.
Siendo indiferente la elección se inclina por el listado con descentrado. Por supuesto
se tendrá siempre presente el ajuste �clásico� de triangulateración inicial6, sin
observables GNSS. Así, su resultado en las correcciones consignadas es:
� Triangulateración clásica
- diferencial de la coordenada x: dxV 2 = 6, 37 · 10−4m. <> 0, 64 mm,
- diferencial de la coordenada y: dyV 2 = 4, 72 · 10−4m. <> 0, 47 mm
La introducción de los dos observables GNSS con pesos más de un centenar de
veces inferiores al promedio de los observables clásicos lógicamente y así lo hemos
veri�cado, apenas in�uye en los resultados del ajuste, la ponderación provoca que
que suceda así.
6
Cfr. �Progreso en la práctica del ajuste gaussiano de una red local: Método de Triangulateración�,de Mª Jesús Jiménez Martínez et alt.
128
Sin embargo,con la interpretación de los resultados cambia de manera notable,
según se expone en detalle a continuación:
� Desviación típica y varianza del observable de peso unidad. F-Test de Snedecor
En el ajuste triangulaterado clásico, los datos y resultados son los siguientes
A priori
svo = 2, 3 · 10−4m
sv2o = 5, 3 · 10−8m2
A posteriori
svo = 2, 6 · 10−4m
sv2o = 6, 7 · 10−8m2
obteniendo
F = σ02
sv20= 6,7·10−8
5,3·10−8 = 1, 26
Un valor excelente.
En el caso que nos ocupa, con observables clásicos y GNSS:
A priori
svo = 2, 64 · 10−4m
sv2o = 6, 975 · 10−8m2
A posteriori
svo = 3, 6 · 10−4m
129
sv2o = 1, 29 · 10−7m2
obteniendo
F = σ02
sv20= 1,29·10−7
6,975·10−8 = 1, 85
El deterioro en calidad de interpretación es evidente, pasamos de una F = 1, 26 a
otra F = 1, 85 . Y todo como resultado del desequilibrio, o falta de homogeneidad,
de pesos en el vector de observables, introduciendo dos de calidad muy inferior al
resto, como son los observables GNSS.
Siendo predecible lo que antecede, comienza a hacerse evidente la notable
sensibilidad del método de triangulateración.
� Las matrices varianza covarianza de parámetros, residuos y observables:
svxx, svRR y svCC permanecen aproximadamente constantes.
Llama la atención sobre el hecho de que las matrices svRR y svCC resultan
completas y sus diagonales principales distintas. Con todo ello se incumple la
condición a priori de Gauss Marcov necesaria para practicar sucesivas iteraciones
directamente a partir de aquellas, obligando a arti�cios de los que es lícito
descon�ar vehementemente.
A los efectos que nos ocupan la información a obtener de las matrices citadas es
mas bien escasa. Por ello es imperativo completarla con otros algoritmos y criterios
que siguen.
En cualquier caso y elemento a elemento, las varianzas y covarianzas de la matriz
svxx triangulaterada clásica son inferiores, y por tanto, mejores que sus homólogas
en los ajustes agregando observables GNSS. Véanse a continuación ambas matrices,
caso red mixta con descentrado.
Matriz svxx triangulaterada clásica
svxx =
3 · 10−8 0 1, 6 · 10−8
0 3 · 10−8 5 · 10−8
1, 6 · 10−8 5 · 10−8 4, 78 · 10−6
130
Matriz svxx triangulaterada mixta con observables GNSS y descentrado
svxx =
5 · 10−8 0 −2, 5 · 10−8
0 4 · 10−8 8 · 10−8
−2, 5 · 10−8 8 · 10−8 7, 34 · 10−6
La precisión se ha deteriorado. Veremos en qué cuantía.
4.9. Fiabilidad interna y fiabilidad externa
de la triangulateración clásica con ob-
servables adicionales GNSS
El cuadro de redundancias de la red clásica es el siguiente:
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +002.3409 +000.23330960 +000.54615445
2 +002.1025 +000.27897220 +000.58653906
3 +000.7099 +001.12384648 +000.79781862
4 +000.5318 +000.71445506 +000.37994720
5 +000.6435 +000.86040992 +000.55367378
6 +001.0609 +000.63994408 +000.67891668
7 +000.9409 +000.85194252 +000.80159272
8 +001.1449 +000.57241458 +000.65535745
Suma de Redundancias = +005
Las redundancias son homogéneas y próximas a 58
= 0, 625. Todas están en torno
a la redundancia media 0, 625.
El cuadro de redundancias de la red mixta es:
131
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +2.94 +0.18647512 +0.54823686
2 +2.72 +0.21570398 +0.58671483
3 +0.88 +0.91292680 +0.80337559
4 +0.66 +0.57800107 +0.38148070
5 +0.8 +0.69369325 +0.55495460
6 +1.44 +0.46087996 +0.66366714
7 +1.16 +0.69792572 +0.80959384
8 +1.43 +0.46158060 +0.66006026
9 +0.0196 +50.67137551 +0.99315896
10 +0.00305 +327.46137428 +0.99875719
Suma de Redundancias = +7
La redundancia media es 0, 70. Como en el caso anterior, los observables clásicos
agrupan sus redundancias alrededor de la media 0,70. Los GNSS alcanzan el
óptimo.... e introducen una fuerte heterogeneidad en la tabla. Obviamente todo se
explica a partir de los valores comparativamente muy superiores de sus cofactores,
consecuencia de su también comparativamente escasa precisión.
Es otro resultado arti�cial y adverso de la descompensación relativa de los pesos,
que se transmite al resto del Test de Baarda, desvirtuando sus resultados.
Siguiendo el análisis comparativo, el cuadro de mínimo error detectable de la red
clásica es el siguiente:
Ob.��mínimo error detectable (∇Oi) [m]
1 ��� 0.00063759
2 ��� 0.00061964
3 ��� 0.00063938
4 ��� 0.00187465
5 ��� 0.00119775
6 ��� 0.00071450
7 ��� 0.00054887
8 ��� 0.00072527
y en la red mixta:
132
Ob.��mínimo error detectable (∇Oi) [m]
1 ��� 0.00078307
2 ��� 0.00075271
3 ��� 0.00078004
4 ��� 0.00231831
5 ��� 0.00148092
6 ��� 0.00087747
7 ��� 0.00066601
8 ��� 0.00088765
9 ��� 0.00087685
10 ��� 0.00094477
Los dos cuadros resultan muy similares, más desfavorable el segundo, con un valor
máximo de 2,31 mm. en el observable nº 4, superior a 1,48 mm. en el mismo
observable y cuadro primero.
Lo mismo puede decirse y con el mismo reparo de la �abilidad externa, cuyo detalle
ya no se considera necesario reproducir. En la red clásica triangulaterada el error
trasmitido a las coordenadas no sobrepasan los 0,3 mm. en la red mixta 0,4 mm.
4.10. Recintos de error
Las �guras de error en el vértice V2 son las que siguen:
� Red clásica.
Los semiejes de la elipse standard ES calculados directamente son
a = b = 0,17 mm.
Y ES resulta ser un círculo.
Calculando directamente la directriz de la curva podaria, que matemáticamente
es ES se obtiene la elipse de semiejes
a = 0,181 mm.
133
b = 0,167 mm.
La pequeña diferencia existente es seguramente debida a inevitables errores de
redondeo en el proceso de cálculo.
Super�cie de la podaria = 0,10 mm²
� Red mixta
Los semiejes de la elipse standard ES calculados directamente son
a = 0,26 mm.
b = 0,21 mm.
Y calculando directamente la directriz de la curva podaria, se sigue
a = 0,22 mm.
b = 0,20 mm.
Siendo también aplicable a la diferencia encontrada la consideración anterior sobre
el error de redondeo.
Super�cie de la podaria = 0,14 mm²
4.11. Errores en redondeo dS y db
El error dS es despreciable en cualquier caso. Sin embargo el error db es realmente
importante. Resulta un coe�ciente de mayoración del 38% en la red clásica, que
pasa al 39% en la mixta.
134
4.12. Conclusiones básicas
En resumen, con un 68% de �abilidad, (que puede reducirse o elevarse lo que
se quiera aplicando el adecuado coe�ciente multiplicador), el recinto de error en
la red mixta puede de�nirse en el caso que nos ocupa por una curva podaria de
semieje �a� un 43% mayor que el correspondiente a la clásica, un semieje �b� un
26% mayor, y encerrando una super�cie un 40% mayor. Todos los semiejes en el
entorno de los 0,2 mm.
A todo ello hay que agregar un coe�ciente de mayoración de un 38%
aproximadamente debido al error db, y el resultado, con una �abilidad adecuada,
de a lo menos un 95% ronda la precisión milimétrica. Tal vez se puedan tomar
más precauciones y trabajar con mayor rigor. Nosotros nos conformamos con lo
expuesto.
A lo expuesto debemos agregar que sería muy bueno diseñar a priori la red de
forma que no existiera o se minimizara la descompensación apreciada en la matriz
de pesos. Se debe tener muy en cuenta.
Y todo parece indicar que los observables mejores y más �ables, (fundamental-
mente porque se puede predecir mejor peso y precisión y su determinación es
físicamente más simple y alejada de errores sistemáticos instrumentales y am-
bientales), son los azimutales clásicos, después los distanciométricos electrónicos,
y �nalmente los GNSS. Naturalmente, el rendimiento en el trabajo está en relación
inversa a la prelación establecida.
Que en cualquier caso es imperativo utilizar observación clásica para de�nir
el vector Xa de coordenadas aproximadas. Y que, dependiendo de la precisión
exigida, puede establecerse un programa adecuado de observación que ahorre
tiempo y dinero, de tal manera que en de�nitiva se consiga lo mejor posible que
So ≈ diag sv2o = P−1 programando debidamente el empleo selectivo, en presencia
y número, de observables azimutales, distanciométricos y GNSS. En el caso de
que los pesos de las formas lineales fueran iguales el hiperelipsoide de observables
135
RT ·P ·R = k2 = mínimo (conocido) se transforma en hiperesfera y si, a posteriori,
la hiperpodaria de correcciones a coordenadas se transforma en hiperesfera, se
resuelve el problema de las �guras de error especí�cas de los vértices de la red, y
así lo estudiaremos en la siguiente publicación. Con todo esto queremos insistir en
la necesidad de que los observables tengan pesos lo más similares posibles, y lo ideal
sería que fueran iguales. Descartando mediciones con instrumentos de precisiones
no homogéneas, hoy por hoy es el caso que plantean los observables GNSS respecto
a los clásicos (azimutes y distancias).
Y cuanto más asequible sea acercarse a los óptimos enunciados, más rigurosa y
�able será la aplicación del ajuste gaussiano y la interpretación de sus resultados,
cualquiera que sean los observables, clásicos y/o GNSS, reducidos o no a lineales.
No parece tener sentido la resolución de la red mixta por el método de incrementos
en ajuste doble, decisión que tomamos apoyándonos en los resultados desfavorables
de la red mixta triangulaterada y en la falta de homogeneidad de los pesos. Sin
embargo sí nos parece interesante, aunque sólo para clari�car ideas, resolver la
red mixta (constituida por azimutes, distancias y vectores GNSS) calculando los
pesos a partir de la descomposición en valores singulares de la matriz completa
varianza covarianza, según es práctica habitual muy extendida, y así lo haremos
en el siguiente capítulo 5.
136
Capítulo 5
Una práctica usual desaconsejable:
resolución de la red de observables
clásicos junto a observables GNSS
con matriz completa de pesos
factorizada
En las conclusiones de la triangulateración hemos discutido sobre la conveniencia
del ajuste de Gauss-Marcov de una red mixta con observables de diferente
precisión, como son las mediciones clásicas y GNSS. Sin embargo este capítulo
lo dedicamos a ajustar una red de observables clásicos junto a observables GNSS,
mostrando sus, a nuestro entender, riesgos evidentes.
A continuación y siguiendo la práctica muy extendida del momento, vamos a
resolver la red de incrementos de coordenadas (clásicos y GNSS) factorizando
la matriz de pesos generalizada completa P , evidentemente sin seguir la
propuesta del ajuste doble por incrementos resuelta teórica y prácticamente en los
capítulos 2 y 3.
137
El vector de observables corresponde al del ejemplo del capítulo 4. A partir de
los mismos datos de campo: clásicos y GNSS, calcularemos los incrementos de
coordenadas en el sistema de referencia local.
5.1. Cálculo de los incrementos de coorde-
nadas a partir de los observables clási-
cos. Test de Pearson
A partir de los azimutes y distancias reducidas calculamos los incrementos de
coordenadas entre vértices de la red junto a sus varianzas y covarianzas según
(40), (41) y (42).
Los incrementos que han superado el test de Pearson son los del cuadro 5.1.
Incremento Porcentaje de aceptación∆X V 1V 2 97,54%∆Y V 1V 2 81,37%∆X V 2V 4 90,89%∆Y V 2V 4 82,08%∆X V 4V 2 90,89%∆Y V 4V 2 77,13%
Cuadro 5.1: Incrementos de coordenadas entre vértices con el porcentaje deaceptación del test de Pearson de los observables clásicos
En los cuadros 5.2, 5.3 y 5.4 se encuentran los listados de: azimutes , distancias
reducidas, incrementos de coordenadas, varianzas y covarianzas de los incrementos.
138
Cuadro 5.2: Azimutes [g], distancias reducidas[m], incrementos de coordenadasV1V2[m], varianzas[m2] y covarianzas[m2].
Cuadro 5.3: Azimutes [g], distancias reducidas[m], incrementos de coordenadasV2V4[m], varianzas[m2] y covarianzas[m2].
139
Cuadro 5.4: Azimutes [g], distancias reducidas[m], incrementos de coordenadasV4V2[m], varianzas[m2] y covarianzas[m2].
5.2. Cálculo de los incrementos de coorde-
nadas a partir de los vectores GNSS.
Test de Pearson
La observación de campo se hizo con los equipos GNSS Leica System 1200 (cfr.
epígrafe 4.1).
En primer lugar se calculan los vectores GNSS cartesianos geocéntricos y después
los incrementos de coordenadas entre vértices.
A continuación es necesario hacer una conversión de los incrementos cartesianos
geocéntricos a nuestro sistema geodésico local. Y para obtener los incrementos
140
de coordenadas topográ�cas a partir de incrementos de coordenadas cartesianas
geocéntricas utilizamos la expresión:∆xij
∆yij
∆zij
= RT (ϕi, λi) ·
∆Xij
∆Yij
∆Zij
siendo la matriz de rotación ortonormal:
R(ϕi, λi) =
−senλi −senϕi · cosλi cosϕi · cosλi
cosλi −senϕi · senλi cosϕi · senλi
0 cosϕi senϕi
Utilizamos la latitud media y longitud media de los vértices de los vectores
cartesianos geocéntricos GNSS: ϕi y λi .
Por último aplicaremos una rotación azimutal a cada pareja de incrementos para
hacerlos coincidir con los del levantamiento clásico de la red. No hay una rotación
única para todos los ejes.
En cuadros sucesivos podemos ver los incrementos GNSS. Las varianzas y cova-
rianzas se han calculado según (40) (41) y (42).
141
Cuadro 5.5: Incrementos de coordenadas V1V2 GNSS, medias[m], varianzas [m2]y covarianzas[m2]
142
Cuadro 5.6: Incrementos de coordenadas V2V3 GNSS, medias[m] , varianzas [m2]ycovarianzas[m2]
Los incrementos GNSS bidimensionales superan sobradamente el test de normali-
dad. El porcentaje de aceptación se recoge en el cuadro 5.7. Se prescinde de la
tercera coordenada zij, porque el levantamiento es bidimensional.
Incremento Porcentaje de aceptación∆X V 1V 2 93,99%∆Y V 1V 2 93,99%∆X V 2V 3 98,76%∆Y V 2V 3 89,01%
Cuadro 5.7: Porcentaje de aceptación del test de Pearson de los incrementos decoordenadas GNSS
143
La matriz varianza covarianza de todos los incrementos de coordenadas de la red
es la del cuadro 5.8.
Cuadro 5.8: Matriz varianza covarianza Σo de los incrementos de coordenadasclásicos y GNSS, unidades m2
144
5.3. Las coordenadas aproximadas
Las coordenadas aproximadas son las que siguen:
Vértice X [m] Y [m]
V1 99,9997 166,59758
V2 163,01455 154,2486
V3 167,52085 88,01078
V4 100 100
5.4. Matriz de diseño A y el vector K de
términos independientes
Las formas lineales del sistema de ecuaciones quedan de�nidas por la matriz A y
vector K de términos independientes, estando a la espera de de�nir la matriz de
los pesos P .
Cuadro 5.9: Matriz de diseño A de elementos exactos
145
Cuadro 5.10: El vector K [metros]
5.4.1. Las matriz de pesos factorizada P'
Volviendo a las conocida expresión del peso, función de la matriz varianza
covarianza:
P = Q−1= σ20 · Σ−1
o = matriz de pesos
siendo Σo = matriz varianza covarianza
Siguiendo la teoría propuesta de entre las varianzas de Σo seleccionamos la
mediana, que se convierte en el estimador de la varianza a priori del observable de
peso unidad, en este caso tiene el valor σ20 = 0, 000000051619 m2.
Conocidos Σo y σ20 calculamos la matriz P (= σ2
0 · Σ−1o ) .
Podemos factorizar la matriz de pesos generalizada completa P, (cfr. expresión
[22]) según:
P = Γ · V · ΓT = Γ · P ′ · ΓT
146
siendo V , Γ matrices de autovalores y autovectores respectivamente, obtenidos
por la descomposición en valores singulares de la matriz P ,
P ′ es la matriz de pesos diagonalizada.
Los autovalores son los siguientes:
DIAGONAL DE LA MATRIZ DE AUTOVALORES V m2, dimensiones 10 x 10
0.0000000087·106
0.000000068 ·106
0.00000000061 ·106
0.0000000023·106
0.0000027·106
4.60 ·106
0.00000057·106
0.13·106
0.00000057·106
-0.0033·106
Eliminamos el último observable de la matriz Σo porque su autovalor es negativo
(−0,0033 · 106 m2). No tiene sentido que un peso sea negativo1. Y volvemos a
calcular los autovalores de la matriz V1 de dimensiones 9 x 9. Los autovalores son
ahora:
DIAGONAL DE LA MATRIZ DE AUTOVALORES V1[m2], dimensiones 9 x 9
0.0000000087·106
0.000000068 ·106
0.00000000061 ·106
0.0000000023·106
0.0000027·106
4.60 ·106
0.00000057·106
0.13·106
0.000001·106
Y los autovectores:1
Es por cierto algo inevitable virtud de la propia teoría conocida. Recordemos que la eliminaciónde un observable (método de los ajustes coordinados) pasa precisamente por cambiar de signosu peso, pasando a negativo.
147
MATRIZ DE AUTOVECTORES Γ, dimensiones 9 x 9
La diferencia entre los autovalores que constituyen la diagonal de la matriz de
pesos P ′, alcanza el orden 109. Hay variaciones muy importantes en la matriz de
pesos del sistema. Uno de los observables de mayor peso es GNSS, el nº 8, con un
valor de 0, 13 · 106.
La patente descompensación de la matriz P ′ hace inadecuado el método de
interpretación de los resultados, el estudio de los parámetros y la comprobación de
la �abilidad interna y externa de la red, como veremos en el epígrafe 5.5 dedicado a
los resultados. Así debe suceder, pues el nuevo vector de residuos R′ = ΓT ·R está
fuera del lugar geométrico de las soluciones Gauss-Marcov, según en su momento
se demostró.
5.4.2. Las matrices de diseño A' y K'
Las nuevas matrices de diseño A′ y K ′ se calculan con:
ΓT ·(Ax−K) = (A′x−K ′) (cfr. expresión [14])
Y son las que siguen:
148
MATRIZ A'
A'( 1, 1) = -.8571
A'( 1, 2) = -.5152
A'( 2, 1) = .5152
A'( 2, 2) = -.8571
A'( 3, 1) = .9886
A'( 3, 2) = .1503
A'( 4, 1) = -.1503
A'( 4, 2) = .9886
A'( 5, 1) = -.9813
A'( 5, 2) = .1923
A'( 6, 1) = -.1923
A'( 6, 2) = -.9813
A'( 7, 1) = .7578
A'( 7, 2) = .6524
A'( 8, 1) = -.6524
A'( 8, 2) = .7578
A'( 9, 1) = 1
A'( 9, 2) = 0
VECTOR K'
k'( 1) = -1.8E-003
k'( 2) = 5E-004
k'( 3) = 0
k'( 4) = -4.2E-003
k'( 5) = -5E-004
k'( 6) = -1E-004
k'( 7) = 9E-004
k'( 8) = 3E-004
k'( 9) = 5.99E-004
Hay que hacer notar que la matriz A′ ya no es de elementos exactos, pudiendo
aumentar los errores de redondeo debidos al cálculo numérico del sistema
matemático (fundamentalmente el db).
Y por último la matriz P ′, constituida por los autovalores de V1:
149
MATRIZ DE PESOS P'
Peso del observable 1 9E-003
Peso del observable 2 7.1E-002
Peso del observable 3 6E-004
Peso del observable 4 2E-003
Peso del observable 5 2.7
Peso del observable 6 4603534
Peso del observable 7 0.6
Peso del observable 8 129531
Peso del observable 9 1
5.5. Resultados del ajuste de la red mixta
por incrementos con matriz de pesos
factorizada
El resultado se expresa según:
- diferencial de la coordenada x: dxV 2,
- diferencial de la coordenada y: dyV 2
VARIABLES O PARÁMETROS [m]
diferencial de la coordenada x: dxV 2= -2.78E-004
diferencial de la coordenada y: dyV 2 = 1.56E-004
RESIDUOS [m]1.96E-003
-7.77E-004
-2.51E-004
4.40E-003
8.03E-004
-7.22E-010
-1.01E-003
-3.40E-007
-8.78E-004
Varianza de la medida de peso ud. = 4.62E-007 m2
Desv. típica de la medida de peso ud. = 6.80E-004 m
Observando la matriz de pesos P ′ podemos decir que dxV 2 dependerá fundamen-
talmente de los observables 6 y 8 (sobre cuya calidad nos hemos extendido ante-
150
riormente y volveremos sobre ella), y dyV 2 de los observables 5, 7 y 9. Los restantes
observables: 1, 2, 3, y 4, prácticamente no afectan al resultado �nal.
La relación entre la varianza el observable de peso unidad a priori σ20 = 5, 1·10−8m2
y a posteriori σ20 = 4, 62 · 10−7m2 es :
F = σ02
sv20= 4,62·10−7
5,1·10−8 = 9, 06
El valor 9, 06 está muy lejos del valor 1. El deterioro en calidad de interpretación
es evidente y de nuevo podemos decir que el desequilibrio proviene de la falta de
homogeneidad de los pesos.
En los listados siguientes se encuentran las matrices de criterio: matriz cofactor de
las variables o parámetros, matriz cofactor de los residuos, matriz cofactor de los
observables corregidos, matriz varianza-covarianza de las variables o parámetros,
matriz varianza-covarianza a posteriori de los residuos y matriz varianza-covarianza
a posteriori de los observables corregidos.
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+000.000122 -000.000022
-000.000022 +000.000000611
La matriz cofactor de las variables tiene valores absolutamente diferentes en la
diagonal. Los semiejes de la elipse estándar de error serán muy distintos.
151
Cuadro 5.11: Matrices de criterio
La matriz cofactor de los residuos tiene unos valores en la diagonal excesivamente
altos: 111,1111, 1666,6666, 499,9999... y otros muy pequeños, como son el 0,00 ó
el 0,9999. No es justi�cable el fuerte desequilibrio entre residuos.
La matriz varianza covarianza de las variables o parámetros es idénticamente nula,
que implica que el área de la podaria de error asociada al vértice V2 es cero.
152
La matriz varianza covarianza de los observables corregidos a posteriori es igual a
cero, que es lo mismo que decir que los observables no tienen errores después del
ajuste.
Listados de comprobación de la �abilidad interna de la red:
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +000.009 +111.111103888 +000.999999934
2 +000.07 +014.285708658 +000.999999606
3 +000.0006 +1666.666655342+000.999999993
4 +000.002 +499.999998476 +000.999999996
5 +002.7 +000.370357739 +000.999965897
6 +4603533 +000 +000.000000779
7 +000.6 +001.666661539 +000.999996923
8 +129531 +000.000000000 +000.000049105
9 +001 +000.999987763 +000.999987763
Suma de Redundancias = +007
La redundancia media es 0,77, que en la práctica sería el valor óptimo de proyecto.
Los observables 6 y 8 no se ajustan a la redundancia media, no están controlados
en absoluto y pueden albergar un error grosero. Y son precisamente (como es
lógico) los de más peso por lo que determinan el resultado. Y sin embargo apenas
intervienen en el resultado el resto de observables, que presentan un coe�ciente
cercano a la unidad, óptimo.
153
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 +000.001957790+000.007169341 +000.273078105
2 -000.000777340+000.002570700 -000.302384596
3 -000.000251435+000.027766739 -000.009055251
4 +000.004396424+000.015208469 +000.289077347
5 +000.000802989+000.000413915 +001.939986178
6 -000.000000001+000.000000000 -002.581368973
7 -000.001008714+000.000878060 -001.148798933
8 -000.000000034+000.000000013 -002.563853122
9 -000.000878113+000.000680139 -001.291078502
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +000.000001827 +000.999999967 +000.000000219 +000.120000003
2 +000.000001613 +000.999999803 +000.000000193 +000.120000023
3 +000.000002288 +000.999999996 +000.000000274 +000.120000000
4 +000.000000839 +000.999999998 +000.000000100 +000.120000000
5 +000.000002417 +000.999982948 +000.000000290 +000.120002046
6 +000.000000316 +000.000883095 +000.000043075 +135.885589586
7 +000.000001540 +000.999998461 +000.000000184 +000.120000184
8 +000.000001889 +000.007007505 +000.000032360 +017.124496221
9 +000.000002379 +000.999993881 +000.000000285 +000.120000734
Según el listado anterior el mínimo error detectable: ∇Oi es de 0,000043 metros.
Un error de centésimas de milímetros es inaceptablemente pequeño. Y lógicamente
un error no detectado de centésimas no afectará a las variables dxV 2 y dyV 2, como
se pone de mani�esto en los vectores de �abilidad externa de la red.
La calidad del ajuste es inversamente proporcional al valor de los parámetros de
homogeneidad (µExi y µINi). Podemos decir de nuevo que los observables 6 y 8
tienen un bajo nivel de control.
A continuación los listados de comprobación de la �abilidad externa de la red:
154
Comprobaciones de Fiabilidad Externa de la red
O.�√
1− ri�- Parámetro de Homogeneidad µExi = µINi√
1− ri
1 +000.000254957 +000.000030594
2 +000.000627599 +000.000075311
3 +000.000082428 +000.000009891
4 +000.000055201 +000.000006624
5 +000.005839759 +000.000700783
6 +000.999999610 +135.885536601
7 +000.001754005 +000.000210481
8 +000.999975447 +017.124075765
9 +000.003498134 +000.000419778
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... -000.000000000
Variable o Parámetro 2... +000
Observable ... ( 2 )����[m]
Variable o Parámetro 1... +000.000000000
Variable o Parámetro 2... -000.000000000
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +000
Variable o Parámetro 2... -000.000000000
Observable ... ( 4 )����[m]
Variable o Parámetro 1... -000.000000000
Variable o Parámetro 2... +000
Observable ... ( 5 )����[m]
Variable o Parámetro 1... -000.000000000
Variable o Parámetro 2... +000.000000000
Observable ... ( 6 )����[m]
Variable o Parámetro 1... -000.000041532
Variable o Parámetro 2... -000.000035757
Observable ... ( 7 )����[m]
Variable o Parámetro 1... +000.000000000
Variable o Parámetro 2... -000.000000000
Observable ... ( 8 )����[m]
Variable o Parámetro 1... -000.000040404
Variable o Parámetro 2... +000.000007917
Observable ... ( 9 )����[m]
Variable o Parámetro 1... +000.000000000
Variable o Parámetro 2... -000.000000000
155
Sin más argumentación ni comentarios, todo parece conducir a desaconsejar el
método, en teoría y praxis.
156
Capítulo 6
Aplicación del método de
incrementos de coordenadas en una
red GNSS
A partir de una nueva observación exclusiva GNSS de la red en estudio, se
propone �nalmente su ajuste según la teoría del método gaussiano determinista
por incrementos de coordenadas. Ventaja previa y básica frente a las redes mixtas
es que los observables tienen precisiones similares.
6.1. Cálculo de los incrementos de coorde-
nadas a partir de los vectores GNSS.
Test de Pearson
La observación de campo se hizo con los equipos GNSS Leica System 12001.
1
Medición en modo post-proceso estático, con señal de frecuencia L1 y L2 combinadas. Los vectoresGNSS, en componentes cartesianas geocéntricas, se han calculado con el programa TTC (TrimbleTotal Control).
157
Repetimos el proceso de cálculo para obtener los incrementos GNSS y sus
varianzas, tal y como se explicó en el epígrafe 5.2.
Cuadro 6.1: Incrementos GNSS observados [m] en el plano topográ�co dellevantamiento
Todos los incrementos GNSS bidimensionales superan sobradamente el test de
normalidad de Pearson, tomando cuatro decimales, llegando así a la décima de
milímetro. El porcentaje de aceptación se recoge en el cuadro 6.3., que en ningún
caso es inferior al 83%. Podemos disponer de todos los incrementos en el ajuste
de la red.
Incremento Porcentaje de aceptación∆X V 1V 2 (1) 93,78%∆Y V 1V 2 (1) 83,42%∆X V 3V 2 (1) 98,78%∆Y V 3V 2 (1) 97,28%∆X V 4V 2 (1) 92,68%∆Y V 4V 2 (1) 92,68%
Incremento Porcentaje de aceptación∆X V 1V 2 (2) 98,07%∆Y V 1V 2 (2) 87,49%∆X V 3V 2 (2) 89,01%∆Y V 3V 2 (2) 85,57%∆X V 4V 2 (2) 95,86%∆Y V 4V 2 (2) 93,79%
Cuadro 6.2: Porcentaje de aceptación del test de Pearson de los incrementos decoordenadas GNSS
158
Se prescinde de la tercera coordenada zij porque el levantamiento es bidimensional.
6.2. Las coordenadas aproximadas
Las coordenadas aproximadas2 que emplearemos son las que siguen, calculadas por
el camino de mejor consistencia distanciométrica:
Vértice X [m] Y[m]
V1 99,99940 166,59777
V2 163,01455 154,2486
V3 167,52085 88,01078
V4 100 100
Reiteramos que las mejores coordenadas aproximadas de la red son las obtenidas
por topografía clásica. Cualquier otro procedimiento en principio nos parece
desaconsejable.
Cuadro 6.3: Incrementos calculados [m] a partir de observaciones clásicas
2
Cfr. epígrafe 3.3.2 del artículo �Progreso en la práctica del ajuste gaussiano...�, de Mª JesúsJiménez Martínez et alt..
159
El vectorK lo calcularemos con los incrementos que provienen del cuadro 6.3 y con
los incrementos obtenidos a partir de los vectores GNSS (incrementos observados
del cuadro 6.1), según la expresión usual:
K = Incrementos Observados− Incrementos Calculados
6.3. Síntesis y resultados del ajuste de la red
GNSS por el método de incrementos de
coordenadas
En el cuadro 6.4 se encuentran las matrices completas de diseño de la red de
incrementos de coordenadas GNSS.
Si nos �jamos en la matriz de pesos hay cuatro observables que tienen peso muy
inferior a 1, dos son incrementos de X y otros dos son incrementos de Y:
P∆XV 3V 2(1) = 0, 11
P∆XV 4V 2(1) = 0, 083
P∆YV 4V 2(2) = 0, 066
P∆YV 3V 2(2) = 0, 071
Pesos tan pequeños desvirtúan el sistema de formas lineales, no aportan
información de relevancia al resultado, y empeoran la interpretación del ajuste.
En cuanto al peso P∆YV 3V 2(1) = 0, 25, de valor muy inferior a 1, decidimos eliminar
dos lecturas de la muestra con el objetivo de mejorar su varianza y su peso. Hemos
alcanzando así un peso P∆YV 3V 2(1) = 1. La muestra modi�cada, con dos lecturas
menos, supera el test de Pearson con un nivel de aceptación del 96%. Hemos hecho
160
lo mismo con el peso P∆XV 3V 2(1) = 0, 11 para conseguir �nalmente que alcance un
nuevo peso P∆XV 3V 2(1) = 0, 5.
Decidimos eliminar los observables que tienen los siguientes pesos:
P∆XV 4V 2(1) = 0, 083
P∆YV 4V 2(2) = 0, 066
P∆YV 3V 2(2) = 0, 071
Con los observables modi�cados y con los que tienen un peso de valor 1, según la
teoría del método de incrementos de coordenadas, dividimos el sistema de formas
lineales en dos subsistemas para evitar las covarianzas. Las submatrices de diseño
resultantes son las del cuadro 6.5.
161
Cuadro 6.4: Matriz A, vector K y matriz de pesos P de la red de incrementosGNSS
162
Cuadro 6.5: En el listado aparecen sucesivamente las submatrices A1 y A2,diferenciadas en el primer y segundo bloque de la matriz A. Lo mismo sucedecon los vectores K1 y K2 y las matrices de pesos P 1 y P 2
En el cuadro 6.6 podemos ver las varianzas de los incrementos GNSS, la mediana de
163
las varianzas y los pesos. La mediana es la varianza del observable de peso unidad
σ2o . Los pesos están calculados con la varianza σ2
oTiy la mediana σ2
o a partir de la
expresión:
POTi = σ2o
σ2oTi
Cuadro 6.6: Varianzas [m2] de los incrementos de coordenadas GNSS, mediana[m2] y �nalmente pesos
Las covarianzas no las hemos calculado porque no afectan al doble sistema
algebraico de incrementos. Incluso, aunque resultaran nulas sería más riguroso
considerarlo debido a error muestral.
Conocidas las matrices parciales de diseño A1, A2, los vectores K1, K2 y las
matrices de pesos P 1y P 2. Iniciamos el ajuste de la subred 1 y la subred 2.
6.3.1. El vector de variables, el vector de residuos y
la varianza a posteriori del observable de peso
unidad en la subred 1 GNSS
El resultado se expresa según:
- diferencial de la coordenada x: dxV 2,
- diferencial de la coordenada y: dyV 2
164
VARIABLES O PARÁMETROS [m]
diferencial de la coordenada x: dxV 2 =4.095E-003
diferencial de la coordenada y: dyV 2 =-1.465E-003
RESIDUOS [m]
3.275E-003
-2.355E-003
-3.275E-003
2.355E-003
Varianza de la medida de peso ud. = 1.63E-005 m2
Desv. típica de la medida de peso ud. = 4.03E-003 m
La desviación típica a posteriori del observable de peso unidad es la esperable,
considerando que la desviación típica a priori del observable de peso unidad es
3 · 10−3 m. La diferencia entre la desviación típica a priori 3 · 10−3 m y a posteriori
4 · 10−3 m es de 1 milímetro, con�rmando la bondad del cálculo y trabajo.
6.3.2. El vector de variables, el vector de residuos y
la varianza a posteriori del observable de peso
unidad en la subred 2 GNSS
VARIABLES O PARÁMETROS [m]
diferencial de la coordenada x: dxV 2 =0.67E-003
diferencial de la coordenada y: dyV 2 =-3.01E-003
RESIDUOS [m]
-1.7E-003
6.93E-004
1.7E-003
-3.47E-004
Varianza de la medida de peso ud. = 3.07E-006 m2
Desv. típica de la medida de peso ud. = 1.75E-003 m
La diferencia entre la desviación típica a priori 3·10−3m y a posteriori 1, 75·10−3m
es de 1,25 mm.
165
6.3.3. El resultado del ajuste doble por incrementos
de coordenadas a partir de los parámetros dxV 2
y dyV 2 de las subredes 1 y 2 GNSS
Hemos obtenido dos soluciones del las mismas variables, que procedes de las
subredes 1 y 2. Ambas soluciones son promediables, y es así como llegamos a
la solución �nal:
Diferencial de la coordenada x:
dxV 2 = (3, 27 · 10−3 + 0, 67 · 10−3)/2 = 3, 94 · 10−3 m.
Diferencial de la coordenada y:
dyV 2 = (−1, 46 · 10−3 − 3, 01 · 10−3)/2 = −4, 47 · 10−3 m.
6.3.4. Las matrices de criterio de la subred 1
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+000.5 +000
+000 +000.5
Matriz cofactor de los RESIDUOS.
+000.5 +000 -000.50000000 +000
+000 +000.5 +000 -000.50000000
-000.50000000 +000 +000.5 +000
+000 -000.50000000 +000 +000.5
Matriz cofactor de los observables corregidos.
+000.5 +000 +000.5 +000
+000 +000.5 +000 +000.5
+000.5 +000 +000.5 +000
+000 +000.5 +000 +000.5
166
Matriz varianza-cov de las variables o PARÁMETROS.
+000.00000813 +000
+000 +000.00000813
Matriz varianza-cov a posteriori de los residuos.
+000.00000813 +000 -000.00000814 +000
+000 +000.00000813 +000 -000.00000814
-000.00000814 +000 +000.00000813 +000
+000 -000.00000814 +000 +000.00000813
Matriz varianza-cov a posteriori de los observables corregidos.
+000.00000813 +000 +000.00000813 +000
+000 +000.00000813 +000 +000.00000813
+000.00000813 +000 +000.00000813 +000
+000 +000.00000813 +000 +000.00000813
6.3.5. Las matrices de criterio de la subred 2
Para la presentación de las matrices cofactor y varianza-cov se ofrece el formato +eeee.ddddd
Matriz cofactor de las Variables o PARÁMETROS.
+000.667 +000
+000 +000.5
Matriz cofactor de los RESIDUOS.
+000.5 +000 -000.50 +000
+000 +001.333 +000 -000.667
-000.5 +000 +000.5 +000
+000 -000.667 +000 +000.333
Matriz cofactor de los observables corregidos.
++000.5 +000 +000.5 +000
+000 +000.667 +000+000.667
+000.5 +000 +000.5 +000 +000
+000.667 +000 +000.667
167
Matriz varianza-cov de las variables o PARÁMETROS.
+000.00000204 +000
+000 +000.00000153
Matriz varianza-cov a posteriori de los residuos.
+000.00000153 +000 -000.00000154 +000
+000 +000.00000409 +000 -000.00000205
-000.00000154 +000 +000.00000153 +000
+000 -000.00000205 +000 +000.00000102
Matriz varianza-cov a posteriori de los observables corregidos.
+000.00000153 +000 +000.00000153 +000
+000 +000.00000204 +000 +000.00000204
+000.00000153 +000 +000.00000153 +000
+000 +000.00000204 +000 +000.00000204
6.3.6. Comprobación de los observables: fiabilidad
interna de la subred 1
La redundancia de un observable es un parámetro adimensional, y nos muestra
lo bien o mal que está �controlado� dicho observable. Nuestras redundancias son
homogéneas e iguales 24
= 0, 5. Estamos ante la situación óptima.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia.
1 +001 +000.5 +000.5
2 +001 +000.5 +000.5
3 +001 +000.5 +000.5
4 +001 +000.5 +000.5
Suma de Redundancias = +002
El parámetro de Baarda es el que se emplea para eliminar o rechazar un
observable.Todos los parámetros de Baarda en nuestro caso se encuentran en el
intervalo [-1,14,+1,14] < 3,29, y por tanto todos los observables son aceptados.
168
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 +000.003275 +000.00285233 +001.14818139
2 -000.00235500 +000.00285233 -000.82563883
3 -000.00327500 +000.00285233 -001.14818139
4 +000.002355 +000.00285233 +000.82563883
El error máximo que puede deslizarse en uno de nuestros observables y no ser
detectado es de ∇Oi = 0,00048 metros, 0,48 milímetros.
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +000.00285233 +000.70710678 +000.00048405 +000.16970562
2 +000.00285233 +000.70710678 +000.00048405 +000.16970562
3 +000.00285233 +000.70710678 +000.00048405 +000.16970562
4 +000.00285233 +000.70710678 +000.00048405 +000.16970562
6.3.7. Comprobación de los observables: fiabilidad
interna de la subred 2
Los parámetros de �abilidad interna son muy similares a los de la subred 1. Las
redundancias son homogéneas y próximas a 24
= 0, 5.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de REDUNDANCIAS
Observación. Peso. Cofactor. Redundancia
1 +001 +000.5 +000.5
2 +000.5 +001.33333333 +000.66666666
3 +001 +000.5 +000.5
4 +001 +000.33333333 +000.33333333
Suma de Redundancias = +002
Suma de Redundancias = +002
169
Todos los parámetros de Baarda se encuentran en el intervalo [-1,37,+1,37] < 3,29,
y por tanto todos los observables son aceptados.
Comprobaciones de Fiabilidad Interna de la red
Comprobaciones de Error grosero (TEST DE BAARDA)
Ob. Residuo (Ri) Err.cuad(σi) Var.de Baarda (wi).
1 -000.00170000 +000.00123900 -001.37206874
2 +000.00069333 +000.00202328 +000.34267676
3 +000.0017 +000.00123900 +001.37206874
4 -000.00034667 +000.00101164 -000.34267677
El error máximo que puede deslizarse en uno de nuestros observables y no ser
detectado es de ∇Oi = 0,00030 metros.
Comprobaciones de Fiabilidad interna de la red
Valor de para el nivel de signi�cación α, y potencia β del test , δ= 4.12
Ob.��(σi)����(√ri)���(∇Oi)��-Parámetro de Homogeneidad µINi = δo√
ri
1 +000.00123900 +000.70710678 +000.00021026 +000.16970562
2 +000.00143067 +000.81649658 +000.00021026 +000.14696938
3 +000.00123900 +000.70710678 +000.00021026 +000.16970562
4 +000.00143067 +000.57735026 +000.00029736 +000.20784609
6.3.8. Comprobación de los observables: fiabilidad
externa de la subred 1
Es claro que la subred es más pequeña que la red triangulaterada por tanto el
parámetro de homogeneidad µExi ofrece muy poca información.
Comprobaciones de Fiabilidad Externa de la red
O.�√
1− ri�- Parámetro de Homogeneidad µExi = µINi√
1− ri
1 +000.70710678 +000.12
2 +000.70710678 +000.12
3 +000.70710678 +000.12
4 +000.70710678 +000.12
170
En cuanto al error no detectado ∇Oi en el observable de orden i afectaría a cada
variable dxV 2 y dyV 2 según los valores de la tabla siguiente.
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +000.00024202
Variable o Parámetro 2... +000
Observable ... ( 2 )����[m]
Variable o Parámetro 1... +000
Variable o Parámetro 2... +000.00024202
Observable ... ( 3 ����[m])
Variable o Parámetro 1... +000.00024202
Variable o Parámetro 2... +000
Observable ... ( 4 )����[m]
Variable o Parámetro 1... +000
Variable o Parámetro 2... +000.00024202
La composición cuadrática de los errores transmitidos a las variables dxV 2 y dyV 2
por los observables, supuesto el caso más desfavorable, resulta su composición
cuadrática, que en ningún caso supera el milímetro.
Observable√error dx2 + error dy2
1 0,24 mm2 0,24mm3 0,24 mm4 0,24 mm
6.3.9. Comprobación de los observables: fiabilidad
externa de la subred 2
El error no detectado ∇Oi afectaría en centésimas de milímetro a las variables dxV 2
y dyV 2 según los valores de la tabla siguiente:
171
Comprobaciones de Fiabilidad Externa de la red
Vectores de �abilidad externa:
Observable ... ( 1 )����[m]
Variable o Parámetro 1... +000
Variable o Parámetro 2... +000.01588419
Observable ... ( 2 )����[m]
Variable o Parámetro 1... +000
Variable o Parámetro 2... -000.02445533
Observable ... ( 3 ����[m])
Variable o Parámetro 1... -000.01054781
Variable o Parámetro 2... +000
Observable ... ( 4 )����[m]
Variable o Parámetro 1... +000.03308661
Variable o Parámetro 2... +000
La composición cuadrática de los errores transmitidos no alcanza la décima de
milímetro.
Observable√error dx2 + error dy2
1 0,015 mm2 0,024mm3 0,010 mm4 0,033 mm
6.3.10. Semiejes de la elipse standard y elipses asocia-
das a la curvas pedales de las subredes 1 y 2
Subred 1
Semiejes de la elipse standard, que en este caso resulta un circulo:
Φ1 subred 1 = 2, 85 · 10−3m
Φ2 subred 1 = 2, 85 · 10−3m
172
Semiejes de la elipse asociada a la podaria, también coincidente con un círculo de
radio = asubred 1 = bsubred 1:
asubred 1 = 2, 86 · 10−3m
bsubred 1 = 2, 86 · 10−3m
Subred 2
Semiejes de la elipse standard:
Φ1 subred 1 = 1, 42 · 10−3m
Φ2 subred 1 = 1, 23 · 10−3m
Semiejes de la elipse asociada a la podaria,
asubred 2 = 1, 44 · 10−3m
bsubred 2 = 1, 20 · 10−3m
6.3.11. Probabilidades de error asociadas a las figu-
ras de error de las subredes 1 y 2
Subred 1
A la circunferencia standard de radio 2, 85mm se asocia una �abilidad del 68%.
A la circunferencia de radio = (2 · 2, 85 mm) = 5, 7 mm se asocia una �abilidad
del 95%.
A la circunferencia de radio = (2, 5 · 2, 85mm) = 7, 13mm se asocia una �abilidad
del 99%.
Subred 2
173
Conocida el área de la podaria y el área de la elipse se puede estimar siguiendo la
teoría expuesta en el epígrafe 3.1.16 la probabilidad asociada a la elipse a partir
de la probabilidad conocida de la podaria.
En la subred 2 siendo la probabilidad de la podaria 1 · σ2(una varianza)<> ± 1 · σ
(una desviación típica),< 0, 68 >, y la probabilidad de la elipse asociada a
K2 · σ2(varianzas) <> ±K · σ (desviaciones típicas) con:
K2subred 2 = AE
AP= 2·a·b
a2+b2= 2·(1,44·10−3·1,2·10−3)
(1,44·10−3)2+(1,2·10−3)2 = 0,3456·10−5
0,3514·10−5 = 0, 9835
K = ± 0, 9917
Prob ES <> ±√
( 2·a·ba2+b2
σ2)=±K · σ =
= ± 0, 9917 · 0, 68 = 0, 6743 desviaciones típicas
Así, en nuestra red:
A la elipse standard de semiejes mayor y menor:
asubred 2 = 1, 44 · 10−3m
bsubred 2 = 1, 20 · 10−3m
se asocia una �abilidad del 67, 43 % = 67, 4 %.
Una homotecia de razón adecuada según rutina de la distribución normal
practicada a la �gura descrita, genera el recinto de incertidumbre con la
probabilidad que se precise.
Si en la tabla de la integral de Gauss3 buscamos la abscisa z correspondiente a un
área de I = 0,99 obtenemos :
3
�Tratado de Topografía� Tomo I, Manuel CHUECA et alt, páginas 23 y 24. Editorial Paraninfo.Madrid, 1996.
174
zt = ± 2, 575
y si recordamos que el área de error de la elipse correspondía a:
za = ± 0, 674
resulta
ztza
= 3, 82 ' 4
Multiplicaremos por 4 los semiejes de la elipse standard para conseguir el área de
error de probabilidad 99%:
4 · a = 1, 44 · 10−3 · 4 = 5, 76 · 10−3m = 5, 8 mm
4 · b = 1, 2 · 10−3 · 4 = 4, 8 · 10−3m = 4, 8 mm
6.3.12. Error o perturbación db de las subredes 1 y
2
Siguiendo el mismo método de cálculo que en el epígrafe 3.1.17 obtenemos los
errores debidos al db:
En la subred 1
‖dx‖‖x‖ = 0, 25, error relativo de un 25% sobre las variables: dxV 2 subred 1 = 4, 095 ·
10−3, mm y dyV 2 subred 1 = −1, 465 · 10−3 mm.
En la subred 2
‖dx‖‖x‖ = 0, 41, error relativo de un 41% sobre las variables: dxV 2 subred 2 = 0, 67 ·
10−3 mm y dyV 2 subred 2 = −3, 01 · 10−3 mm.
175
6.3.13. Resultados finales de la red por incrementos
parciales
En cuanto a los resultados de la subred 1:
El vértice V2 se ha determinado con una �abilidad del 99% según un recinto de
error de�nido por un círculo (con radio: 2, 86 · 10−3 mm) de centro el vértice V2.
Existe el riesgo añadido de que cálculos y redondeos den lugar a un error relativo
máximo adicional en coordenadas de un 25% sobre las variables calculadas:
dxV 2 subred 1 = 4, 1mm y dyV 2 subred 1 = −1, 47mm.
La solución de la subred 1 será
XV2C= XV 2 + dxV 2 subred 1 = 163, 01455 + 0, 0041 = 163, 01865m
YV2C= YV 2 + dyV 2 subred 1 = 154, 2486− 0, 00147 = 154, 2471m
Solución próxima a la que se obtuvo en la red triangulaterada, se entiende que no
pueden ser iguales porque los observables GNSS son de menor precisión que los
clásicos. Así la diferencia no obstante entre ambos resultados es de 1,3 mm y 3,1
mm, perfectamente razonable.
XV2C= XV 2+dxV 2 triangulateracion = 163, 01455+0, 00012 = 163, 01972 ' 163, 020m
YV2C= YV 2 + dyV 2 triangulateracion = 154, 2486 + 0, 0005 = 154, 2442 ' 154, 244m
Y la solución de la subred 1 tendrá un recinto de error circular, con 0,99 de �abi-
lidad, de radio:
r = radio · (1 + 0, 25) = 2, 86 · 1, 25 = 3, 58mm
En cuanto a los resultados de la subred 2:
176
El vértice V2 se ha determinado con una �abilidad del 99% según un recinto
de error de�nido por una elipse estándar asociada a una podaria (con semiejes:
1, 44 · 10−3m , y 1, 20 · 10−3m) de centro el vértice V2.
Existe el riesgo añadido de que cálculos y redondeos den lugar a un error relativo
máximo adicional en coordenadas de un 41% sobre las variables calculadas:
dxV 2 subred 2 = 0, 67mm y dyV 2 subred 2 = −3, 01mm.
La solución de la subred 2 será
XV2C= XV 2 + dxV 2 subred 2 = 163, 01455 + 0, 0067 = 163, 0213m
YV2C= YV 2 + dyV 2 subred 2 = 154, 2486− 0, 00301 = 154, 2456m
Que di�eren de la red triangulaterada en 1,3 mm y 1,6 mm respectivamente.
Y tendrá un recinto de error elipsoidal, con 0,99 de �abilidad, de semiejes:
a = semieje mayor subred 2 · (1 + 0, 41) = 1, 44 · 1, 41 ' 2, 03mm
b = semieje menor subred 2 · (1 + 0, 41) = 1, 20 · 1, 41 ' 1, 69mm
177
Capítulo 7
Conclusiones
7.1. Empezando por el principio: la norma-
lidad del vector de observables O y del
vector de residuos R
El resultado de la observación de una red, sea el que fuere el método de observación
(clásico, GNSS, mixto), es un vector columna de m observables O = Om,1, cuyas
componentes es preceptivo lograr que sean variables aleatorias independientes
normales.
Si se ha reiterado la observación más de una vez, práctica usual, se acepta como
valor más probable la media aritmética. Y el vector columna de m valores más
probables será = OT = OTm,1.
Toda la doctrina expuesta en esta publicación tiene su fundamento en que se
cumpla lo mejor posible que el vector de valores más probables OT = OTm,1 sea
aproximadamente igual al vectorO = Om,1 , y que su distribución se pueda veri�car
que es normal:
O = Om,1vN (OT m,1,Σo m,m) ≡ N (OT ,Σo) (7a)
siendo Σo = σ2Q = matriz varianza covarianza de los observables a priori
178
Es fundamental tener presente que los resultados del ajuste de la red
serán �ables si se cumple la condición de normalidad. Por lo que debe
aplicarse a todos los observables un test de normalidad, habiendo elegido
en nuestro caso el de adherencia de Pearson como más adecuado.
En cuanto a los residuos si se cumple la hipótesis Gauss-Marcov los residuos R
cumplirán que:
E(R) = 0
RvN (0,Σo) ≡N (0,Σo) (7b)
aceptamos a priori que las componentes del vector de residuos son normales y
centradas (variables aleatorias), lo que sucederá si:
O ' OT ' C ' Oe (7c)
siendo vector columna de m observables O, el vector de los valores más probables
OT , el vector de observables compensados C (C = OT + R), y por último Oe el
desconocido vector de valores exactos.
Y si se cumple (7c) se cumplirá también que:
ρ ' R ' re ' 0 (7d)
siendo el vector de residuos a priori ρ, el vector de residuos a posteriori R y el
desconocido vector de residuos exactos re. En dicho supuesto podemos utilizar
indistintamente ρ y R, uni�cando su notación en R.
Para comprobar que nuestros observables cumplen (7a) y (7b) es aconsejable
veri�car a priori si se cumple que A · S−1 · AT · P → 01, cuanto más próximos
1
Expresión que se deduce simpli�cadamente a continuación.Si es favorable el resultado del Test de Normalidad o Adherencia de Pearson, se cumple (7a) y7(b). No obstante, cuanto mejor se cumpla el F-Test, bajo la hipótesis nula Ho : σv2o = σ2
o puedeaceptarse:
179
a cero sean los elementos de la matriz (m x m) resultante, mejor se cumplirá la
condición de Gauss-Marcov y más �able el ajuste de la red.
En la red triangulaterada de siete observables sin descentrado del epígrafe 3.1
hemos calculado la matriz A ·S−1 ·AT ·P , y como puede comprobarse en el listado
siguiente sus valores son próximos a cero.
MATRIZ (7x7) A · S−1 · AT · P0.5397 -0.0060 0.1920 -0.0006 0.0213 0.0288 -0.3814
-0.0767 0.0498 -0.2821 -0.0523 -0.0038 -0.3723 -0.2847
0.4495 -0.0517 0.4029 0.0495 0.0185 0.3752 0.0055
-0.0085 -0.0606 0.3127 0.0650 0.0007 0.4559 0.4260
0.1303 -0.0018 0.0483 0.0003 0.0052 0.0098 -0.0894
0.0591 -0.0598 0.3286 0.0632 0.0033 0.4478 0.3675
-0.4122 -0.0241 0.0026 0.0311 -0.0158 0.1936 0.4897
Podemos decir que el vector de observables es de alta calidad cuando
se ajusta a los condicionados (7a) y (7b). En gabinete no es posible
subsanar las de�ciencias de la observación de campo, porque los
observables no mejoran con el cálculo.
No se puede aplicar indiscriminadamente el método de Gauss-Marcov.
Cuando la hipótesis de partida se cumple parcial o de�cientemente la
solución es menos �able, y puede llegar a carecer de sentido el ajuste
mínimo cuadrático, siendo mejor buscar una solución alternativa.
R ∼ N(0, QRR)Pero en la expresión (59) de la página 24 del texto �Tratado de Topografía� Tomo III, de M.Chueca, se deduce que:QRR = Q−QCCque implica siempre QRR 6= Qsiendo QRR, Q, y QCC matrices cofactor de residuos a posteriori, matriz cofactor a priori ymatriz cofactor de observables compensados a posteriori.Desarrollando la fórmula QRR = Q − QCC y aplicándola tan solo al caso particular deobservaciones indirectas, llegamos a la expresión (164) (de la pg. 45 del texto �Tratado deTopografía� Tomo III, de M. Chueca):QRR = Q−QCC = E ·Qdonde E = I −A · S−1 ·AT · PPor consiguiente, en buena praxis estadística es aconsejable comprobar a priori si tiende a cero laexpresión: A ·S−1 ·AT ·P → 0 y cuanto menor sean los elementos de la matriz (mxm) resultante,mayor poder de a�rmación tendrá el ajuste propuesto.
180
La condición de mínimos cuadrados es la que se deriva del modelo estadístico
Gauss-Marcov, es decir la solución más probable si los observables están
normalmente distribuidos. Al compensar se homogeneizan los errores y se obtiene
una solución que, si la red es de alta precisión, es casi coincidente con cualquier
solución sin compensar, como hemos comprobado en los ajustes de la presente
publicación. Sirva de ejemplo el resultado del ajuste de la red de observables
clásicos triangulaterada del epígrafe 3.1.8, las coordenadas �nales(XV2C, YV2C
),
que es la solución más probable del ajuste, son iguales a las aproximadas iniciales
(XV 2, YV 2) hasta el milímetro, siendo las correcciones obtenidas en el ajuste dxV 2
y dyV 2:
XV2C= XV 2 + dxV 2 = 163, 0196 + 0, 00012 = 163, 01972 ' 163, 020m
YV2C= YV 2 + dyV 2 = 154, 2438 + 0, 0005 = 154, 2443 ' 154, 244m
Es esencial entender que el método de Gauss-Marcov se justi�ca porque
además de proporcionar la solución más probable permite fundamental-
mente la interpretación de cada variable del ajuste (residuos, observa-
bles compensados, coordenadas, etc) y la obtención de recintos de error
con probabilidades asociadas, cifrando su precisión y su incertidumbre
con el mayor rigor posible. Nuestra pretensión básica es predecir y jus-
ti�car los resultados en cada una de sus fases. No tanto mejorar los
resultados como establecer rigurosamente su interpretación2.
2
�It is unfortunate that least-squares adjustment is most often associated only with high-precision
surveying...least-squares adjustmen is a device for carrying out objetive quality control of
measurements by processing sets of redundant observations according to mathematically well-
de�ned rules�. Alfred Leick �GPS. Satellite Surveying�, pag. 92 y 93. 2004. Méjico.
181
7.2. El observable de peso unidad. Cumpli-
miento del test Fisher-Snedecor
Consideramos que el valor de la varianza del observable de peso unidad σ20 que
más se ajusta a su valor real es el de la mediana muestral3 de los valores de σ2oi,
obtenidos en campo.
A partir de la ecuación:
σ2oi
=∑
(OTi−Oi)2
mi−1
calculamos σ2oipara cada observable de nuestra red. Las unidades de σ2
oideben ser
lineales, se hará la conversión de las varianzas de los ángulos y las distancias según
las ecuaciones de los epígrafes 3.1.6 y 3.1.7 respectivamente.
De entre los valores σ2oiseleccionamos la mediana, y desde este momento
la mediana se convierte en la varianza del observable de peso unidad σ20 a
priori. En la curva normal teórica mediana y media coinciden. En nuestros cálculos
deberán ser muy próximas si las distribuciones muestrales son representativas.
Cuanto más se asemejen entre sí la mediana y la media de las varianzas
a priori σ2oide los observables de la red, mejor y más �ables serán los
resultados y su interpretación.
Como idea básica está claro que cualquier hipótesis a priori que se haya
aceptado debe ser contrastada a posteriori. Y como nunca sucederá
exactamente lo previsto será preciso interpretar las discrepancias y
cifrar en términos de probabilidad la �abilidad del resultado. Así
compararemos la varianza del observable de peso unidad a priori y a
posteriori, y será necesario que se cumpla el F-Test, bajo la hipótesis
nula Ho : sv2o = σ2o .
3
También podría utilizarse en lugar de la varianza muestral: σ2oi =
∑(OTi−Oi)
2
mi−1 , la varianza
poblacional σ2oTi
=σ2oi
mi. Estadísticamente ambos estimadores son correctos.
182
Si nuestros estimadores del observable de peso unidad a priori y a posteriori
pasan el test estamos seguros de que no se ha rechazado una red aceptable4, los
estimadores a priori y a posteriori son compatibles estadísticamente y signi�ca que
la ponderación efectuada es homogénea, realista y representativa de la realidad
física. Esto será menos cierto cuanto más dispares sean los estimadores a priori y
a posteriori. Eso no quiere decir que baste con ello siendo riguroso para aceptar el
ajuste. Una cosa es no rechazar, otra muy distinta, aceptar.
La varianza del observable de peso unidad a posteriori responde a la ecuación:
sv2o = σ2o1 = RT ·P ·R
m−n = 1m−n ·
i=m
Σi=1
pi ·R2i (7e)
siendo pi pesos a priori y Ri residuos a posteriori
Una vez conocido a partir de los datos de campo las varianzas de cada observable
del ajuste seleccionamos de entre todas ellas el valor de la mediana, según ya se
dijo, como la varianza del observable de peso unidad a priori, que sabemos proviene
de:
σ2oi
= sv2o2 =∑
(OTi−Oi)2
mi−1=
∑(ρ)2
mi−1(7f)
siendo ρ los residuos a priori
y que una vez determinada será el estimador a priori σ202, con esa nomenclatura
para poder distinguirlo del estimador a posteriori σ201.
A partir de las ecuación (7e) y (7f) obtenemos:
σ2o1
σ2o2· (m− n) =
i=m
Σi=1
1σ2o2· pi ·R2
i =i=m
Σi=1
1σ2o2· σ
2o2
σ2i·R2
i =
4
Lo que se conoce como error estadístico de primer orden. Ojalá pudiéramos estudiarlo bajo lahipótesis alternativa H1 : σv2o 6= σ2
o . Pero no sabemos como...
183
=i=m
Σi=1
1σ2i·R2
i =i=m
Σ (i=1
Riσi
)2 = (χ2)m−n
Cuanto más se parezcani=m
Σ (i=1
R2i ) y
i=m
Σ (σ2i
i=1
) más se aproximarán los valores σ201 y
σ202, y mayor �abilidad tendrá nuestro ajuste. Que es lo mismo que decir que un
residuo cualquiera a posteriori cumpla Ri ∼ N (0, σ2i ), siendo σ
2i la varianza a
priori del observable del que proviene. Sabemos que el peso pi es función de la
varianza σ2i .
Sirva de ejemplo la red de observables GNSS resuelta por incrementos, de matriz
A y vector K:
MATRIZ AA( 1, 1) = 1A( 1, 2) = 0A( 2, 1) = 0A( 2, 2) = 1A( 3, 1) = 1A( 3, 2) = 0A( 4, 1) = 0A( 4, 2) = 1VECTOR Kk( 1) = -1.4E-003k( 2) = 5.5E-003k( 3) = 5.1E-003
k( 4) = -4.4E-003
Podemos observar el paralelismo que existe entre los pesos y los cuadrados de los
residuos:
MATRIZ DE PESOSPeso del observable 1 1Peso del observable 2 1Peso del observable 3 1Peso del observable 4 .25VARIABLES O PARÁMETROS1.85E-0033.52E-003RESIDUOS3.25E-003-1.98E-003-3.25E-0037.92E-003
Varianza de la medida de peso ud. = 2.07E-005 Desv. típica de la medida de peso ud. = 4.51E-003
184
circunstancia que afecta directamente a la relación entre estimadores a priori
σo = 3 · 10−3m, y a posteriori σo = 4,51 · 10−3 m.
Pero no es su�ciente para aceptar la red pasar el F-test porque existe el riesgo
de aceptar una red rechazable5. No conocemos hasta ahora el test de�nitivo y
es preciso tomar cuantas precauciones adicionales podamos y sepamos. Parece
razonable que haya que pasar más �ltros (�abilidad interna y externa de la red,
recintos de error con probabilidades asociadas...).
Por último insistir en que si el estimador de la varianza de peso unidad a
priori proviene de las varianzas de los observables aceptados, que forman
parte del ajuste, mejora indudablemente la predicción de la varianza
a posteriori6 del observable de peso unidad. Se entiende que los residuos
calculados y ajustados tengan la desviación típica asignada desde un comienzo a
los observables sin ajustar.
No se olvide que la varianza a posteriori del observable de la medida de peso unidad
es un parámetro fundamental porque además multiplica a las matrices de criterio,
matrices básicas en la interpretación de los resultados.
7.3. La precaución de homogeneizar los pesos
Conseguiremos el objetivo primordial del ajuste mínimo cuadrático (interpretar
y predecir resultados) siempre que logremos una ponderación homogénea y
representativa de la realidad física. Sin descompensaciones producidas por pesos
enormes y muy pequeños simultánea y comparativamente.
La solución de la red es la que minimiza la suma de las correcciones ponderadas
5
Error estadístico de segundo orden.
6
La varianza del observable de peso unidad a posteriori en su caso más general es:
σ2o = RT ·P ·R
m−R(A) = RT ·P ·Rm−R(S) , y en el caso determinista que nos ocupa es σ2
o = RT ·P ·Rm−n .
185
al cuadrado y se expresa según el algoritmo:
RT · P ·R = k2 = mınimo
siendo evidente que la matriz de pesos es determinante en la solución del ajuste y
en todos los resultados.
La matriz P afecta al sistema de formas lineales, así, pesos muy pequeños anulan
la in�uencia de los observables, hasta hacer inútil su inclusión en el ajuste o
hacer inútil la aplicación del método, que puede ser redundante sólo en teoría.
Los observables de peso muy grande serán siempre los que determinen el resultado
del ajuste. Nos puede servir de ejemplo la comparación entre la red clásica y la
red de observables GNSS y clásicos, del epígrafe 4.8. El deterioro en calidad de
interpretación provocada por la hetereogeneidad de los pesos es evidente, pasamos
de una F = 1, 26 a otra F = 1, 85. Si nuestros observables tienen varianzas muy
diferentes a priori (y los pesos también serán diferentes) no parece lógico que
procedan de una misma distribución normal. En la red del epígrafe 5.5 �Resultados
del ajuste de la red mixta con matriz de pesos factorizada� la matriz P ′ de pesos
alcanza valores absolutamente dispares después de la factorización:
MATRIZ DE PESOS P'
Peso del observable 1 9E-003
Peso del observable 2 7.1E-002
Peso del observable 3 6E-004
Peso del observable 4 2E-003
Peso del observable 5 2.7
Peso del observable 6 4603534
Peso del observable 7 0.6
Peso del observable 8 129531
Peso del observable 9 1
Y la relación entre la varianza el observable de peso unidad a priori σ20 =
5, 1 · 10−8m2 y a posteriori σ20 = 4, 62 · 10−7m2 es :
F = σ02
sv20= 4,62·10−7
5,1·10−8 = 9, 06
186
El valor 9, 06 está muy lejos del valor 1. El deterioro en calidad de interpretación
es evidente y de nuevo podemos decir que el desequilibrio proviene de la falta de
homogeneidad de los pesos. Nos remitimos de nuevo al epígrafe 5.5 para recordar
que las consecuencias de la matriz de pesos con grandes diferencias entre sus
valores provoca interpretaciones absurdas en los parámetros de �abilidad interna
y externa: son precisamente los observables de mayor peso los que no están
controlados en absoluto (número de control ' 0) lo que implica que pueden tener
errores groseros porque no se ajustan a la redundancia media, lo que sucede con el
observable clásico nº6 y el observable GNSS nº8, sorprende que siendo este último
de menor precisión tenga mayor peso. Sin embargo los observables de menor peso
tienen un número de control ' 1, que es el óptimo.
Se derivan otras importantes consecuencias de la mezcla indiscriminada de
observables con diferentes precisiones, así sabemos que conocida la matriz S :
S = (ATPA)
los semiejes de la elipse estándar de error se obtienen a partir de sus autovalores,
según la ecuación:
Φi = σ0 ·√µ−1i
La matriz de pesos no homogénea altera la longitud de los ejes llegando en casos
extremos a dar lugar a autovalores µi próximos a cero, de semiejes inmensos, y
autovalores µk grandes de semiejes diminutos7.
La elipse de error asociada a la podaria es de la forma:
ES ≡ σ2x · y2 − 2σxy · x · y + σ2
y · x2 = (σ2xσ
2y − σ2
xy)
y se calcula a partir de la matriz varianza covarianza de las variables o parámetros
de la red: Qxx = S−1 = (ATPA)−1. Vuelve a ser de�nitiva la in�uencia de la
7
Estamos rondando, como sucede en análisis de correcciones a variables en redes libres, elhiperelipsoide degenerado en hipercuádrica cilíndrica.
187
matriz de los pesos P en la �gura de error, mejorando o empeorando su forma y
dimensiones.
En cuanto al error o perturbación db decir que su ecuación depende del
condicionamiento k de la matriz S, de�nidos por el mayor y menor autovalor de
S, k = µmaximoµmınimo
. La expresión de cómo afecta el error relativo‖db‖‖b‖ al error relativo
del vector de correcciones ‖dx‖‖x‖ es:
‖dx‖‖x‖ ≤ k · ‖db‖‖b‖ = µmaximo
µmınimo· ‖db‖‖b‖
Si los autovalores máximo y mínimo de S son muy diferentes, y el valor de k, muy
distinto de 1, el error de redondeo puede modi�car el resultado en un porcentaje
altísimo. De nuevo interesa que los pesos sean homogéneos.
En el caso de utilizar ángulos y distancias el mejor modo, a nuestro entender, de
encontrar la homogeneidad de pesos es tener unidades lineales en ambas observa-
ciones y en las varianzas que utilizaremos para su ponderación. Aconsejamos por
ello el nuevo método de triangulateración.
Para que la compensación sea homogénea es necesario conseguir que el cuadrilátero
de ponderación se parezca a un cuadrado en cualquier caso (cfr. �guras 3.7 y 3.8).
La factorización de la matriz completa de pesos P a priori, situación habitual en
una red GNSS, será según expresión (22) :
RT · P ·R =RT · Γ · V · ΓT ·R =
= (ΓT ·R)T · V · (ΓT ·R) = R′T · V ·R′
siendo las matrices de autovectores y autovalores de P : Γ y V
la factorización de P puede aniquilar la homogeneidad de los pesos y además,
y como hemos demostrado en el epígrafe 2.2, el resultado del ajuste no es
solución Gauss-Marcov por no pertenecer a su lugar geométrico, lo que no implica
188
obtener una resultado desfavorable o absurdo de las correcciones a las coordenadas
aproximadas obtenidas en el ajuste, pero sí implica error teórico de concepto y el
nulo o escaso poder de a�rmación de la interpretación del algoritmo.
No es posible, en general, aplicar Gauss-Marcov con matrices de pesos completas
ni resolver la aparición de covarianzas mediante una rotación, derivada o no de
factorización previa. La solución Gauss-Marcov es rigurosamente incompatible
con las covarianzas estudiadas aparecidas a priori o inducidas, que siempre
pueden explicarse a través de una rotación directa genérica de matriz ΓT
o Γ′T , o una rotación inversa Γ o Γ′, del n-edro coordenado. Se resuelve
rigurosamente el problema modi�cando los observables, en especial los GNSS
aplicando triangulateración o doble ajuste por incrementos de coordenadas.
7.4. Síntesis final
En resumen el método de ajuste mínimo cuadrático Gauss-Marcov avanzado que
desarrollamos y proponemos:
- No pretende mejorar el trabajo de campo. Sí la interpretación de resultados.
- A este efecto es necesario que en la observación se tome el número su�ciente de
lecturas para poder seleccionar el número que interese en el proyecto.
El número de lecturas n sabemos que afecta directamente a la varianza del
observable (y ésta, a su vez, al peso), al estudio de la normalidad del observable y
también al error o perturbación db, según se deduce de la expresión:
‖dx‖‖x‖ ≤ k · ‖db‖‖b‖ = k · [TrB]
12
‖b‖ = µmaximoµmınimo
·
[Tr(AT ·P ·diag (
σ2iNi
)·P ·A)
] 12
‖b‖
siendo n = N i
- Es preciso conseguir que los observables del ajuste sean variables aleatorias
independientes normales. Es necesario que superen el test de normalidad, en
nuestro caso el test de adherencia de Pearson como más adecuado.
189
- Los pesos deben ser homogéneos.
- Es imprescindible que la varianza del observable de peso unidad a priori
y a posteriori superen el test de Fisher-Snedecor. Si utilizamos el método de
incrementos de coordenadas, puede ayudarnos a lograr este propósito, estudiar los
valores de los residuos del ajuste doble de incrementos de coordenadas, y en función
de ellos, decidir qué observables formarán parte de cada uno de los sistemas de
ecuaciones, ya que en el caso determinista que nos ocupa la varianza del observable
de peso unidad a posteriori es función de los residuos R, siendo σ2o = RT ·P ·R
m−n .
- Se deben tomar otras precauciones como son: el estudio de la �abilidad interna
y externa de la red, el análisis de las �guras de error con �abilidades asociadas, y
la estimación de los errores de cálculo.
- Así las cosas los métodos de ajuste gaussiano de triangulateración y de
incrementos de coordenadas se pueden aplicar con todo rigor a observables GNSS o
a observables clásicos siempre que se cumplan las exigencias previas y el protocolo
establecido. La aplicación de los dos métodos sobre una misma red puede ser útil
para veri�car la validez de los resultados obtenidos y su interpretación.
- Y debe tenerse presente que los resultados y su interpretación en una red
de observables clásicos junto a observables GNSS ajustada por el método de
triangulateración o por el método de incrementos de coordenadas son peores
generalmente que si se emplean por separado ambos tipos de observables. Se
podrán combinar satisfactoriamente solamente si se logra que sus varianzas sean
similares y con ello que también lo sean sus pesos.
Los métodos de triangulateración e incrementos de coordenadas suponen a nuestro
entender un valioso avance en la teoría y praxis de la Microgeodesia, pero en
modo alguno su automatización. El buen hacer, el arte y la ciencia del ingeniero
proyectista siguen siendo insustituibles por programa informático alguno.
En sucesivos trabajos D.m. seguiremos avanzando en la línea de investigación
emprendida. Ampliaremos la teoría y praxis presente con otras cuestiones
190
relevantes, como por ejemplo el estudio riguroso de recintos de error, su extensión
a todos los puntos de una red, su extensión a los puntos que componen el modelo
de un terreno y también a la variación en el tiempo de redes y modelos, osea, el
cálculo de deformaciones.
191
Capítulo 8
Bibliografía
192
Bibliografía
[1] ANQUELA, A.B.; CHUECA, M.; BERNÉ, J.L., Aportación al problema
general de redes locales de alta precisión: condicionantes especí�cos de �jación
de criterios teóricos y prácticos, de cali�cación de parámetros intermedios y
resultados �nales,Tesis Doctoral, Valencia, E.T.S.I.G.C.T. de la Universidad
Politécnica, 2001.
[2] ASHKENAZI, V., Models for control in National and continental Network,
Bulletin Geodesique, Vol. 55, 1981.
[3] ASHKENAZI, V., Criterion for optimisation Boletino di Geodesia e Scienze
A�ne.
[4] BAARDA, W., Measures for the accuracy of geodetic networks, Hungría,
Sopron, 1977.
[5] BAARDA, W., S-transformations and Criterion Matrices, Netherlands
Geodetic Commission, Vol. 5, núm. 1, 1973.
[6] BAARDA, W., Statistical concepts in Geodesia, Delft, Holanda, Rijkscom-
misie voor geodesie.
[7] BAARDA, W., Statistical Transformations and Criterion Matrices, Delft,
Holanda, Rijkscommisie voor geodesie.
[8] BANNISTER, A.; RAYMOND, S., Técnicas modernas en topografía, R. S.
Méjico, 1984.
193
[9] BASELGA, S., Aplicación informática para el diseño y compensación de redes
locales, Proyecto Fin de Carrera de Ingeniería en Geodesia y Cartografía,
Valencia, E.T.S.I.G.C.T. de la Universidad Politécnica, 2000.
[10] BASELGA, S.; CHUECA, M.; BERNÉ, J.L., Cálculo, compensación e
interpretación de resultados en redes locales de alta precisión observadas por
GPS y Topografía Clásica con aplicación de análisis estadístico multivariante
y técnicas de estimación robusta, Tesis doctoral, Valencia, Universidad
Politécnica de Valencia, 2003.
[11] BELAYEV, V., Optimal weiyhting in linear function estimation, Journal of
Geodesy, 1996.
[12] BERNÉ, J. L.; HERRÁEZ, J., Instrumentos modernos en Topografía,
Valencia, Universidad Politécnica de Valencia, 1993.
[13] BERNÉ, J. L.; BASELGA, S.; ANQUELA, A. B., RedTop. Aplicación
Informática para el Diseño, Análisis y Compensación de Redes Topográ�cas,
Valencia, Editorial de la Universidad Politécnica, 2000.
[14] BJERHAMMAR, A., Theory of errors and generalized matrix inverses,
Elsevier, 1973.
[15] BEZOARI, G.; MARTÍ, C.; SELVINI, A., Topografía. Cartografía, Milán,
Hoepli, 1994.
[16] BLACHUT, T. J. A., CHRZANOWSKI, A., SAASTAMOINEM J.H.,
Cartografía y levantamientos Urbanos, Méjico, Librería del Congreso, 1980.
[17] BLACKIE AND SON LTD. Lauf. G. B., The method of least Squares.
[18] BOMFORD, G., Geodesy, Londres, Oxford University Press, 1971.
[19] BURNSIDE, C. D., Electromagnetic Distance measurements, Crosby Lock-
wood, 1971.
194
[20] CAMACHO, A.; MARTÍN, M., Constreñimientos internos en la compen-
sación de estaciones, Madrid, Instituto de Astronomía y Geodesia, 1986.
[21] CASPARY, W. F., Concepts of network and deformation analysis, School of
Surveying, Australia, The University of New South Wales, Monograph XI,
1987.
[22] CHEN, Y. Q., Analysis of deformations. Surveys A. generalized Method,
Canadá, Dep. Sur. Eng. Fredericton.
[23] CHUECA, M., Topografía, Madrid, Dossat. S.A., 1982.
[24] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Topografía. Análisis de errores,
Valencia, Tomo I, Universidad Politécnica de Valencia, 1993.
[25] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Topografía. Nivelación,
Valencia, Tomo II, Universidad Politécnica de Valencia, 1993.
[26] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Topografía. Poligonación,
Valencia, Tomo III, Universidad Politécnica de Valencia, 1993.
[27] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Topografía.Triangulación,
Valencia, Tomo IV, Universidad Politécnica de Valencia, 1993.
[28] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Redes topográ�cas y locales,
Valencia, Universidad Politécnica de Valencia, 1994.
[29] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Ampliación de redes topográ�-
cas y locales, Valencia, Universidad Politécnica de Valencia, 1995.
[30] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Redes Topográ�cas y Locales.
Microgeodesia, Madrid, Ed. Paraninfo, 1996.
[31] CHUECA, M.; HERRÁEZ, J.; BERNÉ, J. L., Métodos Topográ�cos, Madrid,
Ed. Paraninfo, 1996.
195
[32] CHUECA, M.; BERNÉ, J. L., Ampliación de Redes Topográ�cas y locales.
Cuestiones de Diseño, Valencia, Universidad Politécnica de Valencia, 2000.
[33] CHUECA, M.; BERNÉ, J. L.; ANQUELA, A. B.; BASELGA, S., Avances en
la interpretación de resultados en Redes Locales. Recintos de Error, Valencia,
Universidad Politécnica de Valencia, 2001.
[34] CHUECA, M.; BERNÉ, J. L.; ANQUELA, A. B.; BASELGA, S.,Microgeode-
sia y Redes Locales: Complementos Docentes, Valencia, Universidad Politéc-
nica de Valencia, 2003.
[35] CHUECA, M.; ANQUELA, A. B.; BASELGA, S., Diseño de Redes y Control
de Deformaciones. Los Problemas del Datum y Principal de Diseño, Valencia,
Universidad Politécnica de Valencia, 2007.
[36] DOMÍNGUEZ GARCÍA-TEJERO, F., Topografía general y aplicada, Madrid,
Dossat, 1978.
[37] ESPIGA GÓMEZ LOBO, El tratamiento matricial del método de los mínimos
cuadrados, Madrid, Boletín de Información del Servicio Geográ�co del
Ejército.
[38] FERRER TORIO, B.; PINA, B., Métodos topográ�cos, Valencia, Universidad
Politécnica de Valencia, 1991.
[39] FERRER TORIO, R.; PINA, B., Introducción a la topografía, Santander,
E.T.S.I. Caminos, Canales y Puertos, 1991.
[40] FERRER TORIO, A., y otros, Topografía aplicada a la Ingeniería Civil,
Cantabria, Universidad de Cantabria, 1992.
[41] GRAFAREND, E. W., �Optimisation of Geodetic Networks�. Bollettino di
Geodesia e Science A�ni.
[42] GROTEN. E.; STRAU, B., GPS - Techniques Applied to Geodesy and
Surveying, Berlín, Springer Nerlag, 1988.
196
[43] HEISKANEN y MORITZ, Geodesia Física, Madrid, IGN.
[44] HIRVONEN, R. A., Adjustment by least squares in Geodesy and Photogra-
mmetry, Ungar Pub, 1971.
[45] HOFMAN-WELLWN HOF., GPS. Theory and Practice, New York, Lichte-
negger and Collins, Springer-Verlay, 1994.
[46] HOTINE, M., Mathematical Geodesy, Washington D.C., U. S. Department of
Commerce,1969.
[47] ISAHI PRECISSION CO.LTC, �Principios de la medición electrónica�,
Revista Topográ�ca y Cartográ�ca, núms. 28 y 29.
[48] JIMÉNEZ MARTÍNEZ,M.J.; MARQUÉS MATEU,A.; PAREDES ASEN-
CIO,J.M.; VILLAR CANO, M., �Progreso en la práctica del ajuste gaussiano
de una red local. Método de Triangulateración�, Valencia, Real Academia de
Cultura Valenciana, Revista Digital: www.racv.es/racv digital, 2010.
[49] JORDAN, W.,Tratado general de topografía, Barcelona, Gustavo Gilí, 1974.
[50] KENNIE and G. PETRIE, Engineering Surveying Technology
[51] KINCAID, D.; CHENEY, W., Análisis Numérico: las Matemáticas del
Cálculo Cientí�co, Addison-Wesley Iberoamericana, 1994.
[52] LEICK, A., GPS. Satellite Surveying, New York, John Wiley and Sons, 1990.
[53] LEICK, A., GPS. Satellite Surveying, New York, John Wiley and Sons, 2004.
[54] LEVALLOIS, Geodesie Genérale, París, Eyrolles, 1970.
[55] LÓPEZ CUERVO, Topografía, Madrid, Mundi Prensa, 1994.
[56] MAESTRO, I., BASELGA, S., CHUECA, M., Contribución al estudio
microgeodésico de deformaciones: diseño de redes mediante el cálculo y
modelización de la incertidumbre, Tesis Doctoral, Valencia, E.T.S.I.G.C.T.
de la Universidad Politécnica, 2005.
197
[57] MARTÍN ASÍN, F., Geodesia y Cartografía matemática, Madrid, Paraninfo,
1989.
[58] MARUSSI, A., Intrinsic Geodesy, Berlin-Heidelberg, Springer-Vcrlag, 1985.
[59] MIKHAIL, E. M.; ACKERMAN, F., Observations and least squares, New
York, IAP. Dun-Donneley Pub, 1976.
[60] MIKHAIL and ACKERMANN, Analysis and Adjustements of Survey Mea-
surements, New York, Van Nostrand.
[61] MONTES DE OCA, M., Topografía, R. S. México, 1985.
[62] NÚÑEZ-GARCÍA DEL POZO, A., Ajuste de redes geodésicas en un arco
Tridimensional, Santander, E.T.S.I. Caminos, Canales y Puertos, 1992.
[63] NÚÑEZ-GARCÍA DEL POZO, A., �Análisis de redes libres�, Asamblea
nacional de Geodesia y Geofísica, Madrid, 1987.
[64] NÚÑEZ-GARCÍA DEL POZO, A., �Concepto de precisión y �abilidad en
redes Geodésicas�. Boletín de Información del Servicio Geográ�co del Ejército.
[65] NÚÑEZ-GARCÍA DEL POZO, A. y VALBUENA DURAN, J. L., Determi-
nación de movimientos pequeños por procedimientos de trilateración. Apli-
cación a la auscultación de presas. Particularización a la presa del Atazar,
Santander, E.T.S.I.Caminos, Canales y Puertos, 1992.
[66] NÚÑEZ-GARCÍA DEL POZO. A., y VALBUENA DURAN, J. L., Dis-
tanciometría electrónica de precisión. Distanciómetros submilimétricos, San-
tander, E.T.S.I. Caminos,Canales y Puertos, 1992.
[67] NÚÑEZ-GARCÍA DEL POZO. A., y VALBUENA DURAN, J. L., Medida
electrónica de los parámetros topográ�cos, Santander, E.T.S.I. Caminos,
Canales y Puertos, 1992.
198
[68] NÚÑEZ-GARCÍA DEL POZO. A., y VALBUENA DURAN, J. L., VII
Curso de Geodesia Superior. Instrumentos, teoría y funcionamento, Madrid,
Instituto de Astronomía y Geodesia, 1991.
[69] OJEDA RUIZ, J. L.,Métodos topográ�cos y o�cina técnica, Madrid, El Autor,
1984.
[70] OLLIVIER, F., Instruments Topographiques, París, Eyrolles, 1995.
[71] POPE, A. J., The statistics of the residuals and the detection of outliers,
Grenoble, IUGG XVIII, General Assembly, 1975.
[72] RICHARDUS, P.; ALIMAN, J., Project Surveying, Amsterdam, North-
Holland Publising Co., 1966.
[73] RICHARDUS. P., Project Surveying, Netherlands, A. Balkema, 1977.
[74] RÜEGER, J.M., Electronic Distance Measurement, Berlin Heiderberg, Ale-
mania Edit. Springer-Verlag, 1996.
[75] RÜEGER, J.M.,�Precision of measurements and least squares�, 37th Aus-
tralian Surveyors Congress, Perth, Western Australia, 13-19 April 1996.
[76] RUIZ MORALES. M., Manual de Geodesia y Topografía, Granada, Proyecto
Sur, 1991.
[77] RUSSELL, C; WOLF, P.R., Elementary Surveying, Harper and Row
Publishers, Inc., 1984.
[78] SEVILLA, M. J.; NÚÑEZ, A., Ajuste y análisis estadístico de ondulaciones
del geoide, Madrid, Física de la Tierra, U. Complutense, 1980
[79] SEVILLA, M. J., Colocación mínimos cuadrados, Madrid, Instituto de
Astronomía y Geodesia, 1987.
[80] SEVILLA, M. J., Curso de Geodesia Superior, Madrid, U.C., 1987.
199
[81] SEVILLA, M. J.; MUÑOZ, P.VELASCO, J.; ROMERO, P., �Calibración de
un distanciómetro de infrarrojos en una base interferométrica�. Topografía y
Cartografía, Vol. III, 1987.
[82] SEVILLA, M. J., Compensación de redes de nivelación trigonométrica,
Madrid, Instituto de Astronomía y Geodesia, 1989.
[83] SEVILLA, M. J., Soluciones progresivas en el método mínimos cuadrados,
Madrid, Instituto de Astronomía y Geodesia, 1989.
[84] SEVILLA, M. J., Física de la Tierra II, Madrid, Universidad Complutense,
1990.
[85] SEVILLA, M. J., �Refracción atmosférica y su in�uencia en la medida
electromagnética de distancias�, Madrid, VII Curso de Geodesia Superior,
Instituto de Astronomía y Geodesia, 1991.
[86] STRANG, G., Álgebra lineal y sus aplicaciones, Madrid, Addison-Wesley,
1990.
[87] TORGE WOLFGANG, Geodesia física, Madrid, Diana, 1983.
[88] VALBUENA DURAN. J. L., �Distanciometría electrónica, calibración y
puesta a punto�, Topografía y Cartografía, Vol. IV, 1989.
[89] VANICEK, P., y KRAKWSKY, E., Geodesy, Amsterdam, North Holland,
1986.
[90] WELLACH, W., A review of the adjustment of the free network. Survey
Review, XXV, 194, 1979.
[91] ZAKATOV, Curso de Geodesia Superior, Moscú, Mir.
[92] ZUND, Joseph, Foundations.
200
Recommended