¿Estimación de la resolución de datos vectoriales?


8

Tengo un viejo conjunto de datos vectoriales con polígonos que cubren un continente. Los datos se publicaron por primera vez en papel a escala 1: 5 000 000 y luego se digitalizaron. No tengo los datos originales y no tengo información sobre la vectorización o metadatos. Supongo que la distancia entre los vértices en lugar de la precisión limita la resolución.

Los vértices se guardan con alta resolución (por ejemplo, "nnn.nnnnnnnnn", "- nn.nnnnnnnnn"). El conjunto de datos tiene pocos puntos que se pueden georreferenciar ni ningún nodo que se defina como coordenadas (por ejemplo, en grados pares o coordenadas UTM). Cuando comparo algunas secciones de la costa, el error es de hasta +/- 20 km.

Me gustaría encontrar una fórmula para estimar el error máximo basado en la distribución de los vértices. Tengo acceso a cualquier aplicación SIG, pero preferiría una referencia estadística sólida.

¿Cómo puedo calcular el error máximo del conjunto de datos, suponiendo que todos los vértices son correctos? O redactado de manera diferente: ¿Qué método puedo usar para encontrar la resolución más grande del conjunto de datos?

Traté de rasterizar el conjunto de datos en diferentes tamaños de celda y luego sobremuestrearlo a un tamaño de celda pequeño para detectar la rasterización más pequeña posible sin pérdida de resolución, pero eso es un enfoque bastante lento y no muy matemático.


Diría que al menos los vértices solo pueden tener una precisión de 0.1 mm en el papel, lo que significa 500 ma escala 1: 500000. Además, puede ser muy difícil decir cuál es el efecto de la simplificación y otros factores, especialmente si el mapa original fue dibujado a mano.
user30184

Sí, ese sería el mejor de los casos. Desafortunadamente, creo que mi resolución útil es mucho más baja ya que los polígonos tienen vértices bastante dispersos y parecen más angulares de lo que esperaría de los datos naturales, por ejemplo, meteorológicos. Tampoco tengo acceso a los mapas originales, debo mencionar.
Tactopoda

1
@ user30184 0.1 mm es bastante optimista, prefiero esperar 0.3 mm
radouxju

Y este blog considera 1 mm como el tamaño detectable más pequeño blogs.esri.com/esri/arcgis/2010/12/12/… . Significaría 5000 ma escala 1: 5000000 (bajé un cero de mi comentario anterior al escribir).
user30184

Respuestas:


2

Gran pregunta: he visto este tipo de preguntas aparecer varias veces y, desafortunadamente, muchas personas que realizan análisis cuantitativos de SIG ignoran el componente CRÍTICO de calcular la incertidumbre en los conjuntos de datos espaciales. Hay conceptos y terminología importantes que deben aclararse antes de que este tipo de tarea pueda resumirse en resultados cuantitativos.

El error de cálculo en un conjunto de datos espaciales supone un conocimiento previo del linaje de los conjuntos de datos. Como los metadatos no están disponibles en ningún paso del proceso, este tipo de cuantificación no es posible. La precisión de las coordenadas dentro de un conjunto de datos vectoriales no garantiza la afirmación de que el conjunto de datos es exacto en ningún grado. Rasterizar un conjunto de datos heredará su propio grado de error e incertidumbre dentro de los datos.

Sin los metadatos y el cálculo continuo de error e incertidumbre, el conjunto de datos puede considerarse una imagen bonita. Si bien puede parecer un proceso simple usar la escala del mapa original y la naturaleza precisa de las coordenadas del polígono vectorial, los conceptos fundamentales de la geografía se violarán si no se calcula el error y la incertidumbre en cada paso de la creación del conjunto de datos a partir de:

  1. captura original del conjunto de datos (error e incertidumbre introducidos)
  2. creación de mapas en papel (se hacen generalizaciones)
  3. mapa de papel digitalizado a archivo de vector digital (más error, más incertidumbre)

Aunque esta puede no ser la respuesta que está buscando, es un buen lugar para comenzar para cualquier persona en una situación similar:

  • Si tiene la tarea de calcular una representación cuantitativa precisa de la incertidumbre de un modelo espacial, le sugiero que investigue el tema "Incertidumbre y propagación de errores en datos espaciales", ya que el tema es profundo, matemático y estadísticamente denso.

  • Si está utilizando el conjunto de datos como una imagen bonita, comience a mapear.


0

Estoy de acuerdo con Alex, ya que no hay metadatos disponibles y no se conoce el linaje del conjunto de datos, es difícil evaluar el error. El error debe cuantificarse en una ubicación conocida precisa si existe en extensiones de conjunto de datos.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.