Fotogrametría con drones – Parte II
¿Cómo funciona la fotogrametría?
Una herramienta popular en la teledetección, la fotogrametría procesa imágenes recolectadas usando sensores montados desde UAV, aviones tripulados o satélites para crear imágenes a gran escala.
Estas imágenes, llamadas ortofotos u ortoimágenes, se fijan a una ubicación mediante el posicionamiento GPS y se normalizan mediante metadatos sobre condiciones ambientales como la humedad, la hora, la fecha y más. Esta información se envía a los servidores para su recopilación y almacenamiento.
Una vez recopiladas, las ortoimágenes se pueden introducir en un software avanzado de cartografía y topografía para crear representaciones y mapas 3D medibles. La comparación de las diferencias en los datos a lo largo del tiempo puede detectar variaciones en la composición química, la hidratación y la humedad, la temperatura y otros factores ambientales, todo sin poner las botas en el suelo.
Esta vista de ojos en el cielo es increíblemente valiosa para evaluar grandes propiedades y examinar la infraestructura remota sin una inversión sustancial en equipos tripulados.
Fotogrametría y espectro electromagnético
Las variaciones simples en la luz visible pueden ofrecer muchas pistas sobre los objetos a continuación.
Los sensores de fotogrametría recolectan luz del espectro de luz visible (y en algunos casos, más allá de él) para crear una imagen de paisajes, infraestructura vital o cualquier objeto o escena 3D. Agregue metadatos ambientales a imágenes de alta resolución y los investigadores pueden hacer hipótesis asombrosamente precisas sobre las condiciones del mundo real.
La luz hace más que crear una bonita imagen para el mapa. Las rocas, la vegetación y los objetos manufacturados tienen huellas digitales espectrales únicas que pueden usarse para ayudar a identificar su densidad, composición química y más.
Armados con tecnología de detección remota de alta potencia, los investigadores pueden usar la fotogrametría aérea para recopilar evidencia de otros espectros (como la radiación ultravioleta o infrarroja) junto con la luz visible para sacar conclusiones más profundas sobre el medio ambiente que se encuentra debajo.
¿Qué es LiDAR?
Inspirado en el sonar y la ecolocalización, LiDAR utiliza documentación láser de nube de puntos para crear un mapa detallado punto por punto de la posición de un objeto en el espacio.
Usado comúnmente para generar conciencia espacial en realidad aumentada, software de conducción automatizada y topografía avanzada, LiDAR puede analizar grandes parcelas de tierra en busca de densidad, topografía y vegetación. Si bien LiDAR puede producir mediciones increíblemente precisas, no crea una ortoimagen y, por lo tanto, carece de datos ambientales críticos.
Lograr claridad: captura de imágenes y creación de un plan de vuelo con drones
Para obtener los mejores resultados, un vuelo de captura de imágenes debe planificarse cuidadosamente y ejecutarse correctamente. Factores como la altitud, la humedad, la velocidad y la temperatura de la luz afectarán la calidad de las imágenes (y, por lo tanto, la calidad del mapa ortomosaico terminado).
En un escenario ideal, el plan de vuelo de un dron será uniforme en todos los sentidos posibles. Las imágenes se recopilarán desde la misma elevación sobre un objeto o paisaje objetivo y se tomarán a la misma velocidad con condiciones atmosféricas constantes. Cualquier desviación en la trayectoria de vuelo y en el proceso de captura de imágenes debe ser lo suficientemente pequeña como para normalizarse durante el procesamiento antes de renderizar el modelo.
Problemas comunes con los mapas ortomosaicos
Los drones deberían facilitar la planificación de vuelos para la fotogrametría ortomosaica . Con pilotos expertos de drones al timón, la recopilación de imágenes debería implicar poco más que establecer una ruta de vuelo, lanzar el UAV y realizar el control de calidad de las imágenes una vez que se recopilan.
Sin embargo, sin experiencia y una ejecución cuidadosa, surgen algunos problemas comunes:
- Demasiados huecos . Las ortoimágenes deben superponerse lo suficiente como para que el software de procesamiento cree un mapa completo; de lo contrario , se producirán lagunas, inexactitudes y distorsión visual .
- Detalle bajo . La mala iluminación, el mal tiempo y la tecnología desactualizada pueden llevar a cámaras desenfocadas que producen imágenes borrosas, viñetas y distorsiones que reducen la calidad de los datos.
- Imágenes irrelevantes . Los conjuntos de datos que incluyen vistas no esenciales desde fuera de los parámetros de metadatos establecidos, por ejemplo, imágenes de despegue y aterrizaje fuera de ángulo o imágenes tomadas fuera del área objetivo, pueden introducir ambigüedad en su mapa.
Para producir mapas ortomosaicos de alta calidad, necesita un vuelo bien planificado y ejecutado profesionalmente.
¿Cómo se define la resolución en fotogrametría?
La calidad de una ortofoto se centra en tres formas de resolución: espacial, temporal y espectral.
¿Qué es la resolución espacial?
La resolución espacial describe la cantidad de datos visuales recopilados en cada píxel de la imagen. La resolución espacial se mide en términos físicos: un documento con una resolución de 100 m documenta 100 metros por 100 metros de datos claros por píxel.
¿Qué es la resolución temporal?
La resolución temporal es una métrica para describir cómo transcurrió el tiempo entre imágenes o conjuntos de datos, lo que afecta la calidad analítica. Una buena resolución temporal requiere la recopilación de datos a intervalos regulares con pocas lagunas sustanciales.
¿Qué es la resolución espectral?
La resolución espectral describe la capacidad de un sensor para recopilar información sobre longitudes de onda electromagnéticas. Un sensor puede ser adecuado para variaciones documentadas de color, luz infrarroja u otras formas de energía electromagnética.
Etiqueta:Drone, Fotogrametria, Teledeteccion