Clasificación del vecino más cercano (NN) en ecognición
Al final de esta publicación, creará una mejor clasificación de cobertura del suelo. Todo porque aprendió la técnica de vecino más cercana altamente efectiva en el análisis de imágenes basado en objetos.
O podría aprender algo bueno que vamos a ver mucho más en el futuro.
Ya hemos comparado la clasificación no supervisada, supervisada y basada en objetos.
La clasificación del vecino más cercano es una joya oculta en la clasificación basada en objetos. Casi bajo el radar, no hay nada que se acerque a su capacidad para clasificar los datos de alta resolución espacial de forma remota.
¿Suena muy bien? Está.
¿Cuál es la clasificación de vecinos más cercanos?
La clasificación de vecinos más cercano a objetos (clasificación NN) es una técnica de clasificación supervisada súper potente.
La razón es que tiene la ventaja de usar objetos de imagen inteligentes con segmentación multirresolución en combinación con la clasificación supervisada.
¿Qué es la segmentación multirresolución?
La segmentación multirresolución (MRS) hace la digitalización por usted. Los humanos agregan naturalmente la información espacial a los grupos. Del mismo modo, encuentra objetos lógicos en su imagen y vectoriza la imagen. Por ejemplo, MRS produce objetos delgados y largos para las carreteras. Para los edificios, crea objetos cuadrados de diferentes escalas.
Algo así
No puedes obtener esto usando un enfoque de píxel por píxel
Ejemplo de clasificación del vecino más cercano
La clasificación del vecino más cercano le permite seleccionar muestras para cada clase de cobertura del suelo. Usted define los criterios (estadísticas) para la clasificación y el software clasifica el resto de la imagen.
Clasificación vecina más cercana = segmentación multirresolución + clasificación supervisada
Ahora, que tenemos una descripción general. Entremos en los detalles del ejemplo de clasificación de vecinos más cercanos.
Este ejemplo utiliza las siguientes bandas: Red, Verde, Azul, Modelo de altura de dosel lidar (CHM) e intensidad de luz LiDAR (INT).
Paso 1. Realice la segmentación multirresolución
Clasificación de cobertura del suelo basada en píxeles
Los humanos agregan naturalmente la información espacial a los grupos. Cuando ve el efecto de sal y pimienta en la cubierta terrestre, probablemente sea porque utiliza una clasificación basada en píxeles.
La segmentación de resolución múltiple es la razón por la cual ha surgido el análisis de imágenes basado en objetos para clasificar conjuntos de datos de alta resolución espacial. MRS crea objetos en polígonos de vectores inteligentes homogéneos.
Podemos ver caminos, edificios, hierba y árboles como objetos inteligentes después de la segmentación multirresolución. Esta es la razón por la cual la segmentación multirresolución tiene más valor que clasificar píxel por píxel.
Acción: en el árbol de proceso, agregue el algoritmo de segmentación multirresolución. (Haga clic con el botón derecho en la ventana del árbol de proceso> Agregar nuevo> Seleccionar algoritmo de segmentación multirresolución)
Este ejemplo usa los siguientes criterios:
- Escala: 100
- Forma: 0.1
- Compacidad: 0.5
Acción: ejecute la segmentación. (En la ventana de árbol de proceso> Haga clic con el botón derecho en el algoritmo de segmentación multirresolución> Haga clic en Ejecutar)
Escala: establece la resolución espacial de la segmentación multirresolución. Un valor más alto creará objetos más grandes.
Forma: un valor de criterio de forma más alto significa que se colocará menos valor en el color durante la segmentación.
Compacidad: un valor de criterio de compacidad más alto significa que los objetos más unidos serán después de la segmentación.
El mejor consejo aquí es prueba y error. Experimente con escala, forma y compacidad para obtener objetos de imagen ideales. Como regla general, desea producir objetos de imagen a la escala más grande posible, pero aún puede discernir entre objetos.
Paso 2. Seleccione las áreas de capacitación
Ahora, capacemos el software asignando clases a objetos. La idea es que estas muestras se utilizarán para clasificar toda la imagen.
Pero, ¿qué queremos clasificar? ¿Cuáles son las clases de cobertura del suelo?
Acción: en la ventana de la jerarquía de clases, cree clases para edificios (rojo), hierba (verde), superficies pavimentadas (rosa) y transporte (marrón). (Haga clic con el botón derecho en la ventana Jerarquía de clase> Insertar clase> Cambiar el nombre de la clase> Haga clic en Aceptar)
Acción: seleccionemos muestras en la imagen segmentada. Agregue la barra de herramientas de muestras (Ver> Barras de herramientas) Seleccione la clase y haga doble clic en los objetos para agregar muestras al conjunto de entrenamiento.
Definir muestras de cubierta terrestre
Una vez que sienta que tiene una cantidad bien representada de muestras para cada clase, ahora podemos definir nuestras estadísticas.
Tenga en cuenta que siempre podemos volver a este paso y agregar más muestras después.
Paso 3. Definir estadísticas
Ahora hemos seleccionado nuestras muestras para cada clase de cobertura del suelo. ¿Qué estadísticas vamos a usar para clasificar todos los objetos en la imagen?
Definir estadísticas significa agregar estadísticas al espacio de características NN estándar
Acción: Abra la ventana NN estándar Editar. (Clasificación> Vecino más cercano> Editar NN estándar).
Este ejemplo utiliza bandas rojo, verde, azul, de altura de dosel lidar (CHM) e intensidad de luz LiDAR (int). Esto requiere un poco de experimentación para encontrar las estadísticas correctas para usar. Este ejemplo utiliza las estadísticas a continuación:
Espacio de características NN estándar:
- CHM media (altura promedio de LiDAR en el objeto)
- Desviación estándar (variación de altura en el objeto)
- Media int (intensidad lidar promedio en el objeto)
- Media rojo (valor rojo promedio en el objeto)
Paso 4. Clasificar
- Acción: en la jerarquía de clase; Agregue el vecino estándar más cercano a cada clase. (Haga clic con el botón derecho> Editar> Haga clic con el botón derecho [y Min]> Insertar una nueva expresión> Vecino estándar más cercano)
- Acción: en el árbol de proceso, agregue el algoritmo de clasificación. (Haga clic con el botón derecho en el árbol de proceso> Agregar nuevo> Seleccionar algoritmo de clasificación)
- Acción: seleccione cada clase como activo y presione Ejecutar. (En la ventana de parámetros> Marque de verificación todas las clases> Algoritmo de clasificación de clic derecho en el árbol de procesos> Ejecutar)
El proceso de clasificación clasificará todos los objetos en toda la imagen en función de las muestras seleccionadas y las estadísticas definidas. Clasificará cada objeto en función de su cercanía al conjunto de capacitación.
Si no está contento con el producto final de clasificación de vecinos más cercanos, todavía hay un par de opciones para mejorar la precisión.
Aquí hay una lista de opciones para mejorar su clasificación:
- Agregue más muestras al conjunto de entrenamiento.
- Definir diferentes estadísticas.
- Experimente con diferentes escalas y criterios en la SRS.
- Si es posible, agregue más bandas (NIR, etc.).
Desea automatizar tanto como sea posible utilizando los pasos 1-4 con la mayor precisión. Pero todavía espero que si no hiciste las cosas bien.
Paso 5. Edición de imágenes basada en objetos
Su objetivo era el 100% de precisión, pero solo ha llegado a una precisión del 80%. Eso realmente no es tan malo. Te mereces una palmadita en la espalda.
Si buscas la perfección, nunca serás feliz . Es por eso que la barra de herramientas de edición manual existe en ecognición. (Ver> Barras de herramientas> Edición manual)
Seleccione la clase. Seleccione el objeto. Acabas de hacer una edición manual.
5 Pasos sencillos a la clasificación de vecinos más cercanos:
- Realizar la segmentación multirresolución
- Seleccionar áreas de entrenamiento
- Definir estadísticas
- Clasificar
- Edición manual
Tome OBIA para una prueba de manejo
La clasificación del vecino más cercano es un enfoque poderoso (y poco conocido) para crear una clasificación de cobertura del suelo.
Es único en el sentido de que genera objetos inteligentes con segmentación multirresolución y clasificación supervisada con el editor de muestras.
Pero toma un poco de práctica. Es un arte y una ciencia para crear una obra maestra de la portada de la tierra.
Domine esta guía de clasificación de vecinos más cercanos y usted está un paso más cerca de convertirse en un experto en análisis de imágenes basado en objetos.
Software de análisis de imágenes basado en objetos:
- Desarrollador de Trimble EcoGnition Definitiens
¿Qué es el software de ecognición?
Trimble EcoGnition es un software de análisis avanzado para aplicaciones geoespaciales. Está diseñado para mejorar, acelerar y automatizar la interpretación de una variedad de datos geoespaciales y permite a los usuarios diseñar la extracción de características de las soluciones de detección de cambios para transformar los geo-data en geo-información.
¿Cuánto cuesta la ecognición?
El costo del software de EcoGnition de Trimble para un desarrollador de Trimble es de $ 20,880. El costo de software ENVI es de $ 8,370 por usuario de una sola licencia.
¿Cómo se cite la ecognición?
Aquí hay ejemplos de cómo citar la documentación de la ecognición correctamente: Trimble Alemania GmbH. Trimble Documentation Ecognition Developer 10.1 Libro de referencia; Trimble Alemania GmbH: Munich, Alemania, 2021. Trimble Alemania GmbH.