Agricultura de precisión y sostenibilidad

Qué es la teledetección

Definiciones

La teledetección se refiere al proceso de recopilar información sobre un objeto, a distancia, sin tocar el objeto en sí. El método de detección remota más común que viene a la mente de la mayoría de las personas es la imagen fotográfica de un objeto tomada con una cámara. La teledetección se ha convertido en mucho más que mirar objetos con los ojos. Ahora incluye el uso de instrumentos, que pueden medir atributos sobre objetos que los ojos humanos sin ayuda no pueden ver o sentir.

Algunas otras definiciones de percepción remota son:

«La fotogrametría y la teledetección son el arte, la ciencia y la tecnología de obtener información confiable sobre los objetos físicos y el medio ambiente, mediante un proceso de registro, medición e interpretación de imágenes y representaciones digitales de patrones de energía derivados de sistemas de sensores sin contacto» (Colwell, 1997) .

«La teledetección puede definirse en términos generales como la recopilación de información sobre un objeto sin estar en contacto físico con el objeto. Las aeronaves y los satélites son las plataformas comunes desde las que se realizan las observaciones de teledetección. El término teledetección se limita a los métodos que emplean electromagnéticos la energía como medio para detectar y medir las características del objetivo ”(Sabins, 1978).

«La teledetección es el arte y la ciencia de obtener información a distancia, es decir, obtener información sobre objetos o fenómenos sin estar en contacto físico con ellos. La ciencia de la teledetección proporciona los instrumentos y la teoría para comprender cómo se pueden detectar objetos y fenómenos. El arte de la teledetección está en el desarrollo y uso de técnicas de análisis para generar información útil ”(Aronoff, 1995).

Historia

En 1858, un fotógrafo francés, Gaspaed Felix Tournachon, fue el primero en tomar fotografías aéreas desde un globo atado. Unos años más tarde, en 1861, las fotografías aéreas se convirtieron en una herramienta de inteligencia militar durante la guerra civil. También se tomaron fotografías aéreas de cámaras montadas en cometas (1858) y en palomas mensajeras (1903). En 1909 Wilber Wright voló el primer avión en tomar las primeras fotografías en vuelo. Las primeras fotografías aéreas utilizadas en el proceso de creación de mapas fueron presentadas en un artículo en 1913 por el Capitán Tardivo en una reunión de la Sociedad Internacional de Fotogrametría.

Las fotografías aéreas militares se utilizaron a gran escala durante la Primera Guerra Mundial. Los militares entrenaron a cientos de personas para procesar e interpretar fotografías de reconocimiento aéreo. Las unidades aéreas francesas revelaron 56.000 fotografías en cuatro días durante la ofensiva Meuse-Argonne en 1918 (Colwell, 1997). Después de la Primera Guerra Mundial y durante la década de 1930, las empresas comerciales de reconocimiento aéreo emplearon a muchos ex militares para procesar fotografías aéreas para producir mapas como mapas topográficos, mapas de gestión forestal y mapas de suelos.

La Segunda Guerra Mundial vio el desarrollo de películas de infrarrojos en color para el Ejército de los EE. UU. En 1942. Estas imágenes se utilizaron para detectar fuerzas enemigas y equipos que estaban camuflados. La mayoría de la inteligencia aliada reunida sobre el enemigo durante esta guerra fue el resultado directo del fotoreconocimiento aéreo.

El ejército de los Estados Unidos y otras agencias gubernamentales como la Administración Nacional de Aeronáutica y del Espacio (NASA) continuaron desarrollando el uso de la teledetección durante los años de la guerra fría. La década de 1960 también vio la expansión y el desarrollo de la teledetección terrestre desde el espacio. El primer satélite de reconocimiento fotográfico espacial militar, Corona, fue lanzado en 1960. Corona tomó fotografías de la Unión Soviética y sus aliados usando películas fotográficas. La película expuesta se transfirió luego a vehículos de recuperación no tripulados en el espacio. Los vehículos de recuperación luego desorbitaron y regresaron a la tierra en paracaídas con la película, que luego fue procesada y analizada en el laboratorio. La primera serie de satélites meteorológicos llamados Satélites de observación de infrarrojos de televisión (TIROS) comenzó a lanzarse en 1960. La NASA continuó recopilando imágenes para sus estudios de observación de la Tierra.

wpe2.jpg (19838 bytes) SR-71.jpg (151373 bytes)

Figura 1.1 Sitio de misiles cubanos 1962 Figura 1.2 SR-71

Fotografías aéreas tomadas desde aviones U-2 de gran altitud y RF101 de baja altitud, descubrieron instalaciones de misiles en Cuba como la que se muestra en la figura 1.1. Estas imágenes fueron televisadas al mundo durante la Crisis de los Misiles en Cuba en 1962. En 1964, la Fuerza Aérea de los Estados Unidos comenzó a volar el avión de reconocimiento SR-71 Blackbird que se muestra en la figura 1.2. El SR-71 vuela a velocidades superiores a Mach 3 o 2,000 millas por hora y en altitudes superiores a los 85,000 pies.

Durante la década de 1970 se lanzaron decenas de satélites estadounidenses de observación de la tierra y meteorología. También durante la década de 1970, las naves espaciales tripuladas, como la estación espacial Skylab, recopilaron imágenes de la tierra desde el espacio exterior. En 1972, el Landsat-1 que se muestra en la figura 1.3 con una resolución original de sólo 80 metros fue el primer satélite lanzado al espacio para la observación de recursos terrestres no militares. Landsat contenía sensores capaces de tomar imágenes digitales multiespectrales.

landsat.gif (29467 bytes)

Figura 1.3 Satélite Landsat

Los satélites de fotoreconocimiento militares de EE. UU. Se han mantenido en secreto y no están disponibles para el público en general. A partir de 1976, el ejército de Estados Unidos comenzó a desplegar satélites de alta resolución más sofisticados capaces de transmitir imágenes digitales a la Tierra. Se lanzaron ocho satélites Keyhole-11 entre 1976 y 1988. Se lanzaron tres satélites Keyhole-11B mejorados entre 1992 y 1996. Pueden producir imágenes con resoluciones estimadas de casi diez centímetros (cuatro pulgadas) (Vick et al, 1997).

Se han utilizado imágenes satelitales no militares para monitorear la degradación y contaminación del medio ambiente. Estas imágenes también se pueden utilizar para evaluar el daño de las inundaciones y los desastres naturales, ayudar a pronosticar el clima, ubicar reservas de minerales y petróleo, ubicar poblaciones de peces, monitorear las corrientes oceánicas, ayudar en el mapeo y planificación del uso de la tierra, producir mapas geológicos y monitorear pastos, recursos forestales y agrícolas.

Propiedades y conceptos fundamentales

El espectro electromagnético

Todos los objetos, incluidas las plantas y el suelo, emiten o reflejan energía en forma de radiación electromagnética. La radiación electromagnética viaja en ondas que se propagan por el espacio de forma similar a la que se muestra en la figura 1.4. Tres componentes principales de estas ondas son la frecuencia, la amplitud y la longitud de onda. La frecuencia es el número de crestas de ciclo que pasan por un punto durante un período de tiempo determinado. Un ciclo por segundo se conoce como un hercio. La amplitud es el nivel de energía de cada onda que mide la altura de cada pico de onda. La longitud de onda es la distancia desde la parte superior de un pico de onda hasta la parte superior del siguiente pico de onda

wave.gif (6514 bytes)

Figura 1.4 Radiación electromagnética

La fuente más común de radiación electromagnética con la que estamos familiarizados es el sol. El sol irradia energía que cubre todo el espectro de frecuencias electromagnéticas como se muestra en la figura 1.5.

Los sensores remotos actúan de manera similar al ojo humano. Son sensibles a imágenes y patrones de luz reflejada. Una diferencia importante entre el ojo humano y los sensores remotos es el rango de frecuencia del espectro electromagnético al que son sensibles.

El rango del espectro electromagnético varía desde longitudes de onda muy cortas de menos de diez billonésimas de metro conocidas como rayos gamma, hasta ondas de radio con longitudes de onda muy largas de varios cientos de metros. El espectro electromagnético se puede dividir en segmentos discretos de rangos de longitud de onda llamados bandas, también denominados a veces canal.

emspec.gif (6125 bytes)

Figura 1.5 Espectro electromagnético

Es el sol el que más a menudo proporciona la energía para iluminar objetos (figura 1.6). La energía radiante del sol golpea un objeto en el suelo y parte de esta energía que no se dispersa ni se absorbe se refleja de regreso al sensor remoto. Una parte de la energía del sol es absorbida por objetos en la superficie de la tierra y luego es emitida nuevamente a la atmósfera como energía térmica.

radiación.gif (8739 bytes)

Figura 1.6

Región visible

La porción de luz visible del espectro electromagnético varía de 0,4 micrómetros («µm») (longitud de onda más corta, frecuencia más alta) a 0,7 µm (longitud de onda más larga, frecuencia más baja). Este es el rango de frecuencia de la luz al que es sensible el ojo humano. Cada objeto refleja, absorbe y transmite energía electromagnética en la parte visible del espectro electromagnético y también en otras frecuencias no visibles. La energía electromagnética que atraviesa completamente un objeto se denomina transmitancia. Nuestros ojos reciben la luz visible reflejada por un objeto.

Los tres colores primarios reflejados por un objeto (figura 1.7) conocidos como primarios aditivos son las longitudes de onda azul, verde y rojo. Los colores primarios no pueden formarse mediante la combinación de otros colores primarios. Los colores intermedios se forman cuando una combinación de colores primarios se refleja en un objeto. Magenta es una combinación de rojo y azul reflejados, cian una combinación de azul y verde reflejados y amarillo una combinación de rojo y verde reflejados.

La película de color produce colores mediante el uso de capas de tintes que filtran varios colores. Los tres colores que absorben los colores primarios, conocidos como primarios sustractivos , son magenta, cian y amarillo. El magenta absorbe el verde y refleja el rojo y el azul, el cian absorbe el rojo y refleja el azul y el verde y el amarillo absorbe el azul y refleja el rojo y el verde. La absorción de todos los colores produce negro. Si no se absorbe ningún color, la película se vuelve blanca.

blue.gif (1820 bytes) green.gif (1886 bytes) red.gif (1843 bytes)

magenta.gif (2230 bytes) cyan.gif (2080 bytes) yellow.gif (2102 bytes)

black.gif (1777 bytes) white.gif (2053 bytes)

Figura 1.7

Región de infrarrojos

La región espectral infrarroja no visible se encuentra entre la luz visible y la porción de microondas del espectro electromagnético. La región infrarroja cubre un rango de longitud de onda de 0,7 µm a 14 µm. Esta amplia gama de longitudes de onda infrarrojas se subdivide en dos regiones infrarrojas más pequeñas. Cada una de estas regiones presenta características muy diferentes.

La región infrarroja más cercana a la luz visible contiene dos bandas más pequeñas etiquetadas como infrarrojo cercano e infrarrojo de onda corta con longitudes de onda que oscilan entre 0,7 µm y 1,1 µm y entre 1,1 µm y 3,0 µm respectivamente. Estas regiones infrarrojas exhiben muchas de las mismas características ópticas que la luz visible. El sol es la fuente principal de radiación infrarroja, que se refleja en un objeto. Las cámaras que se utilizan para capturar imágenes en el espectro de luz visible pueden capturar imágenes en la región del infrarrojo cercano mediante el uso de una película de infrarrojos especial.

La otra región infrarroja con longitudes de onda más largas que van desde 3,0 µm a 14,0 µm está compuesta por dos bandas más pequeñas etiquetadas como infrarrojo de onda media e infrarrojo de onda larga con longitudes de onda que van desde 3,0 µm a 5,0 µm y desde 5,0 µm a 14,0 µm respectivamente. Los objetos generan y emiten radiación infrarroja térmica, por lo que estos objetos se pueden detectar por la noche porque no dependen de la radiación infrarroja reflejada del sol. Los sensores remotos que operan en este rango de longitud de onda infrarroja miden la temperatura de un objeto.

Interacción entre plantas y radiación electromagnética

Estructura de la hoja

La estructura de una hoja se muestra en la Figura 1.8. La cutícula es una fina capa cerosa que cubre las células de la epidermis en la superficie de la hoja. Los pequeños derrames en la capa de células de la epidermis se llaman estomas. Los estomas están rodeados por células de guarda, que hacen que los estomas se abran o se cierren. Las celdas de protección regulan la evaporación del agua de la hoja y también controlan el intercambio de gases entre la hoja y la atmósfera.

La capa interior de la hoja está compuesta por dos regiones de tejido mesófilo. Aquí es donde ocurre la mayor parte de la fotosíntesis. El mesófilo en empalizada se encuentra justo debajo de la epidermis superior. Estas células son alargadas, alineadas en filas y contienen la mayoría de los cloroplastos de la hoja. Los cloroplastos de la mayoría de las plantas contienen pigmentos y dos tipos diferentes de clorofila. La clorofila a es la más abundante y es de color verde azulado. La clorofila b es de color verde amarillento y absorbe la luz y luego transfiere esa energía a la clorofila a. Las moléculas de pigmento dentro de los cloroplastos también absorben energía luminosa y transfieren la energía a la clorofila. El mesófilo esponjoso es el interior inferior de la hoja compuesto por células de forma irregular y sueltas. Estas células contienen cloroplastos y están rodeadas de espacios de aire.

leaf.gif (63606 bytes)

Figura 1.8 Sección transversal de una hoja de una planta típica

Respuesta espectral

La clorofila absorbe principalmente la luz en las longitudes de onda de violeta a azul y rojo. La luz verde no se absorbe fácilmente y se refleja, lo que le da a la hoja una apariencia de color verde. La estructura de la pared celular interna del mesófilo provoca una alta reflectancia de la radiación infrarroja cercana. La clorofila es transparente a la radiación infrarroja cercana. El fuerte aumento de la energía reflejada justo más allá de la región roja de la luz visible hacia la región del infrarrojo cercano se denomina borde rojo. La Figura 1.9 muestra este fuerte aumento de reflexión ubicado alrededor de la longitud de onda de 0,7 µm. La ubicación del borde rojo no es estática durante la vida de una hoja. A medida que la hoja madura, la clorofila absorberá longitudes de onda ligeramente más largas en la región roja visible. Este cambio mueve el borde rojo que se muestra en la figura 1.9 hacia la derecha y se conoce como desplazamiento al rojo (Campbell, 1996).

Los factores de estrés ambiental como la sequía, las enfermedades, la presión de las malezas, el daño por insectos y otros estresan o dañan las plantas. Este estrés provocará cambios fisiológicos en la planta. Las plantas estresadas tendrán una reflectancia espectral diferente a la de las plantas normales en la misma etapa de crecimiento. Un ejemplo de cambio fisiológico sería el cambio en el color de las hojas de las plantas debido a la clorosis. El color amarillo de la clorosis es causado por la descomposición de la clorofila. El verde reflejado disminuirá y el rojo reflejado aumentará. La correlación de las diferentes respuestas espectrales observadas con el equipo de detección remota con la condición real de las plantas es fundamental para la interpretación e identificación precisas de los daños y el estrés en los cultivos.

Figura 1.9

Tipos de sensores

La mayoría de los sensores remotos miden y registran la magnitud y frecuencia de la radiación reflejada de un objeto. Los datos del espectro de frecuencias registrados del objeto se comparan y hacen coincidir con las firmas del espectro de objetos conocidos, lo que permite la identificación y clasificación del objeto en el suelo.

La teledetección de aviones y satélites utiliza sensores de imágenes, que miden la energía reflejada de los objetos bajo vigilancia. Estos sensores de imágenes se dividen en dos categorías generales, sensores activos y sensores pasivos. Los sensores pasivos monitorean solo la luz solar natural reflejada o la energía electromagnética de un objeto. Los sensores pasivos constituyen la mayoría de los sensores que se utilizan en la actualidad. Los sensores de imagen activos proporcionan su propia luz o energía electromagnética, que se transmite al objeto y luego se refleja de regreso al sensor. Un ejemplo común de este tipo de sensor es el radar. La cubierta de nubes en el cielo a menudo puede impedir que los sensores pasivos reciban energía reflejada desde el suelo, pero los sistemas de radar pueden penetrar la cubierta de nubes.

La historia temprana de la teledetección consistió en imágenes fotográficas en película tomadas por cámaras. La luz reflejada que recibe la cámara expone la película al reaccionar con la emulsión química de la película para crear una imagen en formato analógico. Las imágenes producidas son fijas y no están sujetas a mucha manipulación a menos que se conviertan a un formato electrónico digital. Las imágenes digitales tienen ventajas sobre las imágenes de películas analógicas porque las computadoras pueden almacenar, procesar, mejorar, analizar y renderizar imágenes en una pantalla de computadora.

Las imágenes digitales son imágenes reducidas a números. La imagen se compone de números, que representan atributos de la imagen como el brillo, el color o la longitud de onda de la frecuencia de la energía radiada, y la ubicación de la posición de cada punto o elemento de la imagen. Los elementos de imagen de menor tamaño en una pantalla de computadora se denominan píxeles. Una imagen digital está formada por píxeles dispuestos en filas y columnas que se muestran en las figuras 1.6, 1.7, 1.8.

pixel.gif (950 bytes) scanlin.gif (1666 bytes)
Figura 1.10 Un solo píxel Figura 1.11 Una fila de píxeles representa una línea de exploración

img1bnd.gif (2810 bytes)

Figura 1.12 Las filas y columnas de píxeles representan una imagen

Resolución

Los sensores remotos miden diferencias y variaciones de objetos. Hay cuatro resoluciones principales que afectan la precisión y la utilidad de los sensores remotos.

La resolución espacial describe la capacidad de un sensor para identificar el detalle de tamaño más pequeño de un patrón en una imagen. La distancia entre patrones u objetos distinguibles en una imagen que se pueden separar entre sí a menudo se expresa en metros.

La resolución espectral es la sensibilidad de un sensor para responder a un rango de frecuencia específico. Los rangos de frecuencia cubiertos a menudo incluyen no solo luz visible, sino también luz no visible y radiación electromagnética. El rango discreto de longitudes de onda de frecuencia que un sensor puede detectar y medir se llama Banda. Las características del suelo, como el agua y la vegetación, se pueden identificar por las diferentes longitudes de onda reflejadas. El sensor utilizado debe poder detectar estas longitudes de onda para poder ver estas y otras características.

La resolución radiométrica a menudo se denomina contraste. Describe la capacidad del sensor para medir la intensidad de la señal o el brillo de los objetos. Cuanto más sensible es un sensor al brillo de un objeto en comparación con su entorno, más pequeño es el objeto que se puede detectar e identificar.

La resolución temporal es el período de tiempo transcurrido entre las imágenes tomadas del mismo objeto en el mismo lugar. Cuanto más frecuente sea el retorno de un sensor a una ubicación específica exacta, mayor será la resolución temporal. Varias observaciones a lo largo del tiempo revelan cambios y variaciones en el objeto que se observa. Para los sistemas de satélites, la resolución temporal se describe como el período de revisión, que se refiere al tiempo que tarda un satélite en regresar a la misma área en órbitas posteriores.

Procesamiento de imágenes

Una vez que se han adquirido los datos digitales sin procesar de la teledetección, se procesan en información utilizable. Las fotografías de películas analógicas se procesan químicamente en un cuarto oscuro, mientras que las imágenes digitales se procesan en una computadora. El procesamiento de datos digitales implica cambiar los datos para corregir ciertos tipos de distorsiones. Siempre que se modifiquen los datos para corregir un tipo de distorsión, existe la posibilidad de crear otro tipo de distorsión. Los cambios realizados en los datos de teledetección implican dos operaciones principales: preprocesamiento y posprocesamiento .

Preprocesamiento

Los pasos de preprocesamiento de una imagen de teledetección generalmente se realizan antes de la mejora, extracción y análisis del posprocesamiento de la información de la imagen. Normalmente, será el proveedor de datos quien preprocesará los datos de la imagen antes de la entrega de los datos al cliente o usuario. El preprocesamiento de datos de imágenes a menudo incluirá corrección radiométrica y corrección geométrica .

Se realizan correcciones radiométricas a los datos de la imagen digital sin procesar para corregir los valores de brillo del objeto en el suelo que se han distorsionado debido a la calibración del sensor o problemas de mal funcionamiento del sensor. La distorsión de las imágenes se debe a la dispersión de la energía de la luz electromagnética reflejada debido a una atmósfera en constante cambio. Ésta es una fuente de error de calibración del sensor.

Se realizan correcciones geométricas para corregir la inexactitud entre las coordenadas de ubicación de los elementos de la imagen en los datos de la imagen y las coordenadas de ubicación real en el suelo. Varios tipos de correcciones geométricas incluyen correcciones de sistema, precisión y terreno.

La corrección del sistema utiliza un punto de referencia geográfica para un elemento de píxel, como el proporcionado por el sistema de posicionamiento global. La precisión de la corrección a menudo varía según la precisión de la posición dada por el sistema de posicionamiento global. La inestabilidad del sistema de plataforma de la aeronave se muestra en la figura 1.13. La corrección de preprocesamiento elimina la distorsión del movimiento como se muestra en la figura 1.14.

toledo_small_raw.jpg (12229 bytes)

Figura 1.13 Datos brutos del sensor aéreo sin corregir.

toledo_synthetic_small.jpg (14879 bytes)

Figura 1.14 Datos preprocesados ​​corregidos para el movimiento de la aeronave.

La corrección de precisión utiliza puntos de control de tierra. Los puntos de control terrestre, que tienen ubicaciones geográficas precisas de longitud y latitud predeterminadas, se utilizan a menudo para medir el error de ubicación de los elementos de la imagen. Hay varios modelos matemáticos disponibles para estimar la posición real de cada elemento de la imagen en función de su distancia desde el punto de control del terreno.

La corrección del terreno es similar a la corrección de precisión, excepto que, además de la longitud y la latitud, se hace referencia a una tercera dimensión de elevación con el punto de control terrestre para corregir la distorsión inducida por el terreno. Este procedimiento también se conoce como orto-corregido u ortorrectificado. Por ejemplo, los edificios altos parecen inclinarse lejos del punto central de la figura 1.15, mientras que los edificios directamente debajo de la lente de la cámara (nadir) solo tienen sus techos visibles. La distorsión del relieve será mayor para los objetos más alejados del centro de la foto.

LongBeach.jpg (122278 bytes)

Figura 1.15 Ejemplo de terreno o desplazamiento de relieve.

Postprocesamiento

Las rutinas de posprocesamiento de imágenes digitales incluyen mejora de imágenes , clasificación de imágenes y detección de cambios . Estas rutinas de proceso computarizado mejoran la calidad de la escena de la imagen y ayudan en la interpretación de los datos.

Las técnicas de mejora de la imagen incluyen estiramiento del contraste, filtrado espacial y relación.

El estiramiento del contraste cambia la distribución y el rango de los números digitales asignados a cada píxel en una imagen. Esto se hace a menudo para acentuar detalles de la imagen que pueden ser difíciles de observar para el espectador humano sin ayuda.

El filtrado espacial implica el uso de algoritmos llamados filtros para enfatizar o restar importancia al brillo usando un cierto rango de números digitales sobre una imagen. Los filtros de paso alto mejoran el detalle del borde de la imagen. Los filtros de paso bajo suavizan una imagen y reducen el ruido de la imagen.

Las razones se calculan tomando los números digitales de una banda de frecuencia y dividiéndolos por los valores de otra banda. El rango de proporción se puede redistribuir para resaltar ciertas características de la imagen.

La clasificación de imágenes agrupa los píxeles en clases o categorías. Este proceso de clasificación de imágenes puede no estar supervisado o supervisado.

La clasificación de imágenes sin supervisión es un sistema informático que asigna píxeles a grupos estadísticamente separables en función de los valores numéricos digitales de píxeles de varias bandas espectrales. A los patrones de conglomerados resultantes se les pueden asignar diferentes colores o símbolos para visualizarlos y producir un mapa de conglomerados. El mapa resultante puede no corresponder necesariamente a las características del terreno que le interesan al usuario.

La clasificación supervisada es un procedimiento más completo que utiliza un analista de imágenes humanas experimentado para reconocer y agrupar píxeles en clases y categorías de interés para el usuario. El analista selecciona varias muestras de patrones de píxeles homogéneos en la imagen denominados sitios de entrenamiento. Los analistas identifican estos sitios visitando realmente la ubicación del terreno y haciendo observaciones de campo (verificación del terreno) o utilizando experiencia y habilidades pasadas. Los píxeles restantes fuera de los sitios de formación se hacen coincidir con los sitios de formación utilizando técnicas de procesamiento estadístico.

La detección de cambios es un proceso en el que dos imágenes en la misma ubicación tomadas en fechas diferentes se comparan entre sí para medir cualquier cambio en la forma física, ubicación o propiedades espectrales. Luego se produce una tercera imagen que muestra solo los cambios entre la primera y la segunda imagen. La detección de cambios se presta al análisis de la automatización informática. Los valores numéricos digitales de píxeles se comparan píxel por píxel dentro de cada banda de frecuencia. El análisis por computadora es más útil cuando se combina con la experiencia y el conocimiento del analista humano para interpretar los cambios de imagen.

Leer más
Agricultura de precisión y sostenibilidad

La agricultura digital comienza a dar forma al campo del futuro

Un sensor mide lo que el tractor hace en el campo y recolecta datos. Recopila información sobre la densidad y profundidad en la que se plantaron las semillas, registra si se aplicaron moléculas de protección de cultivos y con qué frecuencia se utilizaron fertilizantes.

Los datos se complementan con imágenes satelitales, información de temperatura, humedad, precipitaciones y suelo. Luego, se procesan en una plataforma digital que permite visualizar todas esas variables en tiempo real para evaluar y hasta predecir (sí, leyó bien: predecir) niveles de fertilidad o recomendar semillas con una precisión que oscila entre el 75 y el 85 por ciento.

Agtech, el ecosistema que necesita ampliar sus fronteras
Parece una postal del futuro. Pero ya es una realidad para más de 150 productores argentinos que comenzaron a probar FieldView, una solución de agricultura digital desarrollada por Bayer, en más de 400.000 hectáreas de cultivos de maíz, soja, trigo y girasol. El 30 por ciento de esos pioneros son cordobeses, según informó la compañía a Agrovoz.

Beneficios

La plataforma, que se lanzó en junio en el país, permite a los productores evaluar el rendimiento de sus cultivos y gestionar la variabilidad de sus tierras. Además, genera recomendaciones personalizadas de fertilidad y siembra a fin de optimizar la productividad. En la campaña actual, FieldView está realizando recomendaciones avanzadas en densidad de semillas para poder minimizar el riesgo en ambientes menos favorables e incrementar el rinde en zonas más productivas.

“Con las recomendaciones de semillas, en el caso del maíz en Estados Unidos, donde hemos hecho el mayor trabajo, estamos ayudando al agricultor a elegir el híbrido correcto y estamos acertando aproximadamente en el 85 por ciento de las veces cuando se compara con la decisión que el agricultor proponía”, explica Sam Eathington, director científico de The Climate Corporation y responsable de agricultura digital en Bayer.

La agricultura moderna, con otro perfil de proveedores
“Las predicciones no son perfectas”, aclara. “Estamos trabajando en recomendaciones de fertilidad. En las pruebas que hemos realizado, el nivel de precisión se ha ubicado entre el 75 y el 85 por ciento, que es un nivel aceptable para los productores”, dice.

Con cada temporada, la plataforma consigue capas de información adicional que ayudan a hacer el modelo más inteligente. “Es similar a lo que ocurre con sistemas de reconocimiento de imágenes en los teléfonos móviles, que aprenden a reconocer las imágenes cada vez con mayor precisión”, ejemplifica Eathington.

San Carlos, donde las startups ayudan a producir granos y carne
El experto habló con Agrovoz y otros medios argentinos que fueron invitados por la compañía a participar del Diálogo sobre el Futuro de la Agricultura, un evento que reunió en Monheim (Alemania) a productores, académicos y periodistas para debatir sobre el futuro del sector.

Solución

FieldView tiene un costo de 1.000 dólares por año, sin importar el tamaño del campo. El único requisito es que se pueda conectar con máquinas y tractores compatibles con el sistema, con una antigüedad que no debe superar los 10 años.

“Ofrece buenos retornos a nivel de productividad y rendimiento si se compara con la inversión necesaria para el servicio”, dice el científico de Bayer.

La conservación del suelo se refuerza desde la «nube»
En Estados Unidos, la empresa está ensayando con un modelo de precios que toma riesgos con el productor y cobra en función de los resultados obtenidos tras sus recomendaciones personalizadas. Si la plataforma no genera los resultados prometidos, el productor no paga por el servicio; si las predicciones superan las previsiones del productor, el precio será acorde.

Quienes aplican soluciones tecnológicas en la gestión de sus cultivos coinciden en que la clave radica no sólo en comprometerse con la calidad de la información que se recolecta, para obtener lecturas correctas, sino también en aprender de los resultados.

Buenas prácticas aplicadas: el que innova tiene premio
“La aplicación de tecnologías de datos ofrece toda la información en un solo lugar. Es fácil calcular el retorno de la inversión y cómo varió el rendimiento en cada parte del campo, o si debo aplicar menos fertilizantes en esta parte, porque no hago dinero ahí”, explica Eathington. “No hay nada mejor que hacerlo en la propia tierra, con los equipos propios y el modelo de gestión de cada uno. Es una manera poderosa de creer en algo”, afirma.

Alcance

En Bayer destacan que la tecnología digital funciona sin importar la cantidad de hectáreas. “Puede ayudar a la productividad de todos”, afirma Eathington, quien cree que a futuro los campos necesitarán más tecnología para mantener sus operaciones, ante la pérdida de empleos que se observa en el sector.

“Antes se necesitaban varias personas para hacer un determinado proceso, ahora hace falta una. No es que la tecnología se quitó de encima a todas esas personas, sino que esas personas ya no quieren estar más en el campo”, reflexiona.

FieldView se utilizó en 2018 en todo el mundo en más de 24 millones de hectáreas de pago. Si continúa la tendencia, este año Bayer espera superar el objetivo marcado de 36 millones de hectáreas de adopción.

Leer más