A Interpretação de Imagens

A geração de resultados a partir de dados remotos pode ser produto de interpretações visuais ou ópticas e de processamentos digitais de classificações dos pixels. Para Moreira (2007, p. 204), a interpretação visual ou fotointerpretação “é o processo em que o intérprete utiliza um raciocínio lógico, dedutivo e indutivo para compreender e explicar o comportamento de cada objeto contido nas fotos. A rigor é realizada com base em certas características […]”. Nas interpretações visuais, o fotointérprete deve reconhecer os padrões dos objetos através de elementos essenciais para a distinção entre eles, que são: sombreamento, tonalidade e cor, tamanho e forma, textura, padrão e localização. (FITZ, 20018, p. 123).

Na interpretação visual de imagens orbitais, podem ser selecionadas as bandas espectrais que melhor representem os alvos, ao invés de serem trabalhadas composições Red, Green, Blue (RBG), cujo padrão é facilmente reconhecível pelo olho humano. O sistema RBG é utilizado nos televisores e monitores. Vermelho, verde e azul correspondem às três colorações básicas do espectro do visível; são chamadas de cores primárias, pois a partir da combinação delas podem ser geradas quaisquer outras cores.

“Quando selecionamos […] canais e filtros para uma composição colorida, temos que conhecer o comportamento espectral do alvo de nosso interesse. Sem conhecê-lo, corremos o risco de desprezar faixas espectrais de grande significância na sua discriminação.” (NOVO, 1992, p. 180).

A seleção de diferentes bandas pode promover a distinção entre elementos. Além disso, as técnicas de realce podem ser importantes aliadas nestas distinções durante as interpretações visuais, elas tem a finalidade de melhorar a qualidade visual da imagem, a ampliação do contraste das imagens e a geração de composições coloridas a partir das bandas disponíveis e potencialidades de cada uma delas. Estas são técnicas simples e que permitem realçar objetos e facilitar as análises.

Potencialidades das imagens Landsat 1 e 2
MSS 1 e MSS 2 / Banda 4 – Verde
Sedimentos em suspensão e corpos d’água rasos.
MSS 1 e MSS 2 / Banda 5 – Vermelha
Características de agricultura.
MSS 1 e MSS 2 / Banda 6 – Infravermelho Próximo 1
Limites entre as formas: terra, água e relevo.
MSS 1 e MSS 2 / Banda 7 – Infravermelho Próximo 2
Maior penetração atmosférica, enfatiza os limites entre as formas.

Potencialidades das imagens Landsat 5
TM 5 / Banda 1 – Azul
Apresenta grande penetração em corpos de água, com elevada transparência, permitindo estudos batimétricos. Apresenta sensibilidade a plumas de fumaça oriundas de queimadas ou atividade industrial e apresentar atenuação pela atmosfera.
TM 5 / Banda 2 – Verde
Apresenta grande sensibilidade à presença de sedimentos em suspensão, possibilitando sua análise em termos de quantidade e qualidade. Boa penetração em corpos de água.
TM 5 / Banda 3 – Vermelho
Discrimina as encostas e a vegetação. Bom contraste entre as áreas ocupadas com vegetação. É a banda mais utilizada para delimitar a mancha urbana, incluindo identificação de novos loteamentos. Permite a identificação de áreas agrícolas.
TM 5 / Banda 4 – Infravermelho Próximo
Enfatiza o teor de biomassa e os rios. Os corpos de água absorvem muita energia nesta banda e ficam escuros, permitindo o mapeamento da rede de drenagem e delineamento de corpos de água. Apresenta sensibilidade à morfologia do terreno.
TM 5 / Banda 5 – Infravermelho Médio 1
Penetra nas nuvens menos espessas e permite detectar o teor de umidade do solo.
TM 5 / Banda 6 – Infravermelho Termal
Apresenta sensibilidade aos fenômenos relativos aos contrastes térmicos, servindo para detectar propriedades termais de rochas, solos, vegetação e água. *Resolução de 120m
TM 5 / Banda 7 – Infravermelho Médio 2
Rochas hidrotermicamente alteradas associadas a depósitos minerais.

Fontes: INPE. Disponível em http://www.dgi.inpe.br/Suporte/files/Cameras-LANDSAT57_PT.php e USGS. Disponível em https://landsat.usgs.gov/what-are-best-spectral-bands-use-my-study. Acesso em 13 dez. 2017.

A interpretação visual de imagens é um procedimento executado com base em características específicas das imagens como padrão, cor, tonalidade, entre outros já abordados. Contudo, quando executado em imagens orbitais, existem outras características que podem contribuir para a análise dos dados, tais como: a época de obtenção da imagem, as bandas disponíveis e as escalas de trabalho. A época de obtenção das imagens é importante para estabelecer relações com outros componentes, sejam regimes pluviométricos, ciclos de agricultura ou até mesmo queimadas ou desastres naturais. A disponibilidade de bandas na imagem escolhida é também importante, pois permite o realce de alvos a partir das composições coloridas, quando são imagens multiespectrais. E as escalas de trabalho são essenciais para o melhor aproveitamento dos dados; a escolha do material para a elaboração de um resultado deve estar orientada aos objetivos do trabalho, observando-se sempre se os resultados necessários podem ser extraídos de forma adequada das fontes selecionadas.

Florenzano (2008, p. 39) coloca que “a partir dos elementos de interpretação de imagens, podem ser elaboradas chaves (modelos) de interpretação.” As chaves de interpretação são agrupamentos de características específicas que definem um alvo e podem ser desenvolvidas pelo próprio intérprete. É um procedimento metodológico de interpretação que busca padronizar os resultados obtidos. Florenzano (2008, p. 52 – 54) apresenta exemplos de chaves de interpretação de objetos e feições representadas em imagens TM e ETM+ Landsat utilizando a composição 3 (B), 4 (G) e 5 (R), ou seja, a banda 3 no canal azul, a banda 5 no canal verde e a banda 5 no canal vermelho. Desta forma, o autor sugere que os corpos d’água (rios, lagos, represas e oceano) obedeceriam à seguinte chave de interpretação: “cor azul (material em suspensão) ou preta (água limpa); textura lisa; forma irregular, linear retilínea ou curvilínea para os rios” (FLORENZANO, 2008, p. 53)

Já Moreira (2007, p. 245) propõe o método sistemático como alternativa às chaves de interpretação. No método sistemático é aplicada uma sequência lógica de etapas de fotointerpretação: fotoleitura, fotoanálise e fotointerpretação.

Fonte: Exame de Qualificação Doutorado PPGMA-UERJ. Teixeira, 2018. A Lagoa de Itaipu: (re)conhecimento a partir de diálogos no mundo vivido

Publicidade

Alguns métodos e tipos de Classificação de Imagens

Métodos de Classificação

Existem seis principais métodos de classificação: as classificações supervisionadas e não supervisionadas (Supervised Classification and Unsupervised Classification), a interpretação visual (Visual Observation), as redes neurais artificiais (Artificial Neural Network), classificação baseada no conhecimento (Classification Expert), processamento técnico de imagem de sensoriamento remoto (Technical Processing of Remote Sensing Image) e os métodos de combinação de bandas (Band Combination Method).

A classificação supervisionada é baseada na função de identificação estatística, de acordo com a amostra típica métodos de treinamento que permite a geração de parâmetros de classificação de classes de acordo com regras de decisão.

Já a classificação não-supervisionada é um método de análise cluster, ou seja, um algoritmo geral de agrupamento primeiro seleciona o modelo número de pontos como o centro do cluster. Cada centro representa uma categoria, de acordo com alguma semelhança medida, torna cada atributo padrão nos centros do cluster15 representados pelo tipo.

A interpretação visual, já abordada anteriormente, é definida pela distinção entre características geométricas e as características da superfície perceptíveis aos olhos humanos.

as redes neurais artificiais são técnicas computacionais que apresentam um modelo matemático inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento através da experiência. A criação do modelo requer treinamento e testes semelhantes à classificação supervisionada de dados de sensoriamento remoto para extrair informações úteis dos dados auxiliares e de sensoriamento remoto.

A classificação baseada no conhecimento é um sistema especialista para classificação de dados de múltiplas fontes e é elaborada de acordo com o conhecimento e experiência fornecidos por um ou mais especialistas em um campo. Lersch (2003, p. 12) ao elaborar seu estudo sobre os sistemas de combinação de dados geoespeciais para a classificação de imagens digitais de cenas naturais afirma que “o uso de sistemas especialistas pode reduzir as desvantagens existentes entre os processos de classificação por regiões (segmentação) e os métodos pixel a pixel (que se utilizam dos algorítimos tradicionais de classificação).”

No tocante ao citado processamento técnico de imagem de sensoriamento remoto, Song, Cui e Guo (2011) destacam as correções de erros e, por fim, a combinação de bandas. Este método é especialmente importante, pois é amplamente utilizado para monitoramento de vegetação. Ele é baseado na exploração de características físicas da vegetação impressas nas respostas espectrais.

As técnicas de combinação de bandas incluem os índices de vegetação, além da relação de bandas e análise de componentes principais.

Os índices de vegetação foram criados, entre outras coisas, para tentar diminuir o trabalho de análise de dados orbitais, por meio de maximização de informações espectrais da vegetação no menor número de bandas de operação dos sensores. Eles foram criados no intuito de ressaltar o comportamento espectral da vegetação em relação ao solo e a outros alvos da superfície terrestre (realçar o contraste espectral entre a vegetação e o solo). Assim sendo, esses índices podem ser obtidos tanto de dados coletados por satélites como por equipamentos próximos ao alvo de interesse, como é o caso dos espectrorradiômetros. (MOREIRA, 2007, p. 204)

A extração de índices de vegetação permitem explorar aquilo que está além do alcance visual do operador. Essencialmente, os índices de vegetação são indicadores desenvolvidos para examinar remotamente o perfil da vegetação. Eles “resultam de transformações lineares da reflectância obtidas em duas ou mais bandas do espectro eletromagnético, mediante soma, razão entre bandas, diferença ou qualquer outra combinação.” (WIEGAND et al., 1991 apud MOREIRA, 2007, p. 205)

Há uma variedade de índices disponíveis na literatura; segundo Moreira (2007, p. 50) são encontrados mais de 50 índices de vegetação; dentre os mais comuns estão o Enhanced Vegetation Index (EVI) proposto por Huete et al. (1997), o Normalized Difference Vegetation Index (NDVI) proposto por Rouse et al. (1973), o Soil-Adjusted Vegetation Index (SAVI) proposto por Huete (1988), e o Atmospherically Resistant Vegetation Index (ARVI) proposto por Kaufman e Tanré (1992). Estes índices são alguns dos produtos das transformações matemáticas da reflectância com o propósito de se explorar as propriedades espectrais da vegetação, especialmente nas regiões do vermelho e do infravermelho próximo do espectro eletromagnético (WIEGAND et al., 1991 apud GINCIENE et al., 2011). Sua lógica reside no fato de que a energia refletida no vermelho e infravermelho próximo encontra-se relacionada à atividade fotossintética da vegetação e a sua estrutura (FERREIRA et al., 2008 apud GINCIENE et al., 2011). Assim, estes índices encontram-se associados a parâmetros biofísicos da vegetação, como a biomassa e o índice de área foliar (PONZONI & SHIMABUKURO, 2007 apud GINCIENE et al., 2011).

A base teórica empírica para os índices de vegetação é derivada da análise das assinaturas de reflectância espectral típicas. A energia refletida no espectro do visível é muito baixa em virtude da alta absorção por pigmentos fotossinteticamente ativos e com máxima sensibilidade nos comprimentos de onda do azul (470 μm) e do vermelho (670 μm). Quase toda a radiação do infravermelho próximo (NIR) é dispersa (refletida e transmitida) e tem muito pouca absorção, que é dependente das propriedades estruturais de um dossel (LAI, distribuição do ângulo da folha, morfologia da folha). Como um resultado, o contraste entre respostas vermelhas e infravermelho próximas é uma medida sensível de quantidade de vegetação, com diferenças máximas de vermelho – NIR ocorrendo em um dossel completo e contraste mínimo sobre os alvos com pouca ou nenhuma vegetação. Em baixas e médias densidades de vegetação, o contraste exibido é resultado de mudanças tanto vermelhas como NIR, enquanto em áreas de vegetação densa, apenas o NIR contribui para aumentar os contrastes à medida que a banda vermelha fica saturada devido à absorção da clorofila. [Tradução minha] (HUETE et al. 1999, p. 16)

Tipos de Classificação

Na classificação por pixels, os algoritmos procuram encontrar regiões homogêneas, a partir de medidas de distâncias ou de probabilidades de um pixel pertencer a uma classe específica. Ou seja, se um pixel satisfaz a um determinado conjunto de critérios, este pixel é atribuído à classe que melhor satisfaz os critérios estabelecidos.

Já na classificação por regiões, o processo de decisão leva em consideração um agrupamento de pixels que é usado como unidade de classificação, que consiste em um método conhecido como Classificação Orientada ao Objeto (OBIA).

A classificação OBIA (Object-based Image Analysis) consiste em analisar parâmetros que vão além da resposta espectral do pixel, como textura e forma dos objetos que compõem uma determinada cena em uma imagem (WATTS et al., 2009 apud TEIXEIRA et al. 2015). Nos métodos OBIA a análise da imagem é baseada em objetos geográficos e consiste basicamente na aplicação de dois procedimentos metodológicos:
(1) segmentação/regionalização, técnica primária usada para conversão de uma cena ou imagem em múltiplos objetos;
(2) classificação baseada em regras de decisão que explicitam as propriedades dos objetos expressas pelos atributos (NAVULUR, 2006; LANG, 2008 apud FRANCISCO e ALMEIDA, 2012).

A etapa de classificação é executada por algoritmos que reconhecem padrões espectrais, tanto para classificações por regiões ou pixel a pixel, eles podem ser executados de maneira supervisionada ou não-supervisionada.

Nas classificações supervisionadas, são feitas seleções de áreas cuja classe é anteriormente conhecida para a criação de amostras de treinamento. Nestas áreas amostradas são calculados valores estatísticos que permitem a caracterização de cada classe pelo algoritmo escolhido. A classificação não-supervisionada é indicada quando não há conhecimento específico sobre a área de estudo, ela é executada por agrupamento de pixels. Ambas dão origem ao produto final: o mapa temático.

Fonte: Exame de Qualificação Doutorado PPGMA-UERJ. Teixeira, 2018. A Lagoa de Itaipu: (re)conhecimento a partir de diálogos no mundo vivido

Sensoriamento Remoto. Os primeiros satélites e as principais características

O primeiro satélite para fins de Sensoriamento Remoto não tripulado foi o Landsat 1, lançado em julho de 1972, que inicialmente levou a bordo 2 tipos de sensores que imageavam uma faixa de 185 km em cada passagem: um sistema de varredura multiespectral com imageamento do terreno por linhas (line scanner), o Multiespectral Scanner Subsystem (MSS), e um sistema de varredura com imageamento instantâneo constituído por três câmeras de televisão, o Return Beam Vidicon (RBV). (NOVO, 1992, p. 111).

Como as primeiras imagens da terra a partir de uma plataforma digital foram tomadas por câmeras fotográficas, concebeu-se que o sistema sensor a ser transportado pelo satélite deveria ser capaz de produzir imagens instantâneas do terreno de forma semelhante aos sistemas fotográficos. Desta maneira, foi concebido o sistema RBV, que é um sistema semelhante a uma câmera de televisão e permite o registro instantâneo de uma certa área do terreno (cena). A energia proveniente de toda a cena impressiona a superfície fotossensível do tubo da câmera e, durante certo tempo, a entrada de energia é interrompida por um obturador, para que a imagem do terreno seja varrida por um feixe de elétrons. O sinal de vídeo pode então ser transmitido telemetricamente. (NOVO, 1992, p. 115).

Junto ao sistema RBV, que funciona como uma câmera de televisão, o satélite Landsat também levava a bordo o sistema MSS, que permite o imageamento de linhas do terreno numa faixa de 185 km, perpendiculares à órbita do satélite. A varredura do terreno é realizada com auxílio de um espelho que oscila perpendicularmente ao deslocamento do satélite. “Durante a oscilação do espelho, a imagem do terreno, ao longo da faixa, é focalizada sobre uma matriz de detetores.” (NOVO, 1992, p. 130) A dimensão de cada detector é responsável pelo seu campo de visada instantâneo e a energia registrada por cada detector é transformada em um sinal elétrico, que é transmitido para as estações em terra.

Lançado em janeiro de 1975, o Landsat 2 trazia a bordo os mesmos sensores e mantinha as mesmas características do seu antecessor, também com resolução espacial do sensor MSS de 80 metros. Seu sucessor, o Landsat 3 foi lançado em março de 1978 e foi o primeiro a ter a bordo o sensor Thematic Mapper (TM), contudo trazia as mesmas características orbitais dos seus antecessores: altitude de 920 km, inclinação de 99,4º, período de 103 minutos e resolução temporal de 18 dias. É importante frisar que o ângulo de inclinação do satélite em relação ao plano do Equador garantia a ele uma órbita síncrona ao Sol, permitindo que os dados fossem coletados em condições semelhantes de iluminação, estando então mais susceptível a mudanças provocadas por condições atmosféricas.

O sensor TM opera em 7 canais, enquanto seu antecessor operava em 4 canais, trata-se de um sistema de varredura multiespectral em que cada pixel da imagem irá produzir um sinal proporcional à sua energia radiante, que será transformado em sinal digital. Este sistema foi criado a fim de se obter uma maior resolução da imagem e desta forma alcançar níveis de discriminação entre objetos também maiores. O sistema de varredura multiespectral possui maior fidelidade geométrica e melhor precisão radiométrica em relação ao sensor MSS.

Os satélites Landsat 4 e 5 inauguram a segunda geração de satélites da série e, por apresentarem órbitas mais baixas, apresentam também maior resolução espacial, alcançando 30 metros, e trazem a bordo o sensor TM. As principais características orbitais destes satélites são: altitude de 705 km, inclinação de 98,20º, período de 98 minutos e resolução temporal de 16 dias.

As imagens orbitais possuem quatro características específicas que contribuem para a extração de informações para fins de discriminação dos objetos imageados; são elas: a resolução espectral, a resolução espacial, a resolução radiométrica e a resolução temporal; elas estão diretamente relacionadas à sensibilidade espectral, tamanho do objeto, intensidade da energia refletida ou emitida pelos objetos e frequência de imageamento, respectivamente.

As imagens adquiridas correspondem a matrizes de pixel em níveis de cinza, estes pixels são as menores partes das imagens e cujo tamanho é responsável por determinar a sua resolução espacial. Cada pixel representa as mesmas dimensões na superfície terrestre, portanto se o pixel mede 100 metros ele agrupa informações de uma variedade maior de elementos da superfície, contudo se o pixel tem 1 metro ele é capaz de distinguir pequenos detalhes, permitindo um resultado mais sensível aos objetos específicos na superfície. Além da resolução espacial, cada pixel contém valores de radiância medidos em cada banda das imagens multiespectrais. Estas bandas representam os intervalos do espectro eletromagnético sensíveis ao sensor e correspondem à resolução espectral da imagem, ou seja, se trata da largura do intervalo de comprimento de onda coberto em cada banda e por conseguinte ao número de bandas espectrais que os sensores conseguem discretizar.

Já a resolução radiométrica remete ao nível de cinza que representa a intensidade de energia eletromagnética média medida em bits pelo sensor para cada pixel da área imageada. Cada sensor possui um limite de tons de cinza que consegue detectar e armazenar. E, por fim, a resolução temporal corresponde ao tempo que o satélite leva para imagear a mesma área novamente.

Todas as imagens de satélite são contaminadas por ruídos ou distorções em virtude de interferências atmosféricas ou de reflexões do solo (ground clutter) no caso dos radares (CALHEIROS, ANTONIO e BRANGELI, 1995), que podem levar a confusões nas análises. Para evitar riscos erros é importante proceder etapas preliminares padronizando os dados e evitando desvios nos resultados.

A rigor, a radiação solar sofre vários processos de refração porque a concentração dos gases que compõem a atmosfera é bastante variada nas diferentes zonas e camadas […]. Além do processo de refração, certos gases constituintes, como o ozônio e o CO₂, absorvem a radiação solar em certos comprimentos de ondas. Essa absorção pode ser total, como é o caso da radiação ultravioleta (absorvida pelo ozônio), ou parcial, como ocorre em quase todo o espectro a partir de 0,3 μm […] Existem outros fatores complicadores, como partículas dispersas e presença de nuvens, que provocam o espalhamento da radiação.
As nuvens são a maior barreira à radiação solar, do ponto de vista do sensoriamento remoto, porque elas impedem a passagem da radiação solar na porção reflectiva do espectro eletromagnético onde operam a maioria dos sistemas sensores […] (MOREIRA, 2007, p. 36-37)

A análise de dados digitais acontece em quatro fases distintas: pré-processamento, transformação de dados digitais, classificação propriamente dita e pós-processamento. As técnicas preliminares que visam corrigir estas interferências ou minimizar seus efeitos sobre os dados consistem na etapa de pré-processamento. Esta etapa agrega um conjunto de técnicas implementadas para ajustar os dados numa forma de “tratamento preliminar de dados brutos, com a finalidade de calibrar a radiometria da imagem, atenuar os efeitos da atmosfera, remover ruídos, corrigir suas distorções geométricas, por meio de georreferenciamento e reamostragem.” (FLORENZANO, 2008, p. 42)

A eliminação de ruídos corresponde à faixa de cobertura sem registro de dados. Uma das técnicas de remoção de ruído consiste na substituição do valor zero da radiância pelo média dos pixels das linhas superior e inferior. O realce das imagens também é uma técnica de pré-processamento bastante utilizada sobretudo para os produtos que serão utilizados em interpretações visuais. O realce busca ampliar o contraste de feições na cena, a fim de melhorar a qualidade visual. Já a correção geométrica busca eliminar os erros propagados por movimento do satélite e pela curvatura da Terra. “Em outras palavras, a correção geométrica pode ser entendida como a transformação dos dados de sensoriamento remoto, de tal modo que eles adquiram as características de escala e projeção próprias de mapas (MATHER, 1987 apud MOREIRA, 2007, p. 275). A correção radiométrica de imagens “inclui tanto as operações puramente cosméticas dos dados, que visam apenas melhorar sua visualização, quanto aquelas que visam normalizar os dados radiometricamente, de modo absoluto ou relativo” (MOREIRA, 2007, p. 277)

Fonte: Exame de Qualificação Doutorado PPGMA-UERJ. Teixeira, 2018. A Lagoa de Itaipu: (re)conhecimento a partir de diálogos no mundo vivido

Sensoriamento Remoto e Aspectos relevantes sobre as Tecnologias da Geoinformação

O registro através de sensores remotos de informações sobre objetos reais e também de fenômenos espaciais, permite a caracterização e classificação sem contato físico entre o que chamamos de alvo e o sensor. Para o uso adequado deste material é importante o reconhecimento das potencialidades e limitações das fontes de dados, bem como do comportamento espectral dos objetos da superfície. Em Sensoriamento Remoto a de obtenção de imagens se dá de três principais formas: a terrestre, a aérea e a orbital.

Fonte: GTMAGEO

No método terrestre, a aquisição de imagens fotogramétricas ocorre por meio de fototeodolitos. Já no método aéreo o procedimento ocorre através de câmeras acopladas a Veículos Aerotripulados ou também Veículos Aéreo não Tripulados (VANTs), sendo que no Brasil só são permitidos os do tipo remotamente pilotados (RPA, Remotely-Piloted Aircraft). Atualmente, as formas aéreas de aquisição de imagens ganharam um novo recurso mais barato e rápido com Drones, que passaram a ser regulamentados na Resolução nº 419, de 2 de maio de 2017 da Agência Nacional de Aviação Civil (ANAC), que é complementar às normas de operação de Drones estabelecidas pelo Departamento de Controle do Espaço Aéreo (DECEA) e pela Agência Nacional de Telecomunicações (ANATEL) . Pelo regulamento da ANAC, o que muda essencialmente entre Drones e VANTs é o uso do instrumento. Segundo o regulamento, os Drones são VANTs remotamente pilotados usados para recreação e lazer e os RPA também são VANTs, contudo utilizados para fins experimentais, comerciais ou institucionais. E por fim, no método orbital as imagens são adquiridas através de câmeras dispostas em satélites artificiais.

O Sensoriamento Remoto tem sua origem ligada ao desenvolvimento dos sensores fotográficos (American Society of Photogrammetry apud NOVO, 1992, p. 3), cuja história se divide em dois períodos principais: entre os anos de 1860 e 1960, quando era baseado na utilização de fotografias aéreas, e o período de 1960 ao atual, caracterizado pela multiplicidade de sistemas imageadores (ASP, 1975 apud NOVO, 1992, p. 3). Os sensores remotos são portanto “quaisquer equipamentos capazes de transformar alguma forma de energia em um sinal passível de ser convertido em informação sobre o ambiente, sem contato físico entre esses sensores e os alvos de interesse”

Um recurso do Sensoriamento Remoto são as fotografias aéreas, que consistem em imagens adquiridas por câmeras fotogramétricas transportadas em aviões. Neste tipo de voo, o planejamento é feito para que aconteça uma sobreposição intencional de faixas fotografadas, com recobrimento lateral entre cerca de 20% e 30% para que não existam problemas de conectividade entre as imagens e de 50% a 60% de recobrimento longitudinal, a fim de que posteriormente possam ser extraídas informações de altimetria através da estereoscopia. Entre os fatores que afetam a qualidade das fotografias aéreas e também orbitais estão: a reflectância11 do alvo, a angulação de elevação do sol e o espalhamento (NOVO, 1992, p. 71).

As imagens orbitais correspondem àquelas adquiridas em sensores presentes em satélites artificiais, que podem ser plataformas não tripuladas ou plataformas tripuladas. Estas imagens são produtos da captação de energia refletida ou emitida pela superfície da terra, de acordo com a estrutura física e bioquímica dos objetos, e são disponibilizadas ao usuário final em uma imagem em níveis digitais (ND), também chamados de níveis de cinza (NC), que correspondem à média da intensidade da energia eletromagnética refletida ou emitida pelos diferentes materiais presentes na superfície representada pelo pixel que compõe a imagem.

Esta forma de energia é a radiação eletromagnética, que varia de acordo com a frequência e comprimento de onda e é representada pelo espectro eletromagnético. “As ondas eletromagnéticas são do tipo transversal e não necessitam de um meio de propagação, ou seja, propagam-se até mesmo no vácuo.” (MOREIRA, 2007, p. 21). O espectro eletromagnético é constituído por ondas eletromagnéticas com ampla faixa de comprimentos de onda e frequências de oscilação. As ondas eletromagnéticas cobrem um largo espectro, ou seja, um largo intervalo de frequências de oscilação por intervalo de tempo das cargas elétricas, e um largo intervalo de comprimento de onda.

As ondas possuem 5 grandezas físicas: frequência, período, comprimento de onda, velocidade e amplitude. A frequência é o número de oscilações da onda por um certo período de tempo, representada pela letra f. A unidade para frequência é o hertz (Hz), que é a expressão de oscilações por segundo. O período é o tempo necessário para a fonte produzir uma onda completa. É representado pela letra T e é medido em segundos. É possível relacionar a frequência e o período de uma onda, a equação é f = 1/T ou T = 1/f. Já o comprimento de onda é o tamanho de uma onda, que pode ser medida de crista a crista, do início ao final de um período ou de vale a vale. É representada pela letra grega lambda (λ).

A velocidade sempre é determinada pela distância percorrida sobre o tempo gasto. No vácuo, a velocidade de uma onda eletromagnética é a mesma para todas as frequências, sendo 299.792,458 km/s, ou seja, é a velocidade da luz, chamada de constante c. E a amplitude é a altura da onda, ou seja, é a distância entre o eixo da onda até a crista. Quanto maior for a amplitude, maior será a quantidade de energia transportada.

Definidos estes cinco elementos, cabe dizer que o comprimento de onda tem uma relação inversa com a frequência, ou seja, o comprimento de onda é igual à velocidade da onda dividida pela frequência da onda. Brito (2007, p. 35) define que “a radiação eletromagnética, vista como uma onda, possui um espectro de comprimento de onda (μm) e consequentemente, de frequência (Hz) distintos”. Como as ondas eletromagnéticas se propagam com a mesma velocidade (velocidade da luz) as ondas de maior frequência serão aquelas de menor comprimento de onda e as ondas de menor frequência apresentam o maior comprimento de onda. E assim os diversos tipos de ondas eletromagnéticas formam uma faixa de frequências com os respectivos comprimentos de ondas, que caracterizam o espectro eletromagnético.

Os corpos respondem à energia eletromagnética sobre eles, que incide de três maneiras: absorvendo-a, transmitindo-a ou refletindo-a além, é claro, da emissão, que é natural de todos os corpos. Para o Sensoriamento Remoto interessa principalmente a reflexão, pois é a partir da energia refletida pelas feições da superfície terrestre que os filmes ou dispositivos CCD das câmaras são sensibilizados. (BRITO, 2007, p. 38).

Os corpos portanto apresentam determinados padrões de resposta quando reagem à radiação eletromagnética que permitem caracterizá-los, muitas vezes de maneira conjunta com outros dados.

[…] cada corpo reage de maneira diferente à mesma radiação, graças às idiossincrasias que naturalmente cada um deles possui. Assim, para diferentes corpos e diferentes radiações e, consequentemente, para diferentes comprimentos de onda, têm-se diferentes intensidades refletidas e/ou emitidas. Graças a essa propriedade, pode-se ter o conceito de cores. Assim, vê-se um corpo como “verde” porque, em verdade, este reflete e/ou emite (de forma difusa) radiação na faixa do verde. (BRITO, 2007, p. 39).

Fonte: Exame de Qualificação Doutorado PPGMA-UERJ. Teixeira, 2018. A Lagoa de Itaipu: (re)conhecimento a partir de diálogos no mundo vivido

Evento: Geotecnologias na Gestão Pública (UERJ)

Nos dias 11, 12 e 13/06 ocorrerá o Nono Geotecnologias na Gestão Pública. A programação nesse ano conta com o Diretor de Geociências do IBGE, o Comandante da DSG/Exército, o Diretor da Divisão de Processamento de Imagens do INPE, a Diretora de Cadastro e Fomento do SFB/Min. da Agricultura (responsável pelo CAR) e mais de 30 outros trabalhos e 6 minicursos. As palestras podem ser acompanhadas de forma presencial ou online, porém a sessão de pôsteres apenas poderá ser acompanhada de forma presencial.

Acesse:
https://www.labgis.uerj.br/emaildiv/17052019/news.html

O evento é organizado pelo Núcleo de Geotecnologias da UERJ (Sistema Labgis), o Inst. Pereira Passos da Prefeitura do Rio de Janeiro e o Min. Público do Estado do Rio de Janeiro.