A Fotointerpretação é definida pela Sociedade Americana de Fotogrametria e Sensoriamento Remoto como o ato de examinar e identificar objetos (ou situações) em fotografias aéreas (ou outros sensores) e determinar o seu significado (Loch, 1984). Essa técnica desempenha um papel importante em diversas áreas, como cartografia, geografia, geologia, agronomia, planejamento urbano e ambiental, entre outras. Nesse texto, será explorado os principais aspectos da Fotointerpretação, desde os processos de interpretação visual e automática, até os elementos básicos das imagens, fases do procedimento e suas aplicações.
Os processos de interpretação visual são a base da Fotointerpretação e exigem um profissional experiente e treinado para analisar as imagens e extrair informações. O conhecimento prévio da área estudada e a utilização de fotografias ou imagens em diferentes datas também são fundamentais para identificar mudanças ao longo do tempo. São utilizados elementos de reconhecimento, os quais servem de fatores-guias no processo de reconhecimento e identificação dos alvos na superfície terrestre através de uma fotografia aérea ou imagem de satélite. Estes elementos básicos de leitura de uma fotografia ou imagem são os seguintes: Tonalidade e Cor, Forma e Tamanho, Padrão, Textura, Associação e Sombra.
Segundo Marchetti e Garcia (1977) a tonalidade é a quantidade de luz refletida por um objeto e registrado numa imagem. Em outras palavras, a tonalidade refere-se à intensidade de energia eletromagnética refletida por um tipo de alvo da superfície terrestre em uma determinada banda do espectro eletromagnético, ou seja, a tonalidade é estreitamente ligada com o comportamento espectral das diferentes coberturas da superfície terrestre. Em fotografias aéreas a cor está associada ao tipo de filme (preto e branco, colorido normal, infravermelho preto e branco, infravermelho colorido). Já em uma imagem de satélite, nas distintas bandas do espectro eletromagnético, analisam-se os tons de cinza nas bandas individualmente ou as cores através das composições coloridas. Loch (1984) destaca que é mais fácil identificar um objeto pela cor do que pelo tom de cinza, pois, o olho humano é mais sensível a cores que a tons de cinza. Ainda de acordo com o mesmo autor, pode-se afirmar que o tom de cinza depende da cor: cores claras darão tonalidade clara na foto preto e branco.
A forma dos objetos é determinada pela sua geometria, e o tamanho está diretamente relacionado à escala da imagem. A forma representa um elemento de grande importância, pois, auxilia no reconhecimento de determinados alvos na superfície terrestre, a exemplo: estradas e linhas férreas (que apresentam formato longitudinal). Paralelamente a forma deve-se considerar o tamanho dos alvos, Marchetti e Garcia (1977) e Loch (1984) citam que objetos com formas idênticas em visão plana podem ser discriminados pelo tamanho relativo.
O padrão, ou modelo, diz respeito ao arranjo espacial ordenado dos aspectos geológicos, topográficos ou de vegetação. Para a fotointerpretação, o padrão refere-se à visão plana bidimensional dos elementos fotográficos (Marchetti e Garcia, 1977; Segantine, s.d). O padrão pode ser representado por obras feitas pelo homem ou feições naturais, por exemplo, padrões de drenagem, padrão das plantações, de construções, de minerações, etc.
A textura na imagem refere-se à disposição dos tons em uma determinada área, o que resulta na aparência suave ou rugosa de um objeto na fotografia, ou imagem. O elemento textural representa a menor feição continua e homogênea que pode ser distinguida em uma fotografia área, podendo ser repetida, como uma árvore isolada ou um grupo de árvores. Vale ressaltar que a textura varia conforme a escala da imagem, ou seja, depende do nível de detalhamento presente na visualização.
A associação se dá ao fato que muitas vezes a interpretação de uma ocorrência só é possível através de uma convergência de evidências (Marchetti e Garcia, 1977). Por exemplo, a ocorrência de mangue se dá por uma conjuntura de fatores de influência fluvio-marinha.
De acordo com Loch (1984), a presença de sombra em uma imagem é uma consequência tanto da forma do objeto quanto do momento em que a fotografia foi capturada. Tendo a hora de tomada da fotografia e o comprimento da sombra, pode-se definir a altura do objeto. Entretanto, as sombras também podem dificultar a interpretação, já que as áreas sombreadas tendem a apresentar objetos com menor nitidez na imagem ou fotografia. O autor ainda destaca que a definição de sombra varia conforme o tipo de sensor. Nas fotos aéreas convencionais e imagens de satélites, a sombra depende da posição do sol em relação ao objeto e, no sensor Radar, a sombra depende da posição deste em relação ao objeto.
Além dos elementos básicos apresentados, Loch (1984) e Segantine (s.d) citam mais três: a densidade, a declividade e a posição.
A densidade é a frequência ou intensidade de se encontrar áreas na natureza com formas, padrões, etc, possuindo características similares. Por exemplo, a densidade de casas pode variar de uma cidade para outra.
A declividade, também conhecida como ângulo de mergulho, é o ângulo que a posição do objeto forma com o horizonte. Normalmente utilizada para o reconhecimento dos tipos de vertentes, mergulhos, superfícies e linhas inclinadas. Segantine (s.d) destaca que, este é o único elemento básico dependente da visão estereoscópica.
A posição refere-se à região de onde é obtida a fotografia. A posição é o elemento de reconhecimento que ajuda o interprete a eliminar várias possibilidades de interpretação, por exemplo, se em uma fotografia tomada de uma área tropical, um animal grande e branco nela for registrado, provavelmente, não será um urso polar, mas, sim um zebu.
Há alguns anos não se ouvia falar em outra coisa senão a interpretação visual, o que difere atualmente, já que os processos de interpretação automática têm ganhado destaque com o avanço tecnológico, especialmente em relação à aplicação de algoritmos de aprendizado de máquina e inteligência artificial.
A interpretação automática pode ser feita através de computadores devidamente implementados e preparados para analisar dados na forma digital. Existem vários processos de interpretação automática, no momento, todos podem ser agrupados em duas categorias: os não supervisionados (as classes são definidas a “posteriori”, como um resultado da análise) e os supervisionados (as classes são definidas a “priori” pelo analista).
A classificação não supervisionada é um método de agrupamento de dados sem a necessidade de informações prévias da área de interesse. O algoritmo analisa os dados e os divide em agrupamentos espectrais predominantes presentes na imagem. O analista, então, identifica esses agrupamentos como classes de cobertura de solo, utilizando sua familiaridade com a região estudada e visitas para levantamento de informações de campo. Esse tipo de classificação é útil quando não há informações sobre a área, podendo ser realizada por classificadores "pixel a pixel", como ISODATA e K-médias, ou por classificadores por regiões, como o Isoseg (Rosa, 2009; Florenzano, 2013).
A classificação supervisionada é usada quando há informações sobre as classes da imagem. O analista obtém características das classes (treinamento), como média e variância, que são usadas como termos de comparação na classificação. Existem dois tipos de classificação: Determinístico, que assume valores definidos de acordo com a classe, e Estatístico, que considera os níveis de cinza como variáveis aleatórias. Após obter a caracterização estatística para cada classe, a imagem é classificada comparando as refletâncias de cada pixel com as assinaturas de cada classe. Os classificadores comuns incluem paralelepípedo, mínima distância às médias e máxima verossimilhança (Rosa, 2009; Meneses; Almeida, 2012). O resultado será um mapa que será depois conferido com os trabalhos de campo e então corrigido.
Outra abordagem para a classificação de imagens é o uso de Redes Neurais Artificais (doravante RNA). Esses modelos computacionais, inspirados no cérebro humano, são capazes de aprender e generalizar a partir de conjuntos de dados de treinamento. As RNA atribuem rótulos a “pixels” ou regiões com base em suas características espectrais, texturais ou outras. Elas são eficientes para lidar com dados complexos, alta dimensionalidade e variabilidade espectral, além de poderem lidar com imagens de diferentes resoluções. Diversas arquiteturas de RNA, como CNNs, RNNs e DNNs, têm sido aplicadas com sucesso na classificação de imagens. Essas redes são treinadas com conjuntos de dados rotulados, ajustando seus pesos e parâmetros para mapear corretamente as características das imagens para as classes desejadas. As RNA têm sido amplamente utilizadas em aplicações como mapeamento do uso da terra, detecção de mudanças, monitoramento ambiental e estudos agrícolas. No entanto, é necessário realizar um treinamento cuidadoso, selecionando conjuntos de treinamento e validação adequados, escolhendo a arquitetura correta e otimizando os parâmetros. A qualidade dos resultados deve ser avaliada e validações cruzadas devem ser realizadas para garantir a confiabilidade dos resultados.
De acordo com Loch (1984), a maioria dos trabalhos de fotointerpretação seguem uma sequência com as seguintes fases: Detecção, Reconhecimento e identificação, Análise e delineação, Dedução, Classificação e Idealização.
A detecção é diretamente relacionada com a visibilidade do objeto na foto, com a acuidade visual (habilidade de ver as imagens e perceber as diferenças de paralaxe) e conhecimento do intérprete sobre a região. A visibilidade dos objetos fotográficos no modelo estereoscópico, varia devido às características dos objetos, a escala, a qualidade da fotografia e o tipo de equipamento utilizado para fotointerpretar.
O reconhecimento depende da perícia e experiência do fotointérprete, com ou sem auxílio dos equipamentos auxiliares. O reconhecimento juntamente com a identificação é chamado de FOTO-LEITURA, onde sob esta denominação incluem o estudo dos objetos e características claramente visíveis com o intuito de fazer uma identificação sem margem de dúvida. A foto-leitura é facilitada quando se unem as fotochaves (elementos básicos), a experiência e a familiaridade com o terreno.
A análise é o processo que possibilita delimitar e identificar o objeto. Essa fase depende do intérprete, pois cada pessoa tem sua própria metodologia para avaliar um fato. Ao falar em análise, é essencial considerar um estudo mais detalhado do objeto em questão, com foco na sua individualidade. Durante essa fase, é possível chegar a diferentes níveis de confiança na identificação, como "confiança", "confiança média" ou "pouca confiança".
A dedução é um processo mais complexo e, como a própria palavra sugere, depende geralmente de "evidências convergentes". A dedução deriva de objetos especialmente visíveis ou elementos que fornecem informações parciais sobre a natureza de indicações correlatas. Esse método pode ser utilizado para distinguir diferentes grupos de objetos, estando intimamente relacionado com o processo de análise, que visa delinear grupos de objetos com individualidades distintas para a fotointerpretação.
A classificação tem como objetivo determinar a identidade dos objetos ou superfícies delimitadas durante a análise. Quando se trata de objetos diretamente reconhecíveis, a classificação pode ser realizada em termos da natureza desses próprios objetos, como é o caso de rodovias, ferrovias, canais, rios e detalhes geomorfológicos. Já para objetos invisíveis, como solos, fenômenos geológicos e muitos aspectos humanos, a classificação é organizada em termos de sistemas. Geralmente, a classificação é realizada com base em hipóteses, considerando aspectos cujos objetos ou elementos são visíveis na imagem fotográfica. Posteriormente, essa classificação passa por uma verificação de campo e é transformada em uma codificação final para a produção do trabalho final, relatórios, mapas temáticos ou outros produtos cartográficos.
A idealização é uma etapa normal e obrigatória em mapeamentos cartográficos, representando o objeto interpretado de forma ideal para facilitar a compreensão do usuário no mapa, seguindo normas técnicas específicas. É fundamental para representar elementos distintos com seus respectivos valores para diferentes usuários. Mesmo que a classificação seja realizada por um intérprete especializado, a idealização deve alcançar o mesmo nível de especialização para garantir resultados precisos, e não é obrigatório que a mesma pessoa que realizou a classificação execute essa etapa.
A Fotointerpretação possui amplas aplicações que abrangem diversas áreas do conhecimento. Na cartografia e mapeamento, as informações obtidas são fundamentais para a produção de mapas atualizados e detalhados. Na agricultura, a fotointerpretação auxilia no monitoramento de safras, detecção de pragas e doenças, e análise de áreas adequadas para o cultivo. Na área ambiental, essa técnica é utilizada para mapear áreas de risco, identificar mudanças no uso do solo e monitorar recursos naturais, como florestas e recursos hídricos. Além disso, no planejamento urbano, contribui para avaliar o crescimento das cidades, identificar áreas apropriadas para novos empreendimentos e promover o desenvolvimento urbano de forma sustentável.
Em conclusão, a Fotointerpretação é uma ferramenta poderosa para analisar e obter informações sobre a superfície terrestre, envolvendo processos de interpretação visual e automática. Seus elementos básicos, como tonalidade, forma, tamanho, padrão, textura, associação e sombra, permitem identificar e analisar objetos em imagens. Suas aplicações são amplas, abrangendo áreas como cartografia, geologia, agronomia e planejamento urbano. A Fotointerpretação é fundamental para entender e gerenciar nosso ambiente e recursos naturais.
Referências
Florenzano, T. G. Iniciação em sensoriamento remoto. 3ed. São Paulo: Oficina de Textos, 2013.
Loch, C. Noções básicas para a interpretação de imagens aéreas, bem como algumas de suas aplicações nos campos profissionais. Florianópolis: UFSC, 1984. 82p.
Marchetti, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. ed. São Paulo: Livraria Nobel S. A., 1977. 257 p.
Meneses, P. R.; Almeida, T. de. Introdução ao Processamento de Imagens em Sensoriamento Remoto. Brasília, 2012. 276 p.
Rosa, R. 2009. Introdução ao sensoriamento remoto. 7ª edição, Uberlândia, Editora UFU. 264p.
Segatine, P. C. L. Aerofotointerpretação e Fotometria: Notas de Aula. São Carlos. s.d., 140 p.
Os processos de interpretação visual são a base da Fotointerpretação e exigem um profissional experiente e treinado para analisar as imagens e extrair informações. O conhecimento prévio da área estudada e a utilização de fotografias ou imagens em diferentes datas também são fundamentais para identificar mudanças ao longo do tempo. São utilizados elementos de reconhecimento, os quais servem de fatores-guias no processo de reconhecimento e identificação dos alvos na superfície terrestre através de uma fotografia aérea ou imagem de satélite. Estes elementos básicos de leitura de uma fotografia ou imagem são os seguintes: Tonalidade e Cor, Forma e Tamanho, Padrão, Textura, Associação e Sombra.
Segundo Marchetti e Garcia (1977) a tonalidade é a quantidade de luz refletida por um objeto e registrado numa imagem. Em outras palavras, a tonalidade refere-se à intensidade de energia eletromagnética refletida por um tipo de alvo da superfície terrestre em uma determinada banda do espectro eletromagnético, ou seja, a tonalidade é estreitamente ligada com o comportamento espectral das diferentes coberturas da superfície terrestre. Em fotografias aéreas a cor está associada ao tipo de filme (preto e branco, colorido normal, infravermelho preto e branco, infravermelho colorido). Já em uma imagem de satélite, nas distintas bandas do espectro eletromagnético, analisam-se os tons de cinza nas bandas individualmente ou as cores através das composições coloridas. Loch (1984) destaca que é mais fácil identificar um objeto pela cor do que pelo tom de cinza, pois, o olho humano é mais sensível a cores que a tons de cinza. Ainda de acordo com o mesmo autor, pode-se afirmar que o tom de cinza depende da cor: cores claras darão tonalidade clara na foto preto e branco.
A forma dos objetos é determinada pela sua geometria, e o tamanho está diretamente relacionado à escala da imagem. A forma representa um elemento de grande importância, pois, auxilia no reconhecimento de determinados alvos na superfície terrestre, a exemplo: estradas e linhas férreas (que apresentam formato longitudinal). Paralelamente a forma deve-se considerar o tamanho dos alvos, Marchetti e Garcia (1977) e Loch (1984) citam que objetos com formas idênticas em visão plana podem ser discriminados pelo tamanho relativo.
O padrão, ou modelo, diz respeito ao arranjo espacial ordenado dos aspectos geológicos, topográficos ou de vegetação. Para a fotointerpretação, o padrão refere-se à visão plana bidimensional dos elementos fotográficos (Marchetti e Garcia, 1977; Segantine, s.d). O padrão pode ser representado por obras feitas pelo homem ou feições naturais, por exemplo, padrões de drenagem, padrão das plantações, de construções, de minerações, etc.
A textura na imagem refere-se à disposição dos tons em uma determinada área, o que resulta na aparência suave ou rugosa de um objeto na fotografia, ou imagem. O elemento textural representa a menor feição continua e homogênea que pode ser distinguida em uma fotografia área, podendo ser repetida, como uma árvore isolada ou um grupo de árvores. Vale ressaltar que a textura varia conforme a escala da imagem, ou seja, depende do nível de detalhamento presente na visualização.
A associação se dá ao fato que muitas vezes a interpretação de uma ocorrência só é possível através de uma convergência de evidências (Marchetti e Garcia, 1977). Por exemplo, a ocorrência de mangue se dá por uma conjuntura de fatores de influência fluvio-marinha.
De acordo com Loch (1984), a presença de sombra em uma imagem é uma consequência tanto da forma do objeto quanto do momento em que a fotografia foi capturada. Tendo a hora de tomada da fotografia e o comprimento da sombra, pode-se definir a altura do objeto. Entretanto, as sombras também podem dificultar a interpretação, já que as áreas sombreadas tendem a apresentar objetos com menor nitidez na imagem ou fotografia. O autor ainda destaca que a definição de sombra varia conforme o tipo de sensor. Nas fotos aéreas convencionais e imagens de satélites, a sombra depende da posição do sol em relação ao objeto e, no sensor Radar, a sombra depende da posição deste em relação ao objeto.
Além dos elementos básicos apresentados, Loch (1984) e Segantine (s.d) citam mais três: a densidade, a declividade e a posição.
A densidade é a frequência ou intensidade de se encontrar áreas na natureza com formas, padrões, etc, possuindo características similares. Por exemplo, a densidade de casas pode variar de uma cidade para outra.
A declividade, também conhecida como ângulo de mergulho, é o ângulo que a posição do objeto forma com o horizonte. Normalmente utilizada para o reconhecimento dos tipos de vertentes, mergulhos, superfícies e linhas inclinadas. Segantine (s.d) destaca que, este é o único elemento básico dependente da visão estereoscópica.
A posição refere-se à região de onde é obtida a fotografia. A posição é o elemento de reconhecimento que ajuda o interprete a eliminar várias possibilidades de interpretação, por exemplo, se em uma fotografia tomada de uma área tropical, um animal grande e branco nela for registrado, provavelmente, não será um urso polar, mas, sim um zebu.
Há alguns anos não se ouvia falar em outra coisa senão a interpretação visual, o que difere atualmente, já que os processos de interpretação automática têm ganhado destaque com o avanço tecnológico, especialmente em relação à aplicação de algoritmos de aprendizado de máquina e inteligência artificial.
A interpretação automática pode ser feita através de computadores devidamente implementados e preparados para analisar dados na forma digital. Existem vários processos de interpretação automática, no momento, todos podem ser agrupados em duas categorias: os não supervisionados (as classes são definidas a “posteriori”, como um resultado da análise) e os supervisionados (as classes são definidas a “priori” pelo analista).
A classificação não supervisionada é um método de agrupamento de dados sem a necessidade de informações prévias da área de interesse. O algoritmo analisa os dados e os divide em agrupamentos espectrais predominantes presentes na imagem. O analista, então, identifica esses agrupamentos como classes de cobertura de solo, utilizando sua familiaridade com a região estudada e visitas para levantamento de informações de campo. Esse tipo de classificação é útil quando não há informações sobre a área, podendo ser realizada por classificadores "pixel a pixel", como ISODATA e K-médias, ou por classificadores por regiões, como o Isoseg (Rosa, 2009; Florenzano, 2013).
A classificação supervisionada é usada quando há informações sobre as classes da imagem. O analista obtém características das classes (treinamento), como média e variância, que são usadas como termos de comparação na classificação. Existem dois tipos de classificação: Determinístico, que assume valores definidos de acordo com a classe, e Estatístico, que considera os níveis de cinza como variáveis aleatórias. Após obter a caracterização estatística para cada classe, a imagem é classificada comparando as refletâncias de cada pixel com as assinaturas de cada classe. Os classificadores comuns incluem paralelepípedo, mínima distância às médias e máxima verossimilhança (Rosa, 2009; Meneses; Almeida, 2012). O resultado será um mapa que será depois conferido com os trabalhos de campo e então corrigido.
Outra abordagem para a classificação de imagens é o uso de Redes Neurais Artificais (doravante RNA). Esses modelos computacionais, inspirados no cérebro humano, são capazes de aprender e generalizar a partir de conjuntos de dados de treinamento. As RNA atribuem rótulos a “pixels” ou regiões com base em suas características espectrais, texturais ou outras. Elas são eficientes para lidar com dados complexos, alta dimensionalidade e variabilidade espectral, além de poderem lidar com imagens de diferentes resoluções. Diversas arquiteturas de RNA, como CNNs, RNNs e DNNs, têm sido aplicadas com sucesso na classificação de imagens. Essas redes são treinadas com conjuntos de dados rotulados, ajustando seus pesos e parâmetros para mapear corretamente as características das imagens para as classes desejadas. As RNA têm sido amplamente utilizadas em aplicações como mapeamento do uso da terra, detecção de mudanças, monitoramento ambiental e estudos agrícolas. No entanto, é necessário realizar um treinamento cuidadoso, selecionando conjuntos de treinamento e validação adequados, escolhendo a arquitetura correta e otimizando os parâmetros. A qualidade dos resultados deve ser avaliada e validações cruzadas devem ser realizadas para garantir a confiabilidade dos resultados.
De acordo com Loch (1984), a maioria dos trabalhos de fotointerpretação seguem uma sequência com as seguintes fases: Detecção, Reconhecimento e identificação, Análise e delineação, Dedução, Classificação e Idealização.
A detecção é diretamente relacionada com a visibilidade do objeto na foto, com a acuidade visual (habilidade de ver as imagens e perceber as diferenças de paralaxe) e conhecimento do intérprete sobre a região. A visibilidade dos objetos fotográficos no modelo estereoscópico, varia devido às características dos objetos, a escala, a qualidade da fotografia e o tipo de equipamento utilizado para fotointerpretar.
O reconhecimento depende da perícia e experiência do fotointérprete, com ou sem auxílio dos equipamentos auxiliares. O reconhecimento juntamente com a identificação é chamado de FOTO-LEITURA, onde sob esta denominação incluem o estudo dos objetos e características claramente visíveis com o intuito de fazer uma identificação sem margem de dúvida. A foto-leitura é facilitada quando se unem as fotochaves (elementos básicos), a experiência e a familiaridade com o terreno.
A análise é o processo que possibilita delimitar e identificar o objeto. Essa fase depende do intérprete, pois cada pessoa tem sua própria metodologia para avaliar um fato. Ao falar em análise, é essencial considerar um estudo mais detalhado do objeto em questão, com foco na sua individualidade. Durante essa fase, é possível chegar a diferentes níveis de confiança na identificação, como "confiança", "confiança média" ou "pouca confiança".
A dedução é um processo mais complexo e, como a própria palavra sugere, depende geralmente de "evidências convergentes". A dedução deriva de objetos especialmente visíveis ou elementos que fornecem informações parciais sobre a natureza de indicações correlatas. Esse método pode ser utilizado para distinguir diferentes grupos de objetos, estando intimamente relacionado com o processo de análise, que visa delinear grupos de objetos com individualidades distintas para a fotointerpretação.
A classificação tem como objetivo determinar a identidade dos objetos ou superfícies delimitadas durante a análise. Quando se trata de objetos diretamente reconhecíveis, a classificação pode ser realizada em termos da natureza desses próprios objetos, como é o caso de rodovias, ferrovias, canais, rios e detalhes geomorfológicos. Já para objetos invisíveis, como solos, fenômenos geológicos e muitos aspectos humanos, a classificação é organizada em termos de sistemas. Geralmente, a classificação é realizada com base em hipóteses, considerando aspectos cujos objetos ou elementos são visíveis na imagem fotográfica. Posteriormente, essa classificação passa por uma verificação de campo e é transformada em uma codificação final para a produção do trabalho final, relatórios, mapas temáticos ou outros produtos cartográficos.
A idealização é uma etapa normal e obrigatória em mapeamentos cartográficos, representando o objeto interpretado de forma ideal para facilitar a compreensão do usuário no mapa, seguindo normas técnicas específicas. É fundamental para representar elementos distintos com seus respectivos valores para diferentes usuários. Mesmo que a classificação seja realizada por um intérprete especializado, a idealização deve alcançar o mesmo nível de especialização para garantir resultados precisos, e não é obrigatório que a mesma pessoa que realizou a classificação execute essa etapa.
A Fotointerpretação possui amplas aplicações que abrangem diversas áreas do conhecimento. Na cartografia e mapeamento, as informações obtidas são fundamentais para a produção de mapas atualizados e detalhados. Na agricultura, a fotointerpretação auxilia no monitoramento de safras, detecção de pragas e doenças, e análise de áreas adequadas para o cultivo. Na área ambiental, essa técnica é utilizada para mapear áreas de risco, identificar mudanças no uso do solo e monitorar recursos naturais, como florestas e recursos hídricos. Além disso, no planejamento urbano, contribui para avaliar o crescimento das cidades, identificar áreas apropriadas para novos empreendimentos e promover o desenvolvimento urbano de forma sustentável.
Em conclusão, a Fotointerpretação é uma ferramenta poderosa para analisar e obter informações sobre a superfície terrestre, envolvendo processos de interpretação visual e automática. Seus elementos básicos, como tonalidade, forma, tamanho, padrão, textura, associação e sombra, permitem identificar e analisar objetos em imagens. Suas aplicações são amplas, abrangendo áreas como cartografia, geologia, agronomia e planejamento urbano. A Fotointerpretação é fundamental para entender e gerenciar nosso ambiente e recursos naturais.
Referências
Florenzano, T. G. Iniciação em sensoriamento remoto. 3ed. São Paulo: Oficina de Textos, 2013.
Loch, C. Noções básicas para a interpretação de imagens aéreas, bem como algumas de suas aplicações nos campos profissionais. Florianópolis: UFSC, 1984. 82p.
Marchetti, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. ed. São Paulo: Livraria Nobel S. A., 1977. 257 p.
Meneses, P. R.; Almeida, T. de. Introdução ao Processamento de Imagens em Sensoriamento Remoto. Brasília, 2012. 276 p.
Rosa, R. 2009. Introdução ao sensoriamento remoto. 7ª edição, Uberlândia, Editora UFU. 264p.
Segatine, P. C. L. Aerofotointerpretação e Fotometria: Notas de Aula. São Carlos. s.d., 140 p.
0 comentários:
Postar um comentário