Klassifisering av satellittbilder ved hjelp av dyp læring

Klassifisering av satellittbilder ved hjelp av dyp læring

Satellite

Hva er hovedproblemet med satellittbilder? To eller flere klasser av objekter (for eksempel bygninger, ødemarker og groper) på satellittbilder kan ha de samme spektrale egenskapene, så de siste to tiårene har klassifiseringen deres vært en vanskelig oppgave. Bildeklassifisering er avgjørende i fjernmåling, spesielt når det gjelder bildeanalyse og mønstergjenkjenning. Ved hjelp av klassifisering kan ulike typer data visualiseres, derav viktige kart kan produseres, inkludert et arealbrukskart som kan brukes til smart ressursforvaltning og planlegging.

På grunn av dens betydning og ubestridelige effektivitet, blir bildeklassifisering mer og mer tilgjengelig og avansert, og gir mer presisjon og pålitelighet av resultatene. Siden satellittbildeanalyse i dag ikke er noe nytt for mange bransjer, finner klassifiseringen bruk i en lang rekke bruksområder, inkludert avlingsovervåking, skogdekkekartlegging, jordkartlegging, gjenkjenning av endring av landdekke, vurdering av naturkatastrofer og mye mer. For eksempel, avlingsklassifisering ved hjelp av fjernmåling er en flott mulighet for landbruksaktører til å planlegge vekstskifte effektivt, estimere forsyning for enkelte avlinger og mer.

Men hvordan fungerer satellittbildeklassifisering egentlig? Teknologi er svaret. Mer spesifikt — maskinlæring, kunstig intelligens, og viktigst av alt dyp læring. La oss gå mer i detalj for å se hvordan "magien" skjer, slik at vi kan se kart med forskjellige objekter som har spesifikke visuelle egenskaper.

Klassifisering av satellittbilder ved hjelp av dyp læring

Med hundrevis av observasjonssatellitter som kretser rundt jorden og nye satellitter blir skutt opp, øker mengden bilder de produserer konstant. For å kunne bruke disse bildene på tvers av ulike bransjer og applikasjoner, som miljøovervåking, byplanlegging eller landbruk, må de imidlertid klassifiseres.

Metodene for satellittbildeklassifisering kan deles inn i fire kjernekategorier avhengig av funksjonene de bruker: objektbaserte metoder, uovervåket funksjonslæringsmetoder, overvåket funksjonslæringsmetoder og manuelle funksjonsbaserte metoder. I dag har overvåkede dyplæringsmetoder fått størst popularitet blant fjernmålingsapplikasjoner, spesielt når det gjelder arealbrukssceneklassifisering og geospatial objektdeteksjon.

Dyplæring og hvordan det fungerer

Dyplæring kan sees på som en form for maskinlæring. Selvlæring og forbedring av programatferd skjer som et resultat av utførelse av datamaskinalgoritmer. Men klassiske maskinlæringsalgoritmer bruker ganske enkle konsepter, mens dyp læring fungerer med kunstige nevrale nettverk. Disse nettverkene er designet for å etterligne måten mennesker tenker og lærer på.

Fremskritt innen big data-analyse har gjort det mulig å lage store og komplekse nevrale nettverk. Takket være dem kan datamaskiner observere, lære og reagere på komplekse situasjoner enda raskere enn mennesker. I dag hjelper dyp læring med å klassifisere bilder, oversette tekster fra ett språk til et annet og gjenkjenne tale.

Dyplæring er basert på kunstige nevrale nettverk som består av mange lag. I et Deep Neural Network (DNN) kan hvert lag utføre komplekse operasjoner med representasjon og abstraksjon av bilder, lyd eller tekst. En av de mest populære typene dype nevrale nettverk er kjent som konvolusjonelle nevrale nettverk (CNN). CNN kombinerer innlærte funksjoner med inndata og bruker konvolusjonelle 2D-lag, noe som gjør denne arkitekturen perfekt egnet for behandling av 2D-data, for eksempel bilder.

Klassifisering av CNN og satellittbilder

Konvolusjonelle nevrale nettverk er spesielt nyttige for å finne mønstre i bilder for å gjenkjenne objekter, ansikter og scener. De lærer direkte fra bilder, bruker mønstre for å klassifisere bilder og eliminerer behovet for manuell funksjonsekstraksjon. Bruken av CNN for dyp læring har blitt mer populær på grunn av tre viktige faktorer:

  • CNN-er eliminerer behovet for manuell funksjonsutvinning
  • CNN-er produserer state-of-the-art anerkjennelsesresultater
  • CNN-er kan omskoleres til å utføre nye gjenkjenningsoppgaver, noe som gjør det mulig å utnytte eksisterende nettverk.

CNN-er eliminerer behovet for manuell funksjonsutvinning, så det er ikke nødvendig å bestemme funksjonene som brukes til å klassifisere bilder. CNN fungerer ved å trekke ut funksjoner direkte fra bilder. De relevante funksjonene er ikke forhåndstrente; de lærer mens nettverket trenes på et sett med bilder. Denne automatiske funksjonsutvinningen gjør dyplæringsmodeller svært nøyaktige for datasynoppgaver, for eksempel objektklassifisering.

CNN-er lærer å oppdage forskjellige funksjoner i et bilde ved å bruke dusinvis eller hundrevis av skjulte lag. Hvert skjulte lag øker kompleksiteten til innlærte bildefunksjoner. For eksempel kan det første skjulte laget lære å oppdage kanter, og det siste laget kan lære å oppdage mer komplekse former spesifikt tilpasset formen til objektet vi prøver å gjenkjenne.

Totalt sett er det vanskelig å overvurdere rollen til dyp læring i bildeklassifisering. Takket være moderne fremskritt innen AI algoritmer, kan vi trekke ut mer og mer av uvurderlig innsikt fra satellittbilder, og øke effektiviteten og bærekraften til mange industrier på jorden.

Klassifisering av satellittbilder ved hjelp av Deep Learning PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Tidstempel:

Mer fra Fintech-nyheter