Det finnes nok av eksempler fra science-fiction som sier at kunstig intelligens og verdensrom er en dårlig kombinasjon (HAL 9000). Det hindrer ikke enkelte forskere i å vende seg til robotene for hjelp til å løse universets mysterier.

Vi begynner å få så mange bilder av verdensrommet at det er en umulig oppgave å se igjennom alt. Samtidig som teknologien til å samle inn disse bildene blir bedre, øker også mengden med data som hentes ned til Jorden til enhver tid.

I 2023 starter et speilteleskop ved navn Large Synoptic Survey Telescope å ta bilder av nattehimmelen i Chile. Teleskopet vil være i stand til å generere 15 terrabyte med ny data hver eneste natt.

Ett spørsmål som dukker opp i kjølvannet av dette er: Hvem skal se igjennom alle disse bildene?

120 000 år med arbeid

Så langt er det mennesker som har gjort denne jobben. Og selv om menneskehjernen egentlig er ekstremt god på å kjenne igjen bilder og mønstre, begynner altså mengden ny data å løpe i fra oss.

Galaxy Zoo er en nettside der frivillige går igjennom bilder av galakser fra the Sloan Digital Sky Survey (SDSS) som har kartlagt en stor del av det observerbare universet. Ved å svare på enkle spørsmål om galaksens form og innhold sorterer de frivillige galaksene i forskjellige kategorier.

Takket være tusenvis av frivillige som har gått igjennom og sortert bilder av galakser på denne måten har galaksene blitt sortert langt raskere enn om profesjonelle astronomer hadde gjort alt arbeidet selv.

Men til tross for denne dugnadsånden anslår informatikk-forsker Lior Shamir ved Lawrence Technological University in Michigan at det med samme innsats vil ta 120 000 år å gå igjennom alle bildene LSST alene vil ta i løpet av en tiårsperiode, skriver The Atlantic.

På denne høyden i Chile skal LSST fra 2023 ta bilder av universet.

Menneskehjernen er fortsatt best til å gjenkjenne bilder

Om du blir vist et tilfeldig bilde, vil du umiddelbart kjenne igjen hva som foregår på det. Én grunn til at det går så fort og med så liten aktiv innsats fra din side, er at hjernen fyrer av flere hjerneceller samtidig. Dermed foregår alle prosessene som må til for at du skal forstå hva som skjer på bildet så og si på likt, i stedet for at hver enkelt bestanddel av bilde analyseres etter tur.

Frem til nå har dette vært en stor flaskehals for digitale hjerner, som har vært nødt til å ta ting mer stegvis, og digital bildegjenkjenning har vært lenge vært vanskelig å få til på et tilstrekkelig nivå.

Men vi nærmer oss med stormskritt. Fremveksten av maskinlæringsteknologi og nevrale nettverk – som etterligner hvordan hjernecellene våre virker – gjør den kunstige intelligensen stadig bedre til å kjenne igjen bilder.

Alle som bruker Google Photos eller iOS’ bildeapp har nytt godt av denne teknologien. Det er nemlig den som gjør disse tjenestene i stand til å finne frem alle bildene du har tatt av for eksempel hunder om du søker på «hund».

Dette er selvsagt gode nyheter for oss som etterhvert har fått gigantiske bildearkiver å forsøke å orientere oss i. Det er potensielt enda bedre nyheter for astronomer med milliarder av bilder i sitt arkiv.

Jakter gravitasjonslinser

Ta for eksempel astronomen Carlo Entrico Petrillo og hans kolleger. De leter etter såkalte gravitasjonslinser. Disse oppstår når lys må reise forbi objekter med stor masse på vei mot jorden, som sorte hull. Gravitasjonen til disse massive objektene bøyer lyset, og gir oss en linse å se utrolig gamle og fjerne deler av galaksen med, skriver The Verge.

Å finne dem har så langt vært tidkrevende og omstendelig arbeid. Men i august publiserte Petrillo og kolleger ved en rekke europeiske universiteter en studie der de brukte kunstig intelligens til å bla igjennom tusenvis av bilder.

Og selv om datamaskinen ikke leverte perfekte resultater hver gang – algoritmen var ekstra følsom for å unngå å overse noen gravitasjonslinser – lette maskinen igjennom over 20 000 bilder på bare 20 minutter. Den ga forskerne 761 mulige treff, hvorav 56 av disse viste seg å være gravitasjonslinser etter at mennesker hadde sett på de 761 kandidatene, ifølge The Verge.

Søken etter gravitasjonslinser er bare ett av mange eksempler på hvordan kunstig intelligens nå hjelper astronomene med å utforske universet.

Et eksempel på en gravitasjonsbilde fanget av romteleskopet Hubble. Den blå ringen er lyset fra en fjern galakse som bøyes av rundt gravitasjonen til en galakse med ti ganger to stor masse som Melkeveien.

Forbedrer kornete bilder

Tilbake til sorteringen av galakser, som frivillige til nå har tatt seg av på Galaxy Zoo: Shamir og kolleger matet en algoritme med 3 millioner bilder av SDSS galakser inn i algoritme kalt Wndchrm. Etter å ha sortert bort bilder som selv mennesker er uenige om hva inneholder, viste det seg at algoritmen matchet den menneskelige sorteringen i 98 prosent av tilfellene.

I et annet eksempel har astronomen Kevin Schawinski slo seg sammen med informatikere for å bruke maskinlæringsteknologi til å forbedre bilder av universet, skriver Wired. I sommer publiserte forskerne de første resultatene: et nevralt nettverk som forbedret kornete og uklare bilder, likt de mye parodierte scenene av CSI der en IT-fyr kan forstørre selv de minste detaljer på uklare bilder fra overvåkningskameraer.

Etter en viss mengde trening, var systemet i stand til å oppdage og mane frem ting som teleskopene ikke var følsomme nok til å gjengi, ifølge Wired.

Selv om det inntil videre er det et stykke igjen til datamaskinene er like gode som oss til å prosessere og gi mening til mengder av data er de med andre ord allerede godt i gang med å assistere mennesker med oppgaver som er enkle, men tidkrevende, noe som gir forskerne langt mer tid til de oppgavene som krever menneskelig innblanding.

  • Ønsker du å ta del i å utforme hvordan datamaskiner og kunstig intelligens kan assistere mennesker i stadig større grad i fremtiden? Finn mer informasjon om studiet her.

Kilder: theverge.com, wired.com, theatlantic.com, lsst.org og sdss.org

Toppbilde: ESA/Hubble [CC BY 4.0 (http://creativecommons.org/licenses/by/4.0)], via Wikimedia Commons