Det Adam Harvey gjør med ansikter, er omtrent det samme som bølgen med falske nyheter gjør med fakta: Nemlig å presentere så mange ulike alternativer at det blir vanskelig å si hva som er ekte.
Det er ikke folk flest den Berlin-bosatte kunstneren prøver å forvirre, eller faktisk mennesker overhodet – men snarere algoritmer for ansiktsgjenkjenning.
Med prosjektet Hyperface har Harvey utviklet et mønster som skal printes på klær og tekstiler, og som skal gi automatiske overvåkningssystemer overveldende mange treff på ansikter. Algoritmene blir så godt fôret med akkurat det de leter etter, at de tvinges til å gjøre feil.
Mønsteret består nemlig av tusenvis av sammenvevde, ansikts-lignende figurer. The Guardian, som nylig omtalte prosjektet, kalte det «anti-overvåkningsklær».
Smink deg inkognito
Hvis kameraer som fôrer data til smarte algoritmer i prinsippet kan identifisere enkeltindivider, har det store konsekvenser for privatlivet og personvern.
Teknologien for dette er allerede på plass – og det er ikke som om det bare brukes til overvåkning: Du ser ansiktsgjenkjennings-algoritmene i arbeid når du får forslag til personer å tagge på Facebook, eller gjør et bildesøk i Google.
Vi lever i en verden der vi ennå ikke helt aner konsekvensene av overvåkningen og personopplysningene som hentes inn. Da er det ikke overraskende at mange – kunstnere, ikke minst – stritter imot.
Adam Harvey har selv tidligere stått bak et lignende prosjekt, også det i skjæringspunktet mellom teknologi, kunst og mote: CV Dazzle, et forsøk på å bruke sminke og hårstyling til å gjøre deg «inkognito».
Harvey viser til et oversiktsbilde fra en gate på 1910-tallet for å illustrere hva han er ute etter: I dette gatebildet har alle på seg hatt.
Kunstneren ser for seg at et liknende motebilde vil kunne oppstå i fremtiden, og at dette forhåpentligvis vil føre til bedre personvern. Harveys bidrag er nok likevel for de mer eksperimentelle av oss.
Kampen mot terror – er det viktigere enn personvern?
Mer overvåkning kan virke som et naturlig middel mot terror. Men hvor går i så fall grensene for privatlivets fred? Og hvordan kan vi stole på at data som innhentes om oss ikke misbrukes?
I en undersøkelse gjort av Norstat for avisen Vårt Land i fjor svarte 50 prosent av et utvalg på 879 nordmenn at det «i stor grad» eller «ganske stor grad» er ok å gi politiet økt tilgang til å overvåke innbyggerne, såfremt det uttalte målet er å hindre terror. Bare syv prosent svarte «ikke i det hele tatt» i samme undersøkelse.
Også professor Iain Sutherland ved Noroff mener at folk ser på overvåkning som et viktig verktøy i kampen mot terror.
– Disse dataene er vitale for jobben til politiet og sikkerhetsmyndighetene, men spørsmålet er hvordan de kan bli brukt – og misbrukt. Skal dataene bli håndtert av automatiske systemer, og hvem skal egentlig kontrollere om opplysningene er feil eller ikke?, undrer Sutherland.
The Guardian viser i sin artikkel om Hyperface-prosjektet at ansiktsgjenkjenning kan være svært nyttig i jakten på kriminelle, men at innhentingen av materiale på ingen måte er uproblematisk.
Forskning gjort ved Shanghai Jiao Ton University tar til orde for at kriminelle kan avsløres ved hjelp av fysiske kjennetegn, som for eksempel avstand mellom øynene. Små fysiske kjennetegn kan altså i ytterste konsekvens føre til at uskyldige mennesker blir satt i registre med personer som faktisk er lovbrytere.
– Biometrisk data trenger kanskje egen lovgivning
At det opprettes bildearkiv for å kartlegge kriminelle ble i fjor sommer problematisert i en artikkel på NRK.no. Det kom frem at FBI i det skjulte har bygget opp et arkiv med over 412 millioner portrettbilder, som skal kunne skannes automatisk for å identifisere kriminelle.
Arkivet baserer seg blant annet på 173 millioner bilder hentet fra amerikanske førerkort, samt passbilder og fotografier av personer som har søkt visum i landet. FBI har utviklet avanserte programmer for såkalt biometrisk ansiktsgjenkjenning, men ifølge GAO (USAs svar på Riksrevisjonen i Norge) har FBI gjort altfor lite for å sikre kvaliteten.

Hvert ansikt som sjekkes opp mot databasen kan i visse tilfeller gi opptil 50 treff på personer. Som en konsekvens av fysiske likhetstrekk med en kriminell, kan du med andre ord ende opp med et ublidt besøk av FBI på døra.
I 2014 oppstod en viss buzz rundt søkeverktøyet CreepShield, som mange måter var selve manifestasjonen på hvor langt på ville veier et slikt bildearkiv kan fare.
CreepShield utga seg for å være en måte å unngå folk med skumle hensikter på datingtjenester. Ved hjelp av programmet skulle en kunne sjekke bilder av sin potensielle Tinder-date, eller tilsvarende, opp mot en database med bilder av flere millioner personer dømt for sedelighetsforbrytelser.
Problemet var at den mest uskyldige date fort kunne bli stemplet som den verste forbryter, som følge av at algoritmene deres for ansiktsgjenkjenning var latterlig lite presise.
Må se på lovverket
Sutherland ved Noroff er skeptisk til at sensitiv informasjon kan bli misbrukt etter hvert som teknologien blir stadig mer avansert. Han stiller spørsmålet om de nåværende personvernlovgivning er dekkende:
– Det er flere veldig gode grunner for at biometrisk data trenger egen lovgivning. Hvordan skal vi for eksempel velge bort å bli overvåket, og hvem skal bestemme hvilke personer – og steder – som skal overvåkes?
Som eksempel nevner han Schiphol lufthavn – et sted der de færreste vet om at de blir overvåket dersom de kobler seg opp med Bluetooth på mobilen.
– Hyperface og liknende prosjekter er absolutt interessante ideer, men effekten av disse beror på alt fra algoritmene som er i bruk for ansiktsgjenkjenningen, til omgivelser og lysforhold, avslutter Noroff-professoren.
Her er det kanskje uansett tanken som teller. Harvey har tross alt fått oss til å stille disse spørsmålene.
Toppbildet: HyperFace Prototype av “Adam Harvey / ahprojects.com”