Kontakt med oss

Datateknologi

OASI, den første søkemotoren som fant algoritmene som myndigheter og selskaper bruker på innbyggere

DELE:

Publisert

on

Vi bruker registreringen din for å levere innhold på måter du har samtykket i og for å forbedre vår forståelse av deg. Du kan når som helst melde deg av.

  • Observatory of Algorithms with Social Impact, OASI, laget av Eticas Foundation, samler informasjon fra dusinvis av algoritmer som brukes av offentlige administrasjoner og selskaper rundt om i verden for å lære mer om deres sosiale innvirkning.
  • Målet er å gi offentligheten tilgang til informasjon om både myndigheter og selskapsalgoritmer, og å vite hvem som bruker dem, hvem som utvikler dem, hvilke trusler de representerer og om de har blitt revidert, blant andre egenskaper.
  • Algoritme -skjevhet og diskriminering forekommer vanligvis basert på alder, kjønn, rase eller funksjonshemming, blant andre verdier, men på grunn av den generelle mangelen på åpenhet er det fortsatt ikke mulig å vite alle konsekvensene for de berørte gruppene.

Eticas Foundation, en ideell organisasjon som fremmer ansvarlig bruk av algoritmer og kunstig intelligens (AI) -systemer, har opprettet Observatory of Algorithms with Social Impact (OASI). Dette observatoriet introduserer en søkemotor for å vite mer om verktøyene som tar viktige automatiserte beslutninger for innbyggere, forbrukere og brukere over hele verden.

Foreløpig automatiserer både selskaper og offentlige administrasjoner beslutninger takket være algoritmer. Derimot, dens utvikling og igangkjøring følger ikke eksterne kvalitetskontroller, og den er heller ikke så gjennomsiktig som den burde være, noe som etterlater befolkningen ubeskyttet. Med denne søkemotoren kan hvem som helst finne ut mer om disse algoritmene: hvem som har utviklet dem, hvem som bruker dem, deres anvendelsesområde, om de er blitt revidert, deres mål eller deres sosiale innvirkning og truslene de representerer.

For øyeblikket, OASI samler 57 algoritmer, men forventer å nå 100 i de påfølgende månedene. Blant dem brukes 24 allerede i USA av regjeringen og Big Tech -selskapene. For eksempel ShotSpotter, et algoritmeverktøy implementert av Oakland Police Department for å bekjempe og redusere våpenvold gjennom lydovervåkningsmikrofoner, og en algoritme for å forutsi potensielle overgrep mot barn og omsorgssvikt som brukes av Allegheny County, Pennsylvania. Et annet eksempel fra en bedrift er Rekognition, Amazons ansiktsgjenkjenningssystem, som ble revidert av MIT Media Lab i begynnelsen av 2019, og som viste seg å prestere vesentlig dårligere ved identifisering av et individs kjønn om de var kvinner eller mørkere.

Den vanligste diskrimineringen er på grunn av alder, kjønn, rase eller funksjonshemming, produsert utilsiktet av utviklere som mangler sosioøkonomiske ferdigheter for å forstå virkningen av denne teknologien. I denne forstand designer disse ingeniørene algoritmene bare basert på tekniske ferdigheter, og siden det ikke er noen eksterne kontroller og det ser ut til å fungere som forventet, fortsetter algoritmen å lære av mangelfulle data.

Gitt mangelen på åpenhet om hvordan noen av disse algoritmene fungerer, utvikler Eticas Foundation, bortsett fra lanseringen av OASI, et prosjekt for eksterne revisjoner. Den første er VioGén, algoritmen som det spanske innenriksdepartementet brukte for å tildele risiko for kvinner som søker beskyttelse etter å ha lidd tilfeller av vold i hjemmet. Eticas vil gjennomføre en ekstern revisjon gjennom reverse engineering og administrative data, intervjuer, rapporter eller designskript for å samle resultater i stor skala. Alt dette med det formål å oppdage muligheter for forbedring av beskyttelsen av disse kvinnene.

"Til tross for at det finnes algoritmiske kontroll- og revisjonsmetoder for å sikre at teknologien respekterer gjeldende regelverk og grunnleggende rettigheter, fortsetter administrasjonen og mange selskaper å døve øret for forespørsler om åpenhet fra borgere og institusjoner," erklærte Gemma Galdon, grunnlegger av Eticas Foundation . "I tillegg til OASI, etter flere år hvor vi har utviklet mer enn et dusin revisjoner for selskaper som Alpha Telefónica, FN, Koa Health eller Inter-American Development Bank, har vi også publisert en Guide to Algorithmic Audit så at hvem som helst kan utføre dem. Målet er alltid å øke bevisstheten, gi åpenhet og gjenopprette tillit til teknologi, som i seg selv ikke trenger å være skadelig. ”

I denne forstand trener algoritmer som er opplært i maskinlæringsteknikk ved å bruke en stor mengde historiske data for å "lære" dem å velge basert på tidligere beslutninger. Vanligvis er disse dataene ikke representative for den sosioøkonomiske og kulturelle virkeligheten de brukes på, men ved mange anledninger gjenspeiler de en urettferdig situasjon som ikke er ment å bli videreført. På denne måten vil algoritmen teknisk ta "riktige" beslutninger i henhold til opplæringen, selv om virkeligheten er at anbefalingene eller spådommene er partiske eller diskriminerende.

Annonse

Om Eticas Foundation

Eticas Foundation jobber med å oversette prinsippene som styrer samfunnet til tekniske spesifikasjoner, for eksempel like muligheter, åpenhet og ikke-diskriminering i teknologiene som tar automatiserte beslutninger om våre liv. Den søker en balanse mellom endrede sosiale verdier, de tekniske mulighetene for de siste fremskrittene og de juridiske rammene. For dette formål reviderer den algoritmer, bekrefter at juridiske garantier gjelder for den digitale verden, spesielt for kunstig intelligens, og utfører et intensivt arbeid for å øke bevisstheten og spre behovet for ansvarlig kvalitetsteknologi.

Del denne artikkelen:

EU Reporter publiserer artikler fra en rekke eksterne kilder som uttrykker et bredt spekter av synspunkter. Standpunktene i disse artiklene er ikke nødvendigvis EU Reporters.

Trender