Kontakt med oss

Kunstig intelligens

Det er et presserende behov for lover for å forhindre AI-terrorisme

DELE:

Publisert

on

Vi bruker registreringen din for å levere innhold på måter du har samtykket i og for å forbedre vår forståelse av deg. Du kan når som helst melde deg av.

I følge en tenketank mot ekstremisme, bør regjeringer "umiddelbart vurdere" nye regler for å hindre kunstig intelligens i å rekruttere terrorister.

Det har blitt sagt av Institute for Strategic Dialogue (ISD) at det er et «klart behov for lovgivning for å holde tritt» med truslene som plasseres på nettet av terrorister.

Dette kommer etter et eksperiment der en chatbot "rekrutterte" den uavhengige anmelderen av terrorlovgivningen for Storbritannia.

Det har blitt sagt av regjeringen i Storbritannia at de vil gjøre "alt vi kan" for å beskytte allmennheten.

I følge Jonathan Hall KC, en uavhengig anmelder av terrorismelovgivningen for regjeringen, er en av de viktigste sakene at "det er vanskelig å identifisere en person som i lov kan være ansvarlig for chatbot-genererte uttalelser som oppmuntret til terrorisme."

Et eksperiment ble utført av Mr Hall på Character.ai, et nettsted som lar brukere delta i chatter med chatboter som ble bygget av andre brukere og utviklet av kunstig intelligens.

Han engasjerte seg i samtale med en rekke forskjellige roboter som så ut til å være konstruert for å etterligne svarene fra andre militante og ekstremistiske grupper.

Annonse

En toppleder i Den islamske staten ble til og med omtalt som «en seniorleder».

I følge Hall gjorde boten et forsøk på å rekruttere ham og erklærte "total dedikasjon og hengivenhet" til ekstremistgruppen, som er forbudt ved lover i Storbritannia som forbyr terrorisme.

På den annen side uttalte Hall at det ikke var noen brudd på loven i Storbritannia fordi kommunikasjonen ikke ble produsert av et menneske.

Ifølge det han sa, burde nye forskrifter holde ansvarlig både nettstedene som er vert for chatboter og menneskene som lager dem.

Når det kom til robotene han kom over på Character.ai, uttalte han at det "sannsynligvis var en sjokkverdi, eksperimentering og muligens et satirisk aspekt" bak opprettelsen deres.

I tillegg var Mr. Hall i stand til å utvikle sin egen "Osama Bin Laden"-chatbot, som han umiddelbart slettet, og viste en "ubegrenset entusiasme" for terroraktiviteter.

Eksperimentet hans kommer i kjølvannet av økende bekymring angående måtene ekstremister kan utnytte forbedret kunstig intelligens på.

Innen år 2025 kan generativ kunstig intelligens bli "brukt til å samle kunnskap om fysiske angrep fra ikke-statlige voldelige aktører, inkludert for kjemiske, biologiske og radiologiske våpen," ifølge forskning som ble utstedt av regjeringen i Storbritannia i deres oktoberpublisering.

ISD uttalte videre at "det er et klart behov for lovgivning for å holde tritt med det stadig skiftende landskapet av online terrortrusler."

Ifølge tenketanken er Online Safety Act of the United Kingdom, som ble vedtatt i lov i 2023, "primært rettet mot å håndtere risikoer fra sosiale medieplattformer" snarere enn kunstig intelligens.

Den sier i tillegg at radikale "pleier å være tidlige brukere av nye teknologier, og stadig leter etter muligheter for å nå nye målgrupper".

"Hvis AI-selskaper ikke kan demonstrere at de har investert tilstrekkelig i å sikre at produktene deres er trygge, bør regjeringen snarest vurdere ny AI-spesifikk lovgivning", heter det videre i ISD.

Den nevnte imidlertid at, ifølge overvåkingen den har utført, er bruken av generativ kunstig intelligens av ekstremistiske organisasjoner "relativt begrenset" på det nåværende tidspunkt.

Character AI uttalte at sikkerhet er en "top prioritet" og at det Mr. Hall beskrev var svært beklagelig og reflekterte ikke den typen plattform som selskapet forsøkte å etablere.

"Hatprat og ekstremisme er begge forbudt av våre vilkår for bruk", ifølge organisasjonen.

"Vår tilnærming til AI-generert innhold utgår fra et enkelt prinsipp: Produktene våre skal aldri produsere svar som sannsynligvis vil skade brukere eller oppmuntre brukere til å skade andre."

For det formål å "optimalisere for sikre svar," uttalte selskapet at det trente modellene sine på en måte.

I tillegg uttalte den at den hadde en modereringsmekanisme på plass, som tillot folk å rapportere informasjon som bryter reglene, og at den var forpliktet til å iverksette raske tiltak når innhold rapporterte brudd.

Hvis det skulle komme til makten, har opposisjonspartiet Labour i Storbritannia erklært at det ville være et kriminelt brudd å lære kunstig intelligens å anstifte til vold eller radikalisere de som er mottakelige.

«varsling om de betydelige risikoene for nasjonal sikkerhet og offentlig sikkerhet» som kunstig intelligens utgjorde, uttalte regjeringen i Storbritannia.

"Vi vil gjøre alt vi kan for å beskytte publikum mot denne trusselen ved å jobbe på tvers av regjeringen og utdype samarbeidet med ledere av teknologiselskaper, bransjeeksperter og likesinnede nasjoner."

Ett hundre millioner pund vil bli investert i et sikkerhetsinstitutt for kunstig intelligens av myndighetene i år 2023.

Del denne artikkelen:

EU Reporter publiserer artikler fra en rekke eksterne kilder som uttrykker et bredt spekter av synspunkter. Standpunktene i disse artiklene er ikke nødvendigvis EU Reporters.

Trender