Ny Bok:
Det er ingen bevis for at KI kan kontrolleres
Det er ingen aktuelle bevis for at kunstig intelligens (KI) kan kontrolleres trygt, ifølge en omfattende gjennomgang, og uten bevis for at KI kan kontrolleres, bør den ikke utvikles, advarer en forsker.
Til tross for erkjennelsen av at problemet med KI-kontroll
kan være et av de viktigste problemene menneskeheten står overfor, er det
fortsatt dårlig forstått, dårlig definert og dårlig undersøkt, forklarer Dr.
Roman V. Yampolskiy.
I sin kommende bok, «AI: Unexplainable, Unpredictable, Uncontrollable», ser KI-sikkerhetsekspert Dr. Yampolskiy på måtene KI har potensialet til å dramatisk omforme samfunnet, ikke alltid til vår fordel.
Han forklarer: «Vi står overfor en nesten garantert hendelse med potensial til å forårsake en eksistensiell katastrofe. Ikke rart at mange anser dette som det viktigste problemet menneskeheten noen gang har møtt. Utfallet kan bli velstand eller utryddelse, og universets skjebne henger i en balanse.»
Ukontrollerbar superintelligens
Dr Yampolskiy har utført en omfattende gjennomgang av KI vitenskapelig litteratur og sier at han ikke har funnet noe bevis for at KI kan kontrolleres trygt – og selv om det er noen delvise kontroller, vil de ikke være nok.
Han forklarer: «Hvorfor antar så mange forskere at KI-kontrollproblemet er løsbart? Så vidt vi vet er det ingen bevis for det. Før du legger ut på et oppdrag for å bygge en kontrollert KI, er det viktig å vise at problemet er løsbart.»
«Dette, kombinert med statistikk som viser at utviklingen av KI-superintelligens er en nesten garantert hendelse, viser at vi bør støtte en betydelig KI-sikkerhetsinnsats.»
Han argumenterer for at vår evne til å produsere intelligent programvare langt overgår vår evne til å kontrollere eller til og med verifisere den. Etter en omfattende litteraturgjennomgang antyder han at avanserte intelligente systemer aldri kan kontrolleres fullt ut, og at de derfor alltid vil ha et visst risikonivå uavhengig av fordelene de gir. Han mener det bør være målet for KI-fellesskapet å minimere slik risiko og samtidig maksimere potensielle fordeler.
Hva er hindringene?
KI (og superintelligens) skiller seg fra andre programmer ved sin evne til å lære ny atferd, justere ytelsen og opptre semi-autonomt i nye situasjoner.
Et problem med å gjøre KI «trygg» er at de mulige beslutningene og feilene til et superintelligent vesen når det blir mer kapabelt er uendelig, så det er et uendelig antall sikkerhetsproblemer. Det er kanskje ikke nok å bare forutsi problemene, og å redusere dem i sikkerhetsoppdateringer, noe som det ikke er sikkert er mulig.
Samtidig, forklarer Yampolskiy, kan KI ikke forklare hva den har bestemt seg for, og/eller vi kan ikke forstå forklaringen som gis da mennesker ikke er smarte nok til å forstå konseptene som er implementert. Hvis vi ikke forstår KIs avgjørelser og vi bare har en «svart boks», kan vi ikke forstå problemet og redusere sannsynligheten for fremtidige ulykker.
For eksempel er KI-systemer allerede i bruk for å ta beslutninger innen helsevesen, investeringer, sysselsetting, bank og sikkerhet, for å nevne noen. Slike systemer bør kunne forklare hvordan de kom til sine beslutninger, spesielt for å vise at de er fri for partiskhet.
Yampolskiy forklarer: «Hvis vi blir vant til å akseptere KIs svar uten en forklaring, og i hovedsak behandler det som et Oracle-system, vil vi ikke være i stand til å forklare om det begynner å gi feil eller manipulerende svar.»
Å kontrollere det ukontrollerbare
– Ettersom evnen til KI øker, øker også dens autonomi, samtidig som vår kontroll over den reduseres, forklarer Yampolskiy, og økt autonomi er synonymt med redusert sikkerhet.
For eksempel, for at superintelligens skal unngå å tilegne seg unøyaktig kunnskap og fjerne all skjevhet fra programmererne, kan den ignorere all slik kunnskap og gjenoppdage/bevise alt fra bunnen av, men det vil også fjerne enhver pro-menneskelig skjevhet.
– Mindre intelligente agenter (mennesker) kan ikke permanent kontrollere mer intelligente agenter (ASI). Dette er ikke fordi vi kanskje ikke klarer å finne et trygt design for superintelligens i det store rommet av alle mulige design, det er fordi ingen slik design er mulig, den eksisterer ikke. Superintelligens er ikke opprør, det er ukontrollerbart til å begynne med, forklarer han.
«Menneskeheten står overfor et valg, blir vi som babyer, tatt vare på, men ikke i kontroll, eller avviser vi å ha en hjelpsom verge, men forblir ansvarlig og fri.»
Han antyder at et likevektspunkt kan bli funnet der vi ofrer en viss evne til gjengjeld for en viss kontroll, på bekostning av å gi systemet en viss grad av autonomi.
Samle menneskelige verdier
Et kontrollforslag er å designe en maskin som nøyaktig følger menneskelige ordre, men Yampolskiy påpeker potensialet for motstridende ordre, feiltolkning eller ondsinnet bruk.
Han forklarer: «Mennesker i kontroll kan resultere i motstridende eller eksplisitt ondsinnede ordre, mens KI i kontroll betyr at mennesker ikke er det.»
Hvis KI fungerte mer som en rådgiver, kunne det omgå problemer med feiltolkning av direkte ordre og potensial for ondsinnede ordre, men forfatteren argumenterer for at KI skal være nyttig rådgiver, den må ha sine egne overordnede verdier.
– De fleste KI-sikkerhetsforskere leter etter en måte å tilpasse fremtidig superintelligens til menneskehetens verdier. Verdijustert KI vil være partisk per definisjon, pro-menneskelig skjevhet, god eller dårlig er fortsatt en skjevhet. Paradokset med verdijustert KI er at en person som eksplisitt beordrer et KI-system til å gjøre noe kan få et «nei» mens systemet prøver å gjøre det personen faktisk vil. Menneskeheten er enten beskyttet eller respektert, men ikke begge deler, forklarer han.
Minimere risiko
For å minimere risikoen for KI, sier han at den må være modifiserbar med «angre»-alternativer, begrenset, gjennomsiktig og lett å forstå på menneskelig språk.
Han foreslår at all KI bør kategoriseres som kontrollerbar eller ukontrollerbar, og ingenting bør bli oversett. der begrensede stopp, og til og med delvise forbud mot visse typer KI-teknologi bør vurderes.
I stedet for å miste motet, sier han: – Det er snarere en grunn for flere mennesker til å grave dypere og øke innsatsen og finansieringen av KI sikkerhetsforskning. Vi kommer kanskje aldri til 100 % sikker KI, men vi kan gjøre KI tryggere i forhold til innsatsen vår, noe som er mye bedre enn å ikke gjøre noe. Vi må bruke denne muligheten klokt.