Er vi i ferd med å stjele ilden?
Prometheus gikk for langt. Han stjal ilden fra gudene og ga den til menneskene. For det ble han evig straffet. Kan vår frenetiske utvikling av kunstig intelligens også påkalle gudenes straff?
Ifølge gresk mytologi stjal Prometheus ilden fra gudenes bolig på Olympos og bragte den til menneskene i form av teknologi, kunnskap og dermed sivilisasjon. Zeus, kongen på Olympos, straffet Prometheus for dette bruddet på naturens orden ved at han ble bundet til en klippe, og en ørn – Zeus’ symbol – hakket seg inn i kroppen hans og spiste leveren. I løpet av natten vokste leveren frem igjen, men da kom ørnen på nytt. Og slik skulle det fortsette til evig tid.
Nå er mange forskere engstelige for at vi er i ferd med å gå så langt i utviklingen av kunstig intelligens at vi – som Prometheus – vil bli hardt straffet. Engstelsen har manifestert seg ved at fremtredende forskere og næringslivsledere har publisert et åpent brev via The Future of Life Institute (FLI) til verdens politikere og forskermiljøer der de skriver at avansert kunstig intelligens (KI) kan medføre store, uoversiktlige og kanskje katastrofale endringer for livet på Jorden, og at utviklingen må koordineres, planlegges og styres på en måte som reflekterer dette.
De krever pause i KI-utviklingen
Pr. 24. april var brevet signert av mer enn 30.000 personer med størrelser som Steve Wozniak, medgründer av Apple, Elon Musk/Tesla og de fremste forskerne på kunstig intelligens ved Berkeley, MIT m.fl., i spissen.
Det foreslås i brevet at all forskning på KI som er kraftigere enn GPT-4 må stanses med umiddelbar virkning for en periode på minst seks måneder. Alle aktører skal i denne pausen i fellesskap utvikle og implementere sikkerhetsprotokoller som skal verifiseres og sjekkes av uavhengige kontrollører. Hvis ikke aktørene selv aksepterer en slik pause, må regjeringene sørge for det nødvendige lovverk.
Men man må spørre seg; bør ikke pausen forlenges nærmest til evig tid?
Det vil denne skribent i alle fall anta at den toneangivende astrofysikeren Stephen Hawking (1942–2018) ville ha ment, om han stadig hadde levd. I sin bok Korte svar på store spørsmål skrev han blant annet: “Hvis kunstig intelligens brukes som verktøy, vil det kunne forhøye vår nåværende intelligens og åpne for fremskritt på hvert eneste område for både vitenskap og samfunn. Men det vil også føre med seg farer. Min bekymring er at KI kan frigjøre seg og begynne å videreutvikle seg selv i stadig raskere takt, mens vi mennesker er begrenset av vår langsomme biologiske evolusjon. Vi må sikre oss at disse datamaskinene har målsetninger som er forenlige med våre.”
Eller som Intels CEO Pat Gelsinger uttrykte det i Time Magazine 6. mars: “Maskiner vil snart ta flere beslutninger enn mennesker. Vår oppgave må være å sørge for at disse beslutningene blir gode.”
Å programmere en overlegen intelligens til å tjene menneskenes interesser høres fint ut, men må vel være nærmest umulig. For hva er i bunn og grunn “menneskenes interesser” eller “gode beslutninger”? Hvordan kan vi vite det? Og vil ikke en overlegen intelligens se mer mot det kosmiske perspektivet enn mot våre interesser?
Det behøves nok en riktig lang pause i KI-utviklingen.
De lange linjer
Som sagnet om Prometheus viser, påpekte oldtidens tenkere for mer enn 2.000 år siden at naturen er en overordnet helhet som menneskene hører hjemme i og må innrette sine liv etter, og at naturen vil straffe den som bryter ut.
Men filosofenes syn på naturen endret seg etter oldtiden, og helt opp mot vår egen tid har den rådende oppfatningen vært at naturen er en motstander menneskene med god rett kan søke å overvinne, enten det gjelder å beskytte seg mot naturens angrep i form av ville dyr, oversvømmelser og stormer, eller for å skaffe økt velstand til et stadig økende antall mennesker ved å temme naturen gjennom tekniske inngrep som eksempelvis jordbruk, gruvedrift og regulering av elver.
I løpet av de siste 100 år har imidlertid pendelen begynt å svinge tilbake igjen. Teknologi og vitenskap har utviklet seg så fort og så langt at mange har blitt engstelige for hva det kan føre til, også lenge før FLI-brevet. Blant disse “mange” finner vi ikke bare den forventede rekke av dommedagsprofeter og science fiction-forfattere, men også et bredt utvalg av våre aller fremste vitenskapsmenn og tenkere.
Vitenskapen og fonuften
1900-tallets største fysiker, Albert Einstein, uttrykte sin betenkelighet slik: “Det moderne menneskets tragedie består i at det har skapt seg livsbetingelser som det på grunn av sin langsomme fysiogenetiske utvikling ikke er fornuftsmessig modent til, og trolig ikke klarer å tilpasse seg før menneskeheten har dødd ut som art; enten plutselig i atomkrigens ragnarok, eller gradvis.”
Og den finske filosofen Georg Henrik von Wright (1916–2003) drøftet situasjonen grundig i sin bok Vitenskapen og fornuften (1990), der han blant annet skrev:
“I ordtaket heter det at nød er alle oppfinnelsers mor. I dag er det ikke slik ordtaket sier. I langt høyere grad er det oppfinnelsene, den tekniske utviklingen, som styrer menneskenes sett av behov, deres forventninger og ønsker i forbindelse med ‘livsgodene’, samt deres oppfatninger om hva de har rett til å ‘kreve’ i form av materielle bekvemmeligheter.
Man kan nok kalle behov som er skapt av den tekniske utviklingen for ‘kunstige’. Men de er ‘virkelige’ når de først har slått rot.
Det blir svært vanskelig for samfunnet å angripe de miljø- og samfunnsproblemer som ny teknologi og en ekspanderende industri skaper. Tendensen går derfor i retning av å overlate også disse problemene til ‘utviklingen’ eller søke å løse dem ved ‘mot-teknologier’ som skal fjerne farer og besvær ved det som allerede er igangsatt.”
De eksistensielle trusler
Selv om KI er den trusselen mot menneskehetens eksistens som er mest fremme i den offentlige diskusjon for tiden, er det også tre andre eksistensielle farer som FLI fremhever: bioteknologi (genmodifikasjon og pandemier som følge av menneskelig aktivitet), atomvåpen (brukt av skurkenasjoner) og klimaforandringer (global oppvarming).
Når det gjelder KI, så tenker FLI seg tre eksistensielle problemstillinger:
- Skurker programmerer KI til å gjøre noe skrekkelig, for eksempel via våpen, bakterier eller kontroll over biler eller kraftverk og annen infrastruktur.
- KI er programmert til å gjøre noe bra, men anvender destruktive metoder for å nå målet. Som å lage fatale problemer ved overdreven CO2-fangst eller geoengineering.
- KI blir mer intelligente enn mennesker og vil tenke litt som von Wright antyder:
“En gang vil med sikkerhet menneskearten opphøre å eksistere. Om det skjer om hundre tusen år eller om bare et par århundrer, er i et kosmisk perspektiv fullstendig likegyldig. Når en tenker over hvor mange arter menneskene selv har gjort kål på, kan en slik nemesis fra naturens side kanskje virke rettferdig.”
I Prometheus-sagnet kom Zevs’ sønn Herakles og reddet Prometheus da gudene syntes han hadde vært straffet nok. Kanskje vi mennesker også blir reddet av en Herakles. Kan det være Elon Musk?