Connect with us

Hvad søger du?

Science ReportScience Report

Debat

Vi bør lære af Stanford University for demokratiets skyld

I Danmark bør vi lære af et nyt initiativ fra Stanford University, skriver David Budtz.

Forleden var der seminar på Stanford University i Californien om brugen af kunstig intelligens og fremtidens store samfundsmæssige udfordringer. Emnerne var digital sundhed, automatiseret militær og begrænsning af misinformation i demokratiske valghandlinger. Når verdens førende computervidenskabelige institut tager fat på problemer i denne kaliber, er det værd at lytte med.

Ligesom andre institutioner oplever universiteterne i disse år en forandret virkelighed. En stigende andel af den viden og teknologi, der anvendes i samfundet, udvikles i dag i private virksomheder. Især inden for kunstig intelligens er de store techvirksomheder langt foran udviklingen på de fleste universiteter. Der er simpelthen flere midler, mere talent og nærmest uendelige indtjeningsmuligheder for de virksomheder, som kommer først med de nyeste løsninger.

Men et samfund der i stigende grad støtter sig til algoritmiske beslutningssystemer, er ikke et samfund, der nødvendigvis fungerer ifølge demokratiske normer. Idet intelligente systemer begynder at tale sammen på tværs og integrerer store datamængder bliver det nødvendigt at vurdere teknologiens konsekvenser på tværs af discipliner.

Af samme grund har Stanford opført et nyt institut for ”Human-Centered Artificial Intelligence” – kort sagt et institut, der skal forene universitetets kompetencer inden for datalogi, samfundsvidenskab og humanistisk forskning. Ambitionen er at kaste lys på grænsefladerne mellem intelligente teknologier og samfundets langsigtede udvikling.

Ligesom Stanford gennem tiden har været med til at skabe Silicon Valley, påtager universitetet sig nu at skabe et hjemsted for forskning i de tilsigtede og utilsigtede konsekvenser, som den algoritmiske tidsalder medfører. Instituttet er placeret i hjertet af det datalogiske fakultet. Det har modtaget bevillinger og private donationer for mere end 100 millioner dollars i sine første leveår, og det står i centrum af universitets strategi for ansvarlig forskning og innovation.

Med den massive støtte i ryggen har HAI, som instituttet forkortes, på kort tid etableret sig som et af verdens førende tværdisciplinære centre for algoritmisk beslutningstagen og designtænkning på tværs af datalogi, biologi, genetik, historie, jura, etik og antropologi. Centeret har ansat nogle af Stanfords bedste forskere i kombination med et hold af eksperter og ledere fra ministerier, tænketanke og interesseorganisationer. Det er en unik smeltedigel for tænkning og viden, der skal sætte mennesket i centrum for fremtidens intelligente løsninger.

På seminaret den 6. oktober tog instituttets forskere fat på problemstillinger omkring regulering og lovgivning af kunstig intelligens inden for sundhedssektoren, militæret og techplatforme, der kan påvirke demokratiske beslutningsprocesser.

Automatiseret krig
Selvom det kan synes som science fiction på en coronaramt efterårsdag i Danmark gør verdens førende forskere sig mange bekymringer angående karakteren af fremtidens krige og det regelsæt, der skal bruges til at lovgive om militære interventioner. Både USA, Rusland og Kina er på vej til at integrere kunstig intelligens i deres efterretningstjenester og militær. Det kan få store konsekvenser for den geopolitiske stabilitet. Som den russiske præsident Vladimir Putin har udtalt, vil ”den nation, der først bliver førende inden for kunstig intelligens, blive verdens hersker”.

En analyse foretaget af Stanford viser dog, at Rusland ikke selv er førende på området. Det er derimod USA og Kina. I analysen redegøres der for, at den tidligere geopolitiske balance var baseret på forestillingen om ”gensidig udslettelse”. Hvis én nation angriber en anden med atomvåben eller andre masseødelæggelsesvåben vil konsekvensen være modangreb af samme eller større styrke. Det har skabt den præventive virkning, at ingen nation siden 2. verdenskrig har anvendt våben af denne styrke imod hinanden.

Situationen er imidlertid anerledes med kunstig intelligens. For eksempel gør den eksponentielle udvikling inden for sensorteknologi det muligt at skabe en ”maskinelt læsbar slagmark”, hvor dyb viden om fjendens våbensystemer gør, at man effektivt kan afværge modangreb. Samtidig viser analysen, at militære systemer er sårbare over for cyberangreb, der anvender AI, og at flere nationer, heriblandt USA, aggressivt opkøber virksomheder med speciale i kunstig intelligens for at automatisere en række krigshandlinger med vidtrækkende konsekvenser for krigskonventioner og menneskerettigheder.

Store sundhedsdata
Et andet, mindre dramatisk område, hvor brugen af kunstig intelligens allerede skaber demokratiske udfordringer, er inden for sundhedsvæsenet. Covid-19 har demonstreret, hvordan centrale sundhedsdata om befolkningen er essentielle for effektivt at håndtere epidemien. Det har fået flere nationer til at efterspørge et integreret offentligt program for sundhedsovervågning, hvor data om genetik, sygdomsforløb og adfærd samles. I løbet af de kommende år vil det blive en stor samfundsmæssig udfordring at balancere den massive indsamling af patientdata med etiske og demokratiske overvejelser over privatdata, samtykke og patientsikkerhed.

Stanford-professor Russ Altman forudser, at det for den næste generation af algoritmer i sundhedsvæsenet vil være tæt ved umuligt at isolere data om sundhed fra andre typer data, for eksempel om adfærd, livsstil, forbrug osv. Det giver udfordringer for privatlivet. Hvor langt skal man gå? Hvordan skal fremtidens algoritmiske sundhedsløsninger designes, hvis de skal tage hensyn til samtykke? På hvilket punkt i for eksempel en fremtidig epidemi vil hensynet til privatdata bliver undermineret af hensynet til effektive interventioner på samfundsniveau? Det er nogle af de spørgsmål, som forskerne skal besvare for at kunne designe fremtidens sundhedsinfrastruktur.

Demokratiets overlevelse
Endelig var den tredje udfordring, som HAIs forskere har valgt at sætte på dagsordenen brugen af algoritmer i valghandlinger. USA står foran et præsidentvalg, hvor indflydelsen fra misinformation, fjendtlig indblanding og algoritmisk indholdsprioritering på sociale medier af mange analytikere menes at kunne få konsekvenser for valgresultatet. Det amerikanske forbundspoliti, FBI, er på hælene for at holde øje med, hvordan aktiv misinformation spredes, og hvordan ekstremistiske grupper manipulerer sociale medier til at få større synlighed.

Det er et emne med vidtrækkende konsekvenser. Men noget af det som en human-centreret tilgang til teknologi kan hjælpe med at forstå, er, hvordan mennesker reagerer på information og misinformation. Ny forskning kaster lys på, hvordan etablerede nyhedsmedier bør undgå at bidrage til at sprede misinformation. Rapporten ”How to Responsibly Report on Hacks and Disinformation” giver en række bud på, hvordan journalister og nyhedsformidlere bør afholde sig fra at gentage og dermed forstærke falsk information. Det er en dagsorden, der de kommende år vil få omfattende konsekvenser både for brugen af sociale medier og debatten om regulering af techvirksomheder.

Tværfaglighed er nøglen
Som dette korte indlæg illustrerer, er udfordringer i det algoritmiske demokrati mange og løsningerne ikke altid håndgribelige. Men ved at sætte en ambitiøs forskningsdagsorden på tværs af tekniske og humanistiske discipliner er det muligt at stille diagnoser og udvikle forslag til interventioner. Forskning inden for kunstig intelligens kalder på interdisciplinære løsninger og kompetencer, der dækker hele spektret fra datalogi, lovgivning, demokrati, etik, kognition, kultur og kommunikation. Det er i grænsefladen, at principper om privatliv, lighed, transparens, forklarbarhed, ansvarlighed og sikker brug af information bliver håndgribelige.

Eksemplet fra Stanford HAI bør give danske universiteter og fonde inspiration. Den offentlige forskning har fået en ny demokratisk opgave, som ikke kan varetages af private aktører: nemlig at teste, kvalificere og regulere samfundets brug af kunstig intelligens. Den teknologiske udvikling er i disse år så kraftig, at det kræver stærke tværvidenskabelige kompetencer og at følge med. Så resten af samfundet også kan følge med.

David Budtz Pedersen er professor mso på Aalborg Universitet og særlig rådgiver for Villum og Velux Fondenes satsning på Algoritmer, Data og Demokrati.

Forsiden lige nu:

Seneste artikler:

Loading...

Something went wrong. Please refresh the page and/or try again.