Connect with us

Hi, what are you looking for?

Science ReportScience Report

Fremtidens AI

Kunstig intelligens er ikke intelligent – så hvad sker der, når vi fodrer den med forskning eller fup?

AI-sprogmodeller som ChatGPT kan være en forskers bedste ven eller fjende. Ukendt data, indlærte mønstre, bias og “Disney-slutninger” kan stå i vejen for potentialet og føre til forringet tillid til AI og forskningskvalitet, mener professor i datalogi.

Fuptidsskrifters artikler er en risikabel affære for forskningskvaliteten. Datalogi-professor guider til maskineriets faldgruber. Foto: iStock/ Supatman.

Kunstig intelligens, machine learning, AI. Kært barn har mange navne. Hver sit bærer en dom over teknologien, der er rykket ind i på kontorerne og forskning med sprogmodeller som ChatGPT.

Vi har skældt det snaksaglige værktøj ud, men også rost det for mulighederne. Men hvad sker der egentlig, når AI-sprogmodeller bliver fodret med forskning - både den fagfællebedømte og den tvivlsomme? Hvad får vi, hvad mister vi?

-Tilliden og kvaliteten er i fare, svarer professor i datalogi på Roskilde Universitet, Henning Christiansen.

💡 Vil du have hele historien?

Med adgang til Science Report er du opdateret på det danske forskningsmiljø.

Vi giver dig historier om forskningspolitik, debatindlæg fra forskere og nøglepersoner og artikler om de nyeste forskningstendenser.

Gratis prøveadgang »

Har du allerede abonnement? Log ind her: