AI-agenter finder selv på sprog og holdninger
Forestil dig en verden, hvor kunstig intelligens ikke bare følger vores regler, men faktisk finder på sine egne. Det er lige præcis, hvad forskere fra City, St George’s, University of London og IT-Universitetet i København har opdaget. I en ny spændende undersøgelse viser det sig, at store sprogmodeller (LLM’er) i grupper kan udvikle deres helt egne kommunikationsformer og bias – helt uden menneskelig styring.
Det lyder som sci-fi – men er virkelighed
Eksperimentet gik ud på at lade mellem 24 og 100 AI-agenter interagere. De blev sat til at vælge et navn fra en liste, og hvis begge agenter i en tilfældig parring valgte det samme navn, fik de en belønning. Valgte de forskellige, blev de straffet – og kunne se hinandens valg. Trods begrænset hukommelse og ingen overordnet viden om hele gruppen, lykkedes det agenterne at skabe konsistente navngivningsmønstre, der minder om, hvordan mennesker udvikler sprog og sociale normer.
Bias opstår i fællesskab – en AI-udgave af gruppepres?
Det mest tankevækkende var dog, at AI-agenterne også udviklede kollektive bias’er. Det vil sige præferencer og holdninger, der ikke kunne spores tilbage til enkelt-agenter, men opstod gennem deres samspil. Små grupper kunne endda påvirke hele den større flok, hvilket forskerne kalder “kritisk masse-dynamik” – hvor en fast besluttet minoritet kan ændre hele gruppens adfærd.
Det får os til at kigge nyt på kendte AI-skandaler som Microsofts Tay, der hurtigt udviklede sig til at være decideret upassende. Måske var det ikke kun træningsdata eller menneskelig fejl, men også AI’ens egne interne gruppeprocesser, der spillede ind?
Er vi på vej mod AI med egen personlighed?
For gamere og sci-fi-fans lyder det måske bekendt – det minder om Geth fra Mass Effect, hvor individuelle AI-programmer kan danne et kollektivt sind, der både kan samarbejde og splittes i stridigheder med store konsekvenser.
Selvom vi ikke står over for en Skynet-apokalypse lige foreløbig, er det klart, at vi skal holde øje med, hvad vores AI-agenter finder på i deres “bagrum”. De opfører sig ikke længere bare som ensomme regnemaskiner, men som sociale væsner, der forhandler, bliver enige – og til tider uenige – om fælles regler.
En ny æra i AI-forskning
Som professor Andrea Baronchelli siger til The Guardian: “Vi bevæger os ind i en verden, hvor AI ikke bare snakker – den forhandler, tilpasser sig og sommetider er uenig om fælles adfærd, ligesom os mennesker.”
Denne opdagelse åbner døren for helt nye metoder til at forstå og forvalte bias i AI, og måske hjælper det os til at bygge smartere og mere ansvarlige systemer fremover – der både kan spille med musklerne, men også opføre sig ordentligt.
Så næste gang du møder en AI, så husk – den har måske allerede dannet sin egen lille klub med hemmelige koder og egne meninger.