AGENTDAGEN 2025 stiller skarpt på AI agenter, og hvis du tror, at det er en teknologi, der sådan er opstået ud af det blå, så kan du godt tro om igen. AI-agenterne er nemlig nærmere kulminationen på årtiers spændende forskning i kunstig intelligens, automation og menneske-maskine-interaktion.
Turing-testen og ekspert-systemerne
Selve konceptet om intelligente maskiner har rødder tilbage til 1950’erne, hvor forskere som Alan Turing og John McCarthy begyndte at udforske, hvordan maskiner kunne simulere menneskelig intelligens.
Turing foreslog i 1950 idéen om en “tænkende maskine” via sin berømte Turing-test, som foreslog menneskeligt sprog som en god lakmustest for intelligens. Seks år senere, i 1956, introducerede McCarthy så termen ’kunstig intelligens’. For ham var fokus primært på regelbaserede systemer, der kunne løse specifikke opgaver såsom matematisk problemløsning.
Det blev efterfulgt i 1960’erne og 70’erne af udviklingen af de første ekspert-systemer. Det var programmer, der kunne træffe beslutninger baseret på komplekse regelsæt, og som blev brugt inden for medicin og ingeniørvidenskab. De var imidlertid begrænset af deres manglende evne til at lære og tilpasse sig nye situationer.
Det var også i 70’erne og især 1980’erne, at vi fik de to store såkaldte ’AI winters’. Det var årtier med faldende investeringer og interesse for kunstig intelligens, fordi de teknologiske fremskridt ganske enkelt gik i stå. Man oplevede derudover, at da overoptimistiske forudsigelser ikke blev indfriet, hvilket forstærkede skuffelsen og reducerede investeringerne markant.
Bots og MAS
I 1990’erne fik vi imidlertid nogle mere intelligente systemer i hvert fald indenfor forskerområdet, hvilket på ny gav grobund for investeringer og optimisme. Den menige bruger oplevede, at softwarebots kunne begynde at udføre simple opgaver for dem på internettet. Eksempelvis indeksere websider (Googlebot) eller automatisere kundeservice.
Det var også 1990’erne, at interessen voksede for de såkaldte multi-agent systemer (MAS). MAS-systemer blev brugt til opgaver som trafikstyring, simuleringer og distribueret problemløsning, men de var væsentligt mindre avancerede end dem, vi kender i dag, og med meget begrænsede kommunikations- og læringsevner.
Assistenter og neurale netværk
Ved overgangen til dette årtusinde gjorde maskinlæring og især dybe neurale netværk deres indtog. Selvom teknologien havde været kendt siden 1950erne, havde mængden af tilgængelige data samt hastigheden af tidens hardware hidtil begrænset den praktiske anvendelse, men grundet eksplosionen i data forårsaget af internettet og udviklingen af ny hardware blev det muligt for AI at lære fra data snarere end at være begrænset til faste regler.
Det lærte vi mennesker at kende igennem de avancerede AI-assistenter Siri fra Apple (2011) og Amazons Alexa (2014). Begge systemer var dog stadig passive og krævede menneskeligt input for at fungere effektivt.
I midten af 2010’erne fandt en række yderligere signifikante fremskridt sted indenfor AI. I 2016 blev neurale netværk revolutioneret qua bl.a. DeepMinds AlphaGo, der slog verdens bedste Go-spiller og demonstrerede AI’s evne til at mestre komplekse opgaver. Hvor AI i mange årtier havde kunnet vinde over os mennesker i et spil skak, så krævede det en hel anden form for kompleksitet at kunne slå en Go-spiller.
Uden at historieskrivningen skal udvikle sig alt for teknisk, så var den signifikante forskel her, at Go er sværere for en AI end skak på grund af spillets såkaldte branching factor og state space. Go har flere mulige træk per tur (≈200 mod ≈35 i skak) og flere mulige brætpositioner (>10¹⁷⁰ mod ~10⁴³ i skak). Det gjorde, at vores tidligere AI-teknologier kom til kort, mens de nye teknologier kombinerede supervised learning (policy network), reinforcement learning (self-play) og MCTS til trækvalg for derved at kunne undgå at simulere alle potentielle spil udspringende fra en bestemt brætposition, men i stedet kunne vælge et træk ved at bruge erfaring og mønstergenkendelse.
Generativ AI og ChatGPT
I de følgende år efter AlphaGo blev AI mere kontekstuel og proaktiv, især med fremkomsten af transformerbaserede modeller som OpenAI’s GPT-serie (fra 2018). Disse modeller kunne ikke bare forstå, men også generere menneskelignende tekst, hvilket lagde fundamentet for mere avancerede intelligente agenter.
I de samme år skabte iværksætterne Jonathan Løw & Anders Thiim, der også står bag AGENTDAGEN 2025, én af Danmarks første virksomheder indenfor generativ AI, og det var i det hele taget nogle fascinerende år, hvor vi selv herfra lille Danmark kunne fornemme, at noget banebrydende var på vej.
Fra 2020 og frem blev der sat øget fokus på multimodale AI-systemer, der kunne forstå og kombinere tekst, billeder og lyd, hvilket gjorde dem mere alsidige og anvendelige. Samtidig blev AI en integreret del af hverdagen, fra sundhedssektoren til smarte hjem og erhverv.
I november 2022 skete så det helt store gennembrud for generativ AI, der hjalp os med at forstå, hvad AI bredt set var i stand til. ChatGPT blev lanceret og havde en måned senere over 100 millioner brugere.
Både ChatGPT og Microsoft Copilot er eksempler på, når AI for alvor skaber værdi. De kræver imidlertid fortsat, at vi mennesker fører an, når det handler om at tilføre AI kontekst, og som brugere erfarede vi hurtigt, at selvom begge værktøjer er gode, så er de ikke mestre i noget. De er anvendelige, men ordinære.
AI-agenter
Fra april 2023 begyndte vi at se beviser på, at AI kunne udføre lister af opgaver selvstændigt. De mest kendte eksempler var AI-agenter inden for kodegenerering som OpenAI’s Code Interpreter eller Cognition’s Devin.
I skrivende stund befinder vi os et sted midt imellem co-pilot-modellen og ægte AI-agenter. I arbejdet med denne event har vi samtidig arbejdet med og afprøvet flere end 100 AI-agenter, så det er ikke længere blot et fænomen fra fremtiden, men nutid.
Det er imidlertid samtidig klart, at vi over de kommende år vil se en sand eksplosion i antallet af AI-agenter. Der vil komme millioner af dem. Når vi først får finpudset AI’s evne til at gennemføre opgaver og tage handling uden omfattende menneskelig supervision, vil vi aldrig gå tilbage.
Fremtidens agenter vil ikke være låst af simple “hvis-så”-regler, der skaber snæversynede løsninger. De vil kunne træffe strategiske beslutninger – ikke kun løse opgaver. Og når først AI-agenter kan innovere og operere med etablerede systemer for tillid og forklarbarhed, så vil vi med siden se fremkomsten af ægte AI-organisationer. Dvs. samlinger af AI-agenter og ’AI-innovatører’, der er i stand til at handle bredt. Her taler vi selvsagt ikke i 2025 eller 26, men det bliver banebrydende på sigt, fordi disse agenter vil kunne træffe beslutninger i komplekse miljøer og selvstændigt vælge, hvilke mål der er optimale, samt designe vejen til at nå dem.
Vi er således kommet til et sted i historieskrivningen, hvor AI kan blive en reel arbejdskraft, der kan automatisere forretningsprocesser, optimere drift i kommuner og skabe nye former for digital innovation.
Agenterne er den store revolution, vi har efterspurgt i årtier.
En AI agent består populært sagt af to dele, når man skal se den ud fra en brugers perspektiv:
1. ET INTERFACE. Det er der, hvor du interagerer med agenten. Det kunne være et chatvindue eller en voice-assistent (der vil dog også være agenter, som arbejder 100% i baggrunden uden et interface).
2. ET WORKFLOW. I dette workflow, fx eksemplet jeg beskrev ovenfor, går agenten eller agenterne i gang med at udføre en hel bunke af forskellige opgaver uden, at du behøver at give dem løbende instruktioner.
Du ser ikke hele dette flow, men du kan via interfacet lægge ’breaks’ ind undervejs, hvor du kan give feedback og komme med menneskeligt input. Også kaldet ”Human-in-the-loop” (HITL).
For at kunne fungere effektivt kræver din AI agent som regel tre hovedelementer:
1. En sprogmodel (LLM)
Det er her man fortæller agenten hvad for en opgave, den skal udføre.
Den bruger agenten til at forstå og generere sprog.
Du kan instruere den ved at skrive i menneskelig tekst, hvordan den skal opføre sig.
Du kan kombinere instruktionen med eksterne data for at forbedre præcisionen.
Den vil oftest være en generel, for-trænet model som er gjort tilgængelig af andre, da træningen af disse modeller er forholdsvis omfattende og kostbar.
2. Orkestreringslaget (Orchestration Layer)
Det bruges til at styre agentens arbejdsgang og sikre, at opgaverne bliver udført i den rigtige rækkefølge.
Det gør det samtidig muligt for agenten at huske tidligere interaktioner og træffe bedre beslutninger over tid.
Her anvender man teknikker som prompt engineering og reasoning frameworks til at forbedre output. Prompt engineering handler om at give AI’en præcise og målrettede input, mens reasoning frameworks strukturerer AI’s beslutningsproces for bedre logik, planlægning og problemløsning i komplekse opgaver. Det kunne for eksempel være at lade en agent kontrollere en anden agents output for fejl.
3. Værktøjer
Værktøjerne er dem, der muliggør handlinger i den virkelige verden. Der findes fire hovedtyper her:
Extensions – Det er direkte integrationer med API’er (fx Google Flights, vejrdata, databaser). Disse er typisk gjort tilgængelige af AI udbydere som OpenAI eller Anthropic.
Functions – Det er skræddersyet program kode skrevet af udvikleren af agent systemet, men gjort tilgængelig for agenten. Agenten kan anmode om at køre programmerne som en del af sin arbejdsgang.
Workflows eller andre agenter – Det er andre automatiseringsworkflows eller sågar andre AI-agenter, som agenten kan bruge til at udføre sin opgave med.
Data Stores – Det muliggør adgang til eksterne datakilder og giver agenten opdateret viden.
Nogle udgaver af AI-agenterne vil være præ-programmerede, hvor man kan bruge en robotstøvsuger som et billede på det (den følger altid en fast rengøringsplan), mens andre løbende tilpasser sig dine præferencer ved at lære mønstre, eksempelvis foreslå ideelle mødetider baseret på dine tidligere valg og arbejdsrutiner.
Vi glæder os også megameget til AGENTDAGEN 2026!
Skriv dig op her, så får du besked, når vi åbner op for billetsalget :)