Från ”Prompting” till Planering: Nästa våg av AI-utveckling handlar om resonemang
Artificiell intelligens står inför sitt största skifte sedan lanseringen av ChatGPT. Fokus flyttas nu från att bara förutsäga nästa ord till att faktiskt planera och resonera kring komplexa problem. Vi går in i eran av ”System 2”-tänkande för maskiner.
Under de senaste åren har vi vant oss vid stora språkmodeller (LLM) som fungerar som blixtsnabba statistiska maskiner. Genom att analysera enorma mängder text har de lärt sig att förutsäga vilket ord som mest sannolikt bör följa på det föregående. Men trots deras imponerande förmåga att skriva poesi eller sammanfatta texter, har de ofta fallit platt vid komplex logik eller avancerad matematik.
Nu sker en fundamental förändring i hur dessa system byggs, med amerikanska OpenAI i spetsen genom sin nya o1-serie.
Från instinkt till eftertanke
För att förstå skiftet kan man låna psykologen Daniel Kahnemans teorier om mänskligt tänkande:
- System 1: Snabbt, instinktivt och emotionellt (likt dagens standard-GPT-modeller).
- System 2: Långsammare, mer logiskt och beräknande.
De nya resonemangsfokuserade modellerna är designade för att aktivera detta ”System 2”. Istället för att kasta ur sig ett svar omedelbart, använder de en intern ”tankekedja” (Chain of Thought). De bryter ner problem i mindre delar, utvärderar olika vägar och korrigerar sig själva innan de presenterar ett resultat för användaren.
Tekniken bakom: Planering och sökning
Det som gör detta möjligt är en övergång från ren prediktion till avancerad planering. Genom att använda metoder som påminner om hur AI-program som AlphaGo spelar schack eller Go – specifikt Monte Carlo Tree Search – kan modellen simulera olika framtida scenarier i sitt tänkande.
Detta innebär att vi rör oss bort från konsten att skriva den ”perfekta prompten”. Tidigare var användaren tvungen att agera arkitekt och ge steg-för-steg-instruktioner. Med resonerande modeller ligger det ansvaret på AI:n själv. Den planerar sin egen strategi för att lösa uppgiften.
Varför detta spelar roll
Skiftet från prompting till planering är inte bara en teknisk detalj, utan en förutsättning för att AI ska kunna användas inom mer kritiska områden:
- Avancerad programmering: Modeller kan nu debugga sin egen kod genom att logiskt testa olika lösningar innan de körs.
- Vetenskaplig forskning: AI kan börja formulera och pröva hypoteser inom kemi och fysik.
- Matematisk problemlösning: Där tidigare modeller ofta gissade fel på sifferkombinationer, kan resonerande modeller nu lösa problem på tävlingsnivå.
En ny era för maskininlärning
Vi befinner oss i slutet av början för generativ AI. Om de senaste två åren handlade om att lära maskiner att prata, kommer de kommande åren att handla om att lära dem att tänka.
Utmaningen framöver ligger i beräkningskraft. Att låta en AI ”tänka” kräver betydligt mer resurser i realtid än att bara generera text. Men för de problem som kräver precision framför hastighet, är detta precis det genombrott marknaden har väntat på.

