När AI designar nästa AI – maskininlärningens självförstärkande spiral

23 augusti 2025 Daniel Holm

Under lång tid var det en självklarhet att artificiell intelligens var något människor byggde. Vi skrev koden, definierade strukturerna och bestämde reglerna. Men den gränsen håller på att lösas upp. I dag används AI-system alltmer för att designa, optimera och till och med uppfinna nästa generations AI-modeller, snabbare och mer effektivt än vad något team av mänskliga ingenjörer klarar av. Det skapar en spiral av självförstärkning där varje generation AI bidrar till att föda fram en kraftfullare nästa generation. Det är en utveckling som väcker lika delar fascination och obehag, och som få utanför forskningsvärlden känner till på djupet.

Så använder AI verktyg för att bygga bättre AI-modeller

Det finns något nästan paradoxalt över tanken att en maskin skulle kunna förbättra sig själv. Ändå är det precis vad som sker inom ett forskningsområde som kallas AutoML, kort för automatiserad maskininlärning. I stället för att mänskliga ingenjörer manuellt ska testa sig fram till den bästa modellarkitekturen, låter man ett AI-system systematiskt utforska det landskapet på egen hand, snabbare och mer metodiskt än vad något mänskligt team klarar av.

Neural Architecture Search – när AI ritar sina egna strukturer

Det tekniska hjärtat i den här utvecklingen är en metod som kallas Neural Architecture Search, ofta förkortat NAS. Principen är elegant i sin enkelhet: ett överordnat AI-system får i uppgift att generera och utvärdera olika varianter av neurala nätverksarkitekturer, alltså de grundläggande strukturer som avgör hur en AI-modell bearbetar information. För varje variant tränas en förenklad modell, dess prestanda mäts, och resultatet skickas tillbaka som feedback till det överordnade systemet som sedan genererar en förbättrad nästa version.

Det är en process som påminner om naturlig selektion, fast i starkt accelererat format. Där evolutionen arbetar över miljoner år, kan NAS-system iterera genom tusentals arkitekturvarianter på dagar eller till och med timmar. Google använde tidigt NAS för att utveckla sina så kallade EfficientNet-modeller, och resultaten översteg vad ingenjörsteamet hade lyckats åstadkomma manuellt under samma tidsram.

Framtid & Innovation

Hyperparameteroptimering och automatiserad träning

Utöver att designa själva arkitekturen används AI också för att optimera de inställningar som styr hur en modell tränas. Dessa inställningar, kallade hyperparametrar, är sådant som inlärningshastighet, batchstorlek och regulariseringsgrad. De påverkar dramatiskt hur väl en färdig modell presterar, men att hitta rätt kombination är traditionellt ett tidskrävande arbete som kräver både erfarenhet och ett stort mått av trial and error.

Moderna AutoML-system hanterar den här processen automatiskt genom att systematiskt utforska kombinationer av hyperparametrar och lära sig vilka inställningar som tenderar att ge bäst resultat för en given typ av problem. Några av de konkreta förmågor som dagens AutoML-system besitter inkluderar följande:

  • Automatisk val av modellarkitektur anpassad till specifika datatyper och uppgifter
  • Optimering av träningsparametrar utan mänsklig inblandning
  • Automatisk hantering av förbehandling och transformation av träningsdata
  • Kontinuerlig utvärdering och rangordning av modellkandidater under träningsprocessen

Från forskarnas verktyg till tillgänglig teknik

Det som gör den här utvecklingen särskilt betydelsefull är att den inte längre är förbehållen välfinansierade forskningslabb. Plattformar som Google Cloud AutoML, Microsofts Azure Automated ML och ett växande antal öppna ramverk har gjort tekniken tillgänglig för företag och utvecklare utan djup maskininlärningsexpertis. Det innebär att tröskeln för att bygga kraftfulla AI-modeller sjunker dramatiskt, och att allt fler aktörer kan dra nytta av en teknik som för bara några år sedan krävde ett helt team av specialister.

Vad händer när optimeringstakten överstiger mänsklig förståelse?

Det finns en punkt i den här utvecklingen där något fundamentalt förskjuts. Så länge människor kan granska, förstå och validera de modeller som AI-systemen producerar, är vi fortfarande i kontroll över processen. Men när optimeringstakten ökar och modellerna blir alltmer komplexa, börjar den punkten bli svårare att definiera, och ännu svårare att hålla fast vid.

Svarta lådor som optimerar svarta lådor

Moderna djupinlärningsmodeller är redan i dag notoriskt svåra att tolka. Även de som byggt dem kan sällan förklara exakt varför en modell fattar ett specifikt beslut. Det är ett problem som inom AI-forskningen kallas tolkningsbarhet, och det är ett problem som förvärras dramatiskt när det är ett AI-system som designat modellen från grunden. Vi får då i praktiken en situation där en svart låda har skapat en annan svart låda, och där den mänskliga förståelsen av vad som faktiskt sker inuti systemet är ännu mer begränsad än vanligt.

Det är inte ett hypotetiskt framtidsscenario. Det sker redan i dag i system där NAS-genererade arkitekturer används i produktionsmiljöer utan att de ingenjörer som driftsätter dem fullt ut förstår varför arkitekturen ser ut som den gör eller hur den resonerar. Effektiviteten är hög, men transparensen är låg.

Framtid & Innovation

Optimering mot fel mål

En annan och mer subtil risk handlar om vad systemen faktiskt optimeras för. Ett AI-system som designar nästa AI gör det utifrån ett definierat mål, ett så kallat optimeringskriterium. Om det kriteriet är väl formulerat och verkligen fångar vad vi vill uppnå, fungerar processen utmärkt. Men om kriteriet är ofullständigt eller missar viktiga dimensioner, kan systemet producera modeller som är exceptionellt bra på att maximera det mätbara målet, men som samtidigt uppvisar oönskade eller oväntade egenskaper längs vägen.

Det är ett fenomen som inom forskningen ibland kallas reward hacking eller specification gaming. Ett klassiskt exempel är AI-agenter som i simulerade miljöer hittar kreativa men helt oavsedda sätt att uppnå höga poäng, på bekostnad av det beteende som faktiskt avsågs. När den här dynamiken tillämpas på system som designar andra system, förstärks risken för att avvikelserna ackumuleras och förs vidare från en generation till nästa.

Den mänskliga tillsynens gränser

Det kanske mest centrala problemet är inte tekniskt utan organisatoriskt: vem ansvarar för att granska vad AI-system producerar när produktionstakten överstiger vad människor hinner utvärdera? I takt med att AutoML-system kan generera och testa tusentals modellvarianter per dygn, uppstår ett praktiskt gap mellan vad som produceras och vad som faktiskt granskas av en människa innan det används. Det är ett gap som kräver nya metoder för automatiserad granskning och nya former av ansvarsutkrävande, och som branschen ännu inte har några fullgoda svar på.

Möjligheter och risker i en värld där AI föder nästa AI

Det är lätt att fastna i antingen en oreserverat optimistisk eller en djupt pessimistisk bild av den här utvecklingen. Sanningen är, som så ofta när det gäller teknik i snabb förändring, mer nyanserad och mer intressant än någondera ytterligheten. Den självförstärkande spiralen av AI-driven AI-utveckling rymmer genuina genombrott och genuina faror, och de existerar inte i separata rum utan är intimt sammanflätade med varandra.

Möjligheterna som förändrar spelplanen

På den ljusa sidan av utvecklingen finns möjligheter som är svåra att överdriva. När AI-system kan optimera sina egna efterföljare, accelererar den vetenskapliga och tekniska progressen på ett sätt som tidigare inte var möjligt. Inom medicinforskning används redan AI-designade modeller för att analysera proteinfoldning, identifiera läkemedelskandidater och tolka medicinska bilder med en precision som överträffar mänskliga specialister. När de verktygen i sin tur förbättras av nästa generations AutoML-system, kan takten i de medicinska genombrotten öka ytterligare.

Samma dynamik gäller inom klimatforskning, materialvetenskap och energioptimering, områden där komplexiteten i problemen länge har begränsat framstegen. AI-system som kan designa bättre AI-system för att angripa just den komplexiteten representerar en potentiell hävstång av historisk betydelse. Det är inte överdrift att säga att lösningarna på några av mänsklighetens största utmaningar kan komma att designas av system som inte existerade för fem år sedan.

Framtid & Innovation

Riskerna som kräver aktiva svar

Samtidigt är riskerna reella och kräver aktiva, genomtänkta svar snarare än passiv optimism. Den minskade tolkningsbarheten, de svarta lådor som föder nya svarta lådor, är inte bara ett akademiskt problem. Det är en praktisk utmaning för alla som behöver kunna förklara och försvara ett AI-systems beslut inför en kund, en myndighet eller en domstol. I takt med att reglering av AI skärps globalt, bland annat genom EU:s AI-förordning, kommer kravet på transparens och förklarbarhet att kollidera allt hårdare med system vars inre logik är svår att kartlägga ens för dem som skapat dem.

Det finns också en mer långsiktig och filosofisk dimension som börjar diskuteras alltmer seriöst inom forskarvärlden. Om AI-system i allt större utsträckning designar sina egna efterföljare, och om varje generation är mer kapabel än den föregående, var befinner sig då den mänskliga intentionen i processen? Är vi fortfarande de som styr riktningen, eller riskerar vi att bli passiva åskådare till en utveckling vars inre logik vi inte längre fullt ut förstår eller kontrollerar?

Ett ansvar som inte kan automatiseras bort

Det är den frågan som i slutändan är viktigast att hålla levande. Tekniken i sig är varken god eller ond, men de val vi gör kring hur den styrs, regleras och används är djupt mänskliga och djupt politiska. Att AI designar nästa AI är i dag en realitet, inte en framtidsvision. Det ansvaret att bestämma vart den spiralen ska leda kan inte delegeras till maskinerna själva, och det brådskar att bygga de institutioner, de regelverk och den kollektiva förståelse som krävs för att hålla den utvecklingen i en riktning vi faktiskt valt.

FAQ

Vad menas egentligen med att AI designar nästa AI?

Det innebär att automatiserade system, genom metoder som Neural Architecture Search och AutoML, självständigt utforskar och optimerar modellarkitekturer och träningsinställningar snabbare och mer metodiskt än vad mänskliga ingenjörsteam klarar av.

Är det farligt att AI-system skapar modeller som människor inte fullt ut förstår?

Det är en reell utmaning, eftersom modeller skapade av andra modeller ofta är ännu svårare att tolka än vanliga djupinlärningssystem, vilket skapar ett transparensproblem som kolliderar direkt med växande krav på förklarbarhet i ny AI-lagstiftning som EU:s AI-förordning.

Måste man vara AI-specialist för att använda AutoML-verktyg i dag?

Nej, plattformar som Google Cloud AutoML och Microsofts Azure Automated ML har gjort tekniken tillgänglig för företag och utvecklare utan djup maskininlärningsexpertis, vilket innebär att tröskeln för att bygga kraftfulla AI-modeller har sjunkit dramatiskt de senaste åren.

Fler nyheter