Vad kommer att hända med “AI” nu då?

I princip drar jag tre slutsatser på svängningen inom Big Tech, där det nu plötsligt är ”officiellt hippt” att tvivla på LLM-spåret.

Teknik: avtagande avkastning på ”större modell, mer data, mer GPU”. Det vi kallar “AI-tjänster” blir inte bättre för varje dag, snarare tvärtom pga ”scaling wall” samt tak för tillgänglig data. Nu är nätet skrapat, och framöver får vi dessutom en ökande andel LLM-genererat innehåll, vilket kommer sänka kvaliteten på den data som nya modeller bygger på.

Ekonomi: värdet idag är ofta lokalt och taktiskt  –  inte den breda, ”Internet-nivå” som utlovades av techbolagen initialt. (”Feel the AGI”, som Sam Altman sa. Idag hävdar han att begreppet ”AGI” inte är användbart.)

Samhälle: problemet är inte bara vad LLM:er kan, utan hur de levereras — som slutna tjänster, inte som öppen infrastruktur.

Vi närmar oss gränserna för fysik, data och ekonomi samtidigt. Det blir en stor utmaning för övervärderade bolag. Därför pratar man ju nu om bubbla. Märk väl: precis som med IT-kraschen 2001/2002 så är det en ekonomisk bubbla. Transformerteknologin kommer att finnas tillgänglig, fast antagligen inte på det viset som OpenAI, Google och de andra techjättarna har gjort gällande. Det finns så klart också en stor trötthet på hypen  – och det påverkar också investeringsvilja, intresse och retorik.

Vissa tror att LLM:er bara är en övergångsteknik som snart ersätts av mer strukturerade system; andra tror att LLM-familjen fortsatt kommer vara ett centralt gränssnitt, men att värdet sitter i hur den kopplas till annan AI, data och verktyg. Den som lever får se.

Att kalla ChatGPT, Claude, Grok, Gemini etc. för ”verktyg” eller ”infrastruktur” är dock gravt missvisande både i ekonomisk och semantisk mening. Låt oss börja med begreppet verktyg:

Verktyg eller tjänst?

LLM:erna säljs som ”verktyg”, men är i själva verket ”tjänster”. Här ligger en enormt viktig distinktion. Många tror att de ”skapar” något med hjälp av AI. Det gör de så klart inte: de beställer bild/text/film av en tjänst. Användarna sitter helt i händerna på privata leverantören.

Det är en maktfråga.

Ett verktyg är något du som användare äger eller kontrollerar: en hammare, en kamera, ett textredigeringsprogram. Du kan använda det offline. Du kan uppgradera när du vill. Du kan ta ansvar för resultatet, eftersom beteendet är stabilt och förutsägbart.

En tjänst fungerar i princip tvärtom. Den förändras kontinuerligt, utan ditt medgivande. Den kan försämras, begränsas, behäftas med ny prismodell eller dras tillbaka helt. Den kan börja servera annonser. Den kan börja prioritera andra kundgrupper än dig. Den kan få nya regler för vad som är “tillåten användning”. Och när något går fel kan leverantören alltid hänvisa till att du har “använt tjänsten fel”.

När LLM:er marknadsförs som verktyg skapas en illusion av användarmakt som inte existerar.

Du skapar inte med en LLM på samma sätt som du skapar med en kamera eller ett ritprogram. Du lägger en beställning hos en svart låda, vars inre logik, träningsdata, säkerhetsfilter, optimeringsmål och affärsintressen är helt utanför din kontroll. Resultatet är inte ditt hantverk – det är ett levererat svar från en privat aktör.

Det betyder inte att tekniken är värdelös. Men det betyder att relationen mellan användare och leverantör är fundamentalt asymmetrisk.

I praktiken sitter användaren i händerna på leverantören på minst fem sätt: 1. Teknisk kontroll – modellen ändras löpande, ibland drastiskt, utan transparens. 2. Affärskontroll – prissättning, kvoter, annonser och abonnemangsvillkor kan ändras över en natt. 3. Juridisk kontroll – användningsregler och ansvarsförskjutning skrivs ensidigt av leverantören. 4. Epistemisk kontroll – du kan inte verifiera hur eller varför ett svar genereras. 5. Produktkontroll – tjänsten kan stängas ner, degraderas eller regionbegränsas när som helst.

Detta är alltså hur en tjänst beter sig. Inte hur ett verktyg beter sig.

Och i OpenAIs fall blir det extra tydligt hur skör hela metaforen är. Deras tjänst har existerat i ungefär tre år. Det är ingenting i infrastrukturella termer. Det går inte att jämföra med internet, elnätet eller mobilnätet, som byggts upp under decennier, reglerats, standardiserats och distribuerats mellan många aktörer.

Att redan nu tala om “AI som ett allmänt verktyg” eller “grundläggande infrastruktur” är att förväxla hype med mognad.

Det vi har i dag är ett fåtal privata tjänster med extrem koncentration av makt, minimal insyn och snabbt skiftande affärsmodeller. Att kalla dem verktyg gör dem oförtjänt stabila, neutrala och oskyldiga i människors föreställningsvärld.

Språket vi använder formar hur vi förstår ansvar, makt och beroende.

Så länge vi kallar LLM-baserade tjänster för verktyg kommer vi att fortsätta låtsas att användaren har kontroll. Det har hen inte.

Infrastruktur?

Internet bygger på öppna protokoll (TCP/IP, HTTP, SMTP …). Ingen äger ”internet” som infrastruktur. Likaså mobilvärlden vilar på standardiserade nät (GSM, LTE, 5G) och hårdvara där flera aktörer kan konkurrera på varje lager. Tack vare reglering och standardisering (som en kommentar på det tröttsamma feltänket att ”reglering hindrar innovation”).

Vi som konsumenter kan, i princip, byta: webbläsare, operatör, hårdvara och till och med OS och ändå vara på samma nät. Det innebär interoperabilitet, mångfald av leverantörer och stabilitet (protokoll överlever vanligtvis bolag). Google, Apple och Microsoft är gamla i gamet, men har inte funnits alls lika länge som infrastrukturen för deras produkter.

LLM:er i praktiken idag är tränade på hemliga dataset, med hemliga metoder, hostade på leverantörens egna moln (OpenAI, Google, Anthropic m.fl.) och endast nåbara via API:er och appar där hela stacken ägs, drivs och kan ändras ensidigt av leverantören. Dvs, de är extremt proprietära, vilket leder till lock-in och “kunskapsinfrastruktur som privat produkt”. Därav den stora faran då t.ex. Google går in så aggressivt mot lärandesektorn med Gemini och NotebookLM och försöker bli den centrala kontrollerande noden i vetenskaplig kunskapsproduktion och lärande.

Så hur blir det då?

Ponera att techbolagen och deras “AI”-tjänster förminskas/försvinner. Då säger historien att teknologin (transformer-baserade LLM:er i det här fallet) blir en öppen arkitektur, snarare än privata tjänster. Då skulle de kunna hamna i samma kategori som databas-motorer eller TCP/IP: ett grundlager som nästan ingen ”ser”, men som allt bygger på. Då skulle det kunna handla om:

Slutet på en era

Vilda västern-eran når sitt slut och vi får mer vikt på standarder och “governance”. Tekniker som överlevt sina första generation (internet, elnät, järnväg, flyg) har alltid behövt standardiseringsorgan, normer och ibland mellanstatliga avtal för att fungera långsiktigt. Om LLM:er blir infrastruktur i samma mening kommer vi förr eller senare landa i öppna standarder för modellformat, träning, certifiering/reglering av vissa användningsområden (likt luftfart, läkemedel), samt separation mellan den som definierar standard, den som implementerar och den som driver tjänsterna.