
Problemet är inte brist på data, utan brist på processer som förankrar mening och ansvar.
Under lång tid har västerländska samhällen burits av en någorlunda stabil föreställning om kunskapens väsen: att den ytterst vilar på mänsklig erfarenhet, prövning och ansvar. Fakta har kunnat ifrågasättas och tolkningar har kunnat konkurrera, men det har funnits institutioner, praktiker och normer som gjort det möjligt att avgöra vem som talar, utifrån vilka erfarenheter och med vilket ansvar.
Kunskap har inte varit entydig, men den har varit förankrad i det mänskliga.
I dag är denna ordning under prövning. Inte därför att vi vet mindre, utan därför att språk, analyser och representationer i ökande grad frikopplas från mänsklig förståelse. Historikern Yuval Noah Harari beskriver i sin bok Nexus detta som en förskjutning i våra kunskapssystem: informationsflöden som växer snabbare än vår kollektiva förmåga att tolka, värdera och korrigera dem. Problemet är inte brist på data, utan brist på processer som förankrar mening och ansvar. När dessa processer försvagas riskerar kunskapssystemen att börja reproducera sig själva utan tillräcklig mänsklig prövning.
Resultatet en obalans
Filosofen Shannon Vallor utvecklar ett liknande perspektiv, men från ett etiskt håll. I The AI Mirror beskriver hon hur våra tekniska förmågor har accelererat snabbare än våra moraliska och epistemiska praktiker. Resultatet är inte nödvändigtvis en kollaps, utan en obalans: vi kan generera svar innan vi hunnit formulera de frågor som gör dem meningsfulla. Det är i denna spänning, mellan produktion och förståelse, som talet om en epistemologisk och ontologisk prövning har fått fäste.
Mot denna bakgrund bör generativ AI förstås. Inte enbart som ett nytt verktyg, utan som en teknik som påverkar villkoren för hur kunskap uttrycks, cirkulerar och uppfattas. När språk, analyser och textuella representationer kan produceras syntetiskt i industriell skala förändras inte bara tempot i det offentliga samtalet, utan också dess läsbarhet: vad som går att tolka som erfarenhet, som omdöme, som ställningstagande.
Frågan om kunskapens infrastruktur är inte ny. Under de senaste decennierna har vi sett hur teknisk utveckling successivt har sänkt trösklarna till det offentliga samtalet, förstått som de arenor där texter, tolkningar och narrativ formas, cirkulerar och prövas inför andra. Digitala plattformar har gjort det möjligt för fler att delta i dessa processer, men har samtidigt, steg för steg, omformat villkoren för tillit, auktoritet och uppmärksamhet genom att påverka vilka röster som får genomslag, hur resonemang sprids och vilka uttryck som premieras. Det är denna dubbla erfarenhet som gör det meningsfullt att blicka något tillbaka.

När bloggar och sociala medier slog igenom i mitten av 2000-talet talade många om en demokratisering av det offentliga samtalet. Nya tekniska verktyg gjorde det möjligt för fler att delta med sin egen röst, utan att passera etablerade redaktionella filter. Inträdesbarriärerna sänktes, gräsrotsengagemang växte fram och perspektiv som tidigare haft svårt att ta plats blev synliga vid sidan av traditionella medier. För många innebar detta en faktisk breddning av offentligheten, både i termer av vilka som kunde tala och vilka erfarenheter som kunde göras gemensamma.
Samtidigt blev det med tiden tydligt att samma infrastrukturer som möjliggjorde denna breddning också formade nya begränsningar. Plattformar som initialt uppfattades som öppna arenor utvecklades gradvis till algoritmiskt styrda ekosystem där kommersiella logiker fick ett allt större genomslag. Redaktionella ideal och långsammare prövning trängdes ofta undan av klickoptimering, polarisering och uppmärksamhetsekonomi. Det offentliga samtalet fragmenterades, och kvalitet riskerade att bli en bieffekt snarare än ett uttalat mål. Demokratiseringen av uttryck sammanföll därmed med en professionalisering av uppmärksamhet.
Med generativ AI befinner vi oss i ett nytt tekniksprång. Återigen talas det om demokratisering, denna gång av skrivande, analys, kreativitet och kunskapsproduktion. Och på många sätt är det sant. Generativ AI används redan brett: för skrivande och textbearbetning, bild- och musikskapande, design, röstsyntes och andra kreativa processer, men också för administration, programmering, research och dataanalys samt strategiskt beslutsstöd. Det är inte längre ett specialiserat verktyg, utan en generell produktivitetsteknik med djupgående konsekvenser för hur kunskap produceras och cirkulerar.
Även tolkningen outsourcas
Men också denna teknik är inbäddad i sociala och kommersiella strukturer. Inom marknadsföring och kommunikation söker nu många efter nya sätt att optimera sitt innehåll för språkmodellernas logik. Från att rankas högt i sökmotorer är det i dag topplacering i språkmodellernas svarsfält som framstår som det nya målet, för att synliggöra produkter, torgföra idéer och påverka hur frågor över huvud taget formuleras och besvaras.
Här uppstår en ny form av uppmärksamhetsekonomi, där inte bara synlighet utan även tolkning i praktiken outsourcas till kommersiellt drivna system.
De modeller som formar dessa maskinella svar uppstår inte i ett neutralt rum. De tränas på historiska data, formas av urval och viktningar, och utvecklas inom institutionella, kulturella och ideologiska ramar som påverkar vad som framstår som rimligt, relevant och sannolikt. När dessa modeller i ökande grad också tränas på syntetiskt material riskerar de dessutom att fjärma sig från sina ursprungliga referenser, vilket gör frågan om mänsklig granskning än mer central.
Här skärps frågan om vad som händer med omdöme, mening och ansvar när allt fler uttryck, analyser och representationer bygger på syntetiska data.
Det är frestande att se generativ AI som en fortsättning på skrivandets och kunskapsproduktionens demokratisering. Men jämförelsen haltar. De tidigare digitala skiftena gav fler människor möjlighet att tala med sina egna röster. Generativ AI riskerar i stället att förstärka en ytlig likriktning, där allt fler kommunicerar genom språk, former och uttryck som inte är deras egna.
Det som tidigare gav trovärdighet; utbildning, yrkeserfarenhet, fördjupning och kontextuell förståelse, kan nu simuleras genom några snabba instruktioner (promptar). Det innebär inte att resultatet nödvändigtvis är felaktigt. Mycket av det som produceras är korrekt, ibland av imponerande kvalitet. Men det gör det svårare att avgöra vem som står bakom ett resonemang, vilka erfarenheter som bär upp det, och vilket ansvar som kan utkrävas.
Ägarskapet blir mer diffust eller löses upp.
Mer svåravlästa underlag
De narrativa särarter som tidigare hjälpte oss att identifiera individer, professioner, discipliner eller kulturer; forskarens metod, juristens resonemang, konstnärens uttryck, blir mindre tydliga. Även journalistens prövning och redaktionella omdöme riskerar att reduceras till ännu en stil bland andra. Intressegruppers och institutioners narrativa teman blir svårare att spåra när uttrycken frikopplas från individ och grupp. Underlagen för de offentliga rösterna blir inte bara mer omfattande, utan också mer svåravlästa: rika på text, men fattigare på igenkännbara perspektiv.
Narrativ ska här inte förstås som enskilda berättelser, utan med de meningsramar och processer genom vilka erfarenheter ordnas, tolkas och ges riktning över tid. Det är genom dessa processer som handlingar kan förstås i relation till värderingar, och som ansvar kan formuleras bortom det omedelbara.
Filosofer som Paul Ricoeur har visat hur narrativ genom denna rörelse binder samman tid, handling och ansvar. Genom att erfara, formulera och omformulera skapas sammanhang där både individers och institutioners handlande kan förstås, ifrågasättas och omförhandlas. Psykologen Jerome Bruner har på liknande sätt visat hur narrativ förståelse skiljer sig från analytisk förklaring: den reducerar inte komplexitet, utan gör den möjlig att leva med.
När språk och texter i ökande grad reduceras till modeller och algoritmer riskerar denna narrativa rörelse att förkortas eller avbrytas. Inte därför att systemen saknar struktur, även mänskligt tänkande är format av ramar, traditioner och begrepp, utan därför att de är låsta till de ramverk som byggts in i deras modeller, plattformar och träningsdata, utan möjlighet att själva ompröva eller överskrida dem. De kan generera nya kombinationer, men inte reflektera över de förutsättningar som gör kombinationerna möjliga. Det som återstår är ofta välformulerade texter som lätt kan tillgodogöras, men som är svåra att placera i ett större meningssammanhang.
Generativ AI kan förstärka vår kognitiva kapacitet. Den kan hjälpa oss att strukturera komplex information, identifiera mönster, simulera scenarier och utforska idéer snabbare än tidigare. Men den avgör inte vad som är relevant, rimligt eller önskvärt. Den kan producera underlag, men inte ta ansvar för slutsatserna. Filosofen Michael Polyani beskrev detta som skillnaden mellan explicit och tyst kunskap, mellan det som kan formaliseras och det som endast kan utvecklas genom erfarenhet och omdöme.
Söker fortfarande mänskligt omdöme
Skillnaden mellan automatiserad produktion och meningsfull analys blir därmed avgörande. Vi accepterar gärna att AI sammanställer fakta, sammanfattar forskning eller producerar tekniska instruktioner. Men när det handlar om att tolka sammanhang, väga perspektiv eller fatta normativt laddade beslut söker vi fortfarande mänskligt omdöme, inte av nostalgiska skäl, utan av funktionella. Nobelpristagaren Daniel Kahneman beskrev detta som skillnaden mellan snabbt och långsamt tänkande: effektiv bearbetning respektive reflekterande prövning.
En konkret följd av utvecklingen är den innehållsinflation vi redan ser. Text, bilder, analyser och förslag kan produceras i en hastighet och till en kostnad som tidigare var otänkbar. Spekulationer om ”the dead internet” bör tas med försiktighet, men de pekar mot en reell erfarenhet: det blir allt svårare att urskilja mänsklig närvaro, intention och ansvar i digitala miljöer, inte för att innehållet alltid är falskt, utan för att det ofta saknar relation.
Ekonomer som Robert J. Shiller har visat hur berättelser sprids som sociala fenomen med konkreta konsekvenser. När narrativ kan massproduceras utan motsvarande prövning ökar risken för snabb spridning utan ansvar. Det gäller ekonomiska förväntningar, politiska stämningar och kulturella föreställningar.
Här finns skäl att blicka mot den vetenskapliga processen som ett exempel på ett självkorrigerande system, som Harari beskriver det. Vetenskapen är ingen garanti för sanning, men den är organiserad kring institutionaliserat tvivel: en social process där påståenden måste kunna försvaras inför andra med relevant kompetens. Oenighet är inte ett misslyckande, utan en förutsättning för kunskapsutveckling.

Foto: Center for the study of existential risk.
Samtidigt är även detta system under tryck. Antalet vetenskapliga texter ökar kraftigt, något som också AI-användningen bidrar till, medan tillgången på kvalificerade granskare är begränsad. När produktion av texter accelererar och kostnaden för generering sjunker, ökar belastningen på de processer som ska avgöra vad som är relevant, hållbart och tillförlitligt. Det som tidigare betraktades som bakgrundsarbete, urval, tolkning och värdering, blir därmed mer tidskrävande och mer avgörande. Här sammanfaller akademins utmaningar med samhällets i stort.
Sammantaget pekar utvecklingen mot en möjlig renässans för de mänskliga kvaliteterna. Inte som motstånd mot den nya tekniken, utan som förutsättning för att använda den klokt. I en offentlighet där alltmer kan produceras utan friktion förskjuts värdet från produktion till förståelse, från synlighet till relevans.
Men denna renässans för det mänskliga är inte självklar. Den uppstår inte automatiskt ur teknisk utveckling och kommersiella krafter. Om generativ AI ska bidra till fördjupad förståelse snarare än ytterligare likriktning krävs uppmärksamhet på de narrativa villkor genom vilka tekniken ges mening och riktning. Vilka perspektiv görs synliga? Vilka antaganden byggs in som självklarheter? Och vilka praktiker för urskiljning och prövning är vi beredda att värna när tempot fortsätter att öka?
Kanske är det just här, i spänningsfältet mellan snabb generering och långsam förståelse, som framtidens avgörande frågor tar form. Inte som tekniska problem med givna lösningar, utan som kulturella och intellektuella mänskliga prövningar vars utfall ännu är öppet.
Joakim Lind, filosofie doktor i företagsekonomi vid Åbo Akademi och kommunikationskonsult
Följ Dagens Arena på Facebook och Twitter, och prenumerera på vårt nyhetsbrev för att ta del av granskande journalistik, nyheter, opinion och fördjupning.
