krönika En viss skepsis mot politiska beslut är sund, men det håller inte som argument mot reglering av techföretagen, skriver German Bender.

Ekonomin har blivit alltmer datadriven och algoritmbaserad. En central insatsvara är data från och om var och en av oss, som samlas in och bearbetas på sätt som under lång tid varit mer eller mindre oreglerade och i stort sett gratis.

Vi genererar data i alla möjliga roller. Som anställda, föräldrar, konsumenter och studenter. När vi förflyttar oss, köper något, lyssnar på musik, söker på nätet, loggar in på datorn och drar passerkortet på jobbet. Beroende på hur avancerad utrusning vi äger kan vi generera data när vi sätter på brödrosten, öppnar fönstret, höjer värmeelementet.

Allt detta har lett till ökade krav på reglering för att skydda enskildas personliga integritet. Men eftersom många av oss uppenbarligen inte är så bekymrade över att generera och ge ifrån oss data (vore vi det skulle en stor del av världens mest lukrativa affärsmodeller inte ha fungerat de senaste 20 åren), framstår behovet av reglering kanske inte så stort.

Fokus har blivit för starkt på frågan om personlig integritet.

Somliga tycker kanske dessutom att de positiva effekterna av ett mer strikt dataskydd inte väger upp de potentiellt negativa effekterna på innovation, ekonomisk tillväxt och den ständiga tillgången på spännande och billiga tjänster och produkter.

Om detta kan man förstås tycka olika. Men jag menar att fokus har blivit för starkt på just frågan om personlig integritet, när konsekvenserna av den algoritmiska datadrivna ekonomin är mycket större än så. Eftersom jag personligen är intresserad av arbetsmarknaden tänker jag i första hand på hur anställningsvillkor, löner och arbetsmiljö kan påverkas. Därför argumenterade jag i min förra krönika för att fackföreningsrörelsen borde börja se GDPR och dataskydd som en hävstång för fackligt inflytande och inte som en snäv integritetsfråga.

Det handlar alltså inte bara om politisk reglering, utan också om hur andra aktörer och regelverk kan begränsa och styra insamlingen och bearbetningen av våra data.

Därför blev jag en aning förvånad över nationalekonomen Andreas Berghs senaste kolumn i DN, där han skriver att ”vi bör vara skeptiska till tanken att techföretagen måste regleras hårdare politiskt”.

Till viss del har han rätt, vilket jag återkommer till, men det kräver en omväg via några svagheter i hans resonemang.

Andreas Bergh är en av de svenska forskare som mest aktivt bidrar till samhällsdebatten, vilket hedrar honom. Fler borde göra det, för att bidra till en mer nyanserad och fördjupad diskussion om vilka företag, IT-system och regelverk vi vill ha i framtiden. Men att avfärda GDPR med att det bara lett till ett ”reflexmässigt klickande på godkänn-knappen” för att alla sajter vill att vi godkänner cookies, är att gravt förvanska frågan.

Bergh börjar sin text med ett antal exempel på att de globala nätjättarnas fruktade algoritmer i själva verket inte är så smarta som vi tror: han blir överöst av reklam för produkter han redan köpt, han blir pådyvlad bedrägliga annonser och han hamnar i filterbubblor med likasinnade istället för att exponeras för åsikter som går emot hans egna.

Det är förstås lätt att känna igen sig i de exemplen, men tyvärr bidrar de bidrar till att reducera och trivialisera frågan till ytliga betraktelser om vardagliga irritationsmoment på sociala medier. Problemen är både djupare och mer utbredda än så, vilket jag skrivit om tidigare här på Dagens Arena.

Insamlingen och bearbetningen av data med hjälp av alltmer avancerade algoritmiska system är idag världens kanske mest lönsamma verksamhet. Åtta av de tio mest värdefulla bolagen i världen– varav flera inte ens existerade för 15–20 år sedan – bygger stora delar av sina affärsmodeller på att utvinna ekonomiska värden ur våra data. De här åtta bolagens sammanlagda börsvärde överstiger idag åttiotusen miljarder kronor och precis som den exponentiellt ökande börsvärderingen har bolagens inflytande i moderna samhällen vuxit så snabbt att lagstiftning och annan reglering helt enkelt inte hängt med.

Ur det perspektivet framstår inte uppfattningen att de krävs mer omfattande och ändamålsenlig reglering som särskilt orimlig. Det är inte förvånande att frågan stigit snabbt på den politiska agendan i såväl EU som USA.

Datainsamling och algoritmiska system breder snabbt ut sig till andra sfärer. I en omfattande forskningsöversikt i fjol granskade forskare vid de amerikanska toppuniversiteten MIT och Stanford över 1 100 vetenskapliga studier från de senaste 15 åren om algoritmer i arbetslivet. Forskarna konstaterade att arbetsgivare i allt högre grad använder sex former av algoritmisk kontroll för att styra, utvärdera och disciplinera sina anställda.

Det finns förstås många andra exempel på problemets omfattning. Algoritmiska system har bidragit till rasdiskriminering i rättssystemet och inom vården, felaktig fördelning av covid-vaccin och könsdiskriminering vid anställningar. Listan kan göras lång.

Men Andreas Bergh underskattar inte bara frågans bredd. Hans resonemang har också en mer principiell brist.

Han skriver att det är ”svårt att enas om exakt vilka problem en reglering ska lösa” och att ”din problemlista skulle nog inte vara identisk med min”. Men det är ju precis sådana målkonflikter och intresseavvägningar som politiken är avsedd att hantera.

Det ska förvisso sägas att Bergh också är skeptisk till den politiska processen. Även om vi lyckas utreda och enas om brett förankrade åtgärder, menar han, ”kan vi inte vara säkra på att den politiska processen leder till att just dessa åtgärder genomförs”. Det har han förstås rätt i. Men det är en principiell invändning som kan anföras mot alla politiska beslut och tyder snarare på en grundläggande, närmast libertariansk, misstro mot politiska beslutsprocesser.

Jag håller visserligen med Bergh om att en viss skepsis mot politiska beslut är sund, men det håller inte som argument mot reglering av algoritmiska system och datainsamling i allmänhet och techföretagen i synnerhet.

En viss skepsis mot marknadskrafterna är minst lika sund.

Algoritmer och data används på problematiska sätt även i offentlig sektor.

Samma principiella invändning kan göras mot Berghs påpekande att nya regler kan få oavsedda biverkningar. Visst är det så, det är ju närmast en truism. Men det gäller all reglering och håller inte som argument för att svepande avfärda reglering av just techsektorn och algoritmiska system.

Som jag skrev inledningsvis vill jag ge Bergh rätt i att allt inte kan eller bör regleras politiskt. Det måste finnas utrymme för andra aktörer än stater och mellan- eller överstatliga institutioner att reglera algoritmisk insamling och bearbetning av data.

Några marknadsekonomiska alternativ till politisk reglering är standarder, branschorganisationer och uppförandekoder. Sådana är dock ofta tandlösa och lätta att kringgå eller skräddarsy efter de största aktörernas egna intressen.

Ett annat, mer kraftfullt (och likaledes marknadsekonomiskt) verktyg kan vara kollektivavtal och andra avtal mellan arbetsmarknadens parter, där exempelvis GDPR:s potential knappt har börjat utforskas.

Jag vill understryka att den här texten inte propagerar för att sätta käppar i hjulet för näringslivet eller stävja innovation. Det jag vill lyfta är vad som krävs för att vi ska styra mot ett mänskligt och hållbart arbetsliv – algoritmer och data används på problematiska sätt även i offentlig sektor. Vad gäller innovation finns det många exempel på hur innovation blomstrat i starkt reglerade ickekommersiella miljöer och med statligt stöd.

Dataskydd, konkurrenslagstiftning och dylik reglering av techbolagen handlar om fördelningen av makt och av ekonomiska värden som på kort tid skapat några av världens största bolag och om att mer demokratiskt styra en utveckling som är på god väg att förändra världen i grunden.

Det handlar kort och gott hur våra samhällen ska se ut – grundläggande och djupt politiska frågor som är vare sig nya eller triviala.

German Bender är utredningschef på Arena Idé och doktorand vid Handelshögskolan