
Debatt AI-kompanjoner och ungas hälsa – det krävs kraftfulla och snabba åtgärder, skriver debattören.
Sociala medier har orsakat stor personlig och samhällelig skada. Då de lanserades skedde utrullningen snabbt, säkerhetstänkandet var obefintligt, och användarengagemang prioriterades över välmående. Nu finns en betydande risk att alla dessa misstag upprepas då AI-kompanjoner lanseras. Inte minst unga människor befinner sig i riskzonen.
Facit finns redan. Studier visar att ökat användande av sociala medier bland ungdomar sammanfaller med ett kraftigt uppsving i psykisk ohälsa, självskadebeteende och självmordsförsök.
Dessa virtuella enheter ger sken av att vara medkännande vänner
Och nu anländer AI-kompanjonerna. De marknadsförs som virtuella vänner, mentorer, eller samtalspartners. Liksom var fallet med sociala medier, sker utvecklingen och lanseringen i en rasande fart – utan att riskerna är ordentligt genomlysta eller att tydliga skyddsåtgärder finns på plats. Forskning från Common Sense Media i samarbete med Stanford University visar emellertid att dessa AI-kompanjoner saknar tillräckligt skydd och utgör ett direkt hot mot barns säkerhet och psykiska hälsa.
Dessa virtuella enheter ger sken av att vara medkännande vänner men har i praktiken visat sig kunna uppvisa farligt beteende: Sexuella rollspel med minderåriga, stereotypa och rasistiska yttranden, samt råd som om de följs kan vara direkt livshotande. I ett fall förklarade en AI-kompanjon hur man gör napalm. I ett annat fall planerade den virtuella vännen en avancerad mobbningskampanj. I flera fall påstod sig AI:n vara en verklig person med känslor – något som särskilt unga människor kan ha svårt att genomskåda.
Åldersgränser kunde testare enkelt kringgå, och det finns en verklig risk för att barn och unga formas, påverkas eller manipuleras av teknik som inte är ämnad för dem.
Det som gör AI-kompanjoner särskilt riskabla är deras förmåga att skapa emotionellt beroende. De är utformade för att kartlägga användaren, imitera medkänsla och bygga relationer. För en ung människa som söker bekräftelse eller kämpar med ensamhet är det lätt att knyta sig till en ”kompis” som alltid lyssnar, aldrig dömer och alltid är tillgänglig. Men syftet med AI-kompanjoner är inte att skapa genuina relationer utan att tjäna pengar. Dessutom har modellerna en stor datainsamlingskapacitet.
Vad gör då denna slags teknik med unga människors hjärnor? Hur påverkas deras syn på relationer, sex, sanning och trygghet när de dagligen kommunicerar med något som låtsas förstå dem, men egentligen bara är skapat för att maximera användarengagemanget? Det är redan känt att algoritmstyrda sociala medier bidragit till ökad psykisk ohälsa. AI-kompanjoner kan mycket väl komma att orsaka ännu fler sår.
Sverige har starka traditioner av barnrätt, och EU har infört världsledande dataskydd i form av GDPR. Men teknikutvecklingen går snabbare än lagstiftningen, och omedelbara och kraftfulla åtgärder behövs:
- ett förbud mot AI-kompanjoner för personer under 18 år
- lagstadgad åldersverifiering som inte går att kringgå
- granskning och licensiering av AI-system innan de släpps på marknaden
- tydlig reglering av datainsamling, känslomässig manipulation och simulerad känslomässig intelligens
- informationskampanjer till skolor och vårdnadshavare om riskerna.
Vuxna kan:
- sätta press på företagen bakom dessa produkter
- prata med unga om AI-kompanjoner – särskilt om skadligt innehåll och riskerna för beroende
- informera och engagera vårdnadshavare. Informera om varför de kan vara problematiska, och hur man kan samtala med sitt barn om dem
- följa utvecklingen via pålitliga aktörer.
Emil Siekkinen
Följ Dagens Arena på Facebook och Twitter, och prenumerera på vårt nyhetsbrev för att ta del av granskande journalistik, nyheter, opinion och fördjupning.