200 ledande techbolag – inget redovisar hur AI påverkar mänskliga rättigheter

AI förändrar snabbt spelplanen – och kraven på ansvar ökar för de bolag som formar utvecklingen. Men en ny global granskning visar att inte ett enda av 200 världsledande techbolag redovisar hur deras AI-system påverkar mänskliga rättigheter.

Debatten om AI-ansvar har sällan varit hetare. När OpenAI nyligen tecknade ett avtal med det amerikanska försvarsdepartementet utan tydliga begränsningar för hur tekniken får användas, reagerade användare världen över. Ett exempel på det är rörelsen QuitGPT, som uppmanar användare att avsluta sina prenumerationer.  

Det pekar på något större: förtroendet för AI-bolag är känsligt – och kan byggas upp eller raseras snabbt. 


200 inflytelserika techbolag

World Benchmarking Alliance (WBA), en oberoende organisation som mäter hur väl stora bolag lever upp till globala hållbarhetsmål, har granskat 200 av världens mest inflytelserika techbolag. Urvalet inkluderar allt från hårdvarutillverkare och molntjänster till telekomoperatörer och konsumentplattformar. Siffrorna är talande. 

Bara 38 procent av de granskade bolagen har publicerat AI-principer – alltså offentliga riktlinjer för hur de utvecklar och använder AI på ett ansvarsfullt sätt. Knappt vart femte hänvisar till internationella ramverk. Och inte ett enda bolag redovisar resultat från sina konsekvensbedömningar av hur AI-system faktiskt påverkar människor i praktiken. 

Tempot saktar dessutom av. Under 2025 antog nio bolag AI-principer för första gången. Året innan var siffran 19. 


Principer räcker inte 

Samtidigt lyfts en ökad medvetenhet i WBA:s granskning. Fler bolag än tidigare erkänner nu AI som en affärsrisk – att bristande styrning kan skada både varumärke, kundförtroende och leda till kostsamma regelkonflikter. 

– Många företag har i dag antagit principer för ansvarsfull AI. Men principer räcker inte. Det avgörande är om de faktiskt omsätts i handling – genom riskanalyser, tydliga processer och transparens om resultaten, säger Kirti Lickfett, Programme Manager för Social Responsibility & Human Rights på UNGC Sverige. 

Tekniken utvecklas snabbt – ofta snabbare än regelverk och styrning hinner med. Det är inte unikt för AI, men konsekvenserna kan bli stora när systemen används i rekrytering, kreditbedömning, sjukvård och logistik. Ofta utan att de som berörs vet om det. 


EU-regler för AI med hög risk

I augusti 2026 börjar merparten av EU:s AI-förordning att gälla. Den kräver konsekvensbedömningar av offentliga organ och privata aktörer som tillhandahåller offentliga tjänster och som använder AI med hög risk. Det är ett steg mot bindande krav på transparens.

I Sverige går utvecklingen i samma riktning. Regeringen presenterade i februari 2026 landets första nationella AI-strategi. Ambitionen är att Sverige ska bli ett av världens tio ledande AI-länder – med fokus på innovation och konkurrenskraft, men också på ansvarsfull och människocentrerad användning av tekniken.

– Det är här UNGC:s Tio Principer kan fungera som kompass. De ger inte svar på varje teknisk fråga, men de sätter en tydlig riktning: respekt för mänskliga rättigheter, transparens och ansvar längs hela värdekedjan. De som är tidigt ute sätter standarden – för sig själva och för branschen, säger Kirti Lickfett.


Fakta:

World Benchmarking Alliance (WBA) är en oberoende organisation som rankar och analyserar världens mest inflytelserika företag utifrån deras bidrag till en hållbar utveckling. Rapporten bygger på WBA:s Digital Benchmark, som granskar 200 av världens mest inflytelserika digitalbolag – ett urval som inkluderar allt från hårdvarutillverkare och molntjänstleverantörer till telekomoperatörer och stora plattformsbolag inom handel, finans och transport.

WBA mäter bland annat om bolagen har publicerat AI-principer, hänvisar till internationella ramverk och genomför konsekvensbedömningar för mänskliga rättigheter. 

För att ingå i granskningen ska ett bolag antingen omsätta minst 30 miljarder dollar, sysselsätta minst 30 000 personer eller ha utsläpp över en miljon ton koldioxidekvivalenter. Bolagen utvärderas bland annat utifrån om de har publicerat AI-principer, hänvisar till internationella ramverk och genomför konsekvensbedömningar för mänskliga rättigheter.

Läs hela rapporten på worldbenchmarkingalliance.org


Läs mer om ansvarsfull AI och hållbarhet: