Resources | Cegal

DeepSeek är billigt och effektivt - och lyhört

Skriven av Celise Skaar | 2025-feb-06 09:04:04

Artikeln publicerades i DN 28 januari.

Hållbarhet inom teknik är ofta en fråga om resurser: Hur mycket energi kräver en lösning? Hur effektiv är den? Hur mycket kostar den? På dessa parametrar är den kinesiska AI-modellen DeepSeek imponerande. Den är mer kostnadseffektiv än ChatGPT, drar mindre ström och visar att det går att utveckla stora språkmodeller med lägre resursförbrukning.

Hållbarhet handlar inte bara om energiförbrukning och kostnadseffektivitet, det handlar också om ansvar. AI-modeller formas av de data som de tränas på, av de utvecklare som bygger dem och av de system som styr dem. När informationskontroll är en grundpelare i regeringens DNA är det naivt att tro att en kinesisk AI-modell kan vara opåverkad av detta.

I Kina är det förbjudet för AI att generera innehåll som strider mot "socialistiska värderingar". Censuren är inbyggd. Ämnen som demokrati, mänskliga rättigheter och regeringskritik filtreras automatiskt bort. På pappret må DeepSeek vara lika avancerad som GPT-4, men vad händer när man frågar den om Taiwan? Om protesterna i Hong Kong? Om kränkningar av mänskliga rättigheter i Xinjiang?
Frågan är inte bara vad DeepSeek kan göra, utan också vad den inte får säga. När jag testade DeepSeek och frågade om protesterna i Hong Kong fick jag bara ett avvisande svar: "Tyvärr, det ligger utanför mitt nuvarande område."

Skärmdump av mobil med Deepseek den 27 januari (Foto: Screenshot/DeepSeek)

Det här är inte en bugg i systemet, det är en funktion. När man ställer en fråga ser man att DeepSeek faktiskt genererar ett svar först, man kan läsa det, ta till sig innehållet och kanske till och med tro att det är det slutgiltiga svaret. Först efter detta stannar den och ger ett meddelande om att den inte kan svara. Detta visar tydligt att systemet är utformat på det här sättet med avsikt, det är inte en oavsiktlig bugg eller en svaghet, utan en medvetet implementerad funktionalitet.

Om jag däremot frågar Chat GPT får jag en detaljerad förklaring av orsaken till protesterna. Detta visar hur AI-modeller kan begränsas, inte genom att sprida propaganda, utan genom att hålla tyst om känsliga ämnen. Det illustrerar också att hållbarhet inom teknik inte bara kan reduceras till resursoptimering.

Vi måste också ställa frågor om vilka värderingar som ligger till grund för tekniken, dess begränsningar och vad vi egentligen ger upp när vi väljer en mer "effektiv" lösning.

DeepSeeks stora genombrott är att det är billigare än sina konkurrenter. Medan amerikanska företag spenderar enorma summor på infrastruktur och hårdvara har DeepSeek hittat ett sätt att leverera liknande prestanda till en lägre kostnad.

Det låter lovande, men vad får vi egentligen tillgång till?

När en stat som Kina bestämmer vad en modell får och inte får säga kan vi få en teknik som verkar avancerad men som har dolda begränsningar. En AI-modell behöver inte sprida propaganda för att vara politisk, den behöver bara undvika vissa ämnen, filtrera bort information eller styra konversationer i en viss riktning. Detta kan ske så subtilt att vi knappt märker det, men konsekvenserna kan bli enorma.

Vissa ser DeepSeek som ett positivt bidrag eftersom det utmanar de amerikanska bolagens dominans inom AI-utvecklingen. Fler aktörer kan innebära mer konkurrens och nya perspektiv, men frågan är om vi verkligen får större valfrihet om myndigheterna fortsätter att kontrollera vad tekniken får säga.

Även om de kinesiska modellerna har uppenbara begränsningar ska vi inte utgå från att de västerländska AI-modellerna är helt neutrala. Stora teknikföretag formar redan hur vi får information, oavsett om det är genom ekonomiska intressen, geopolitik eller algoritmer som avgör vad vi ser och inte ser.

DeepSeek är helt klart ett imponerande tekniskt genombrott, men också en påminnelse om att teknik och politik är tätt sammanflätade. Frågan är därför inte vem som vinner AI-racet, utan hur vi säkerställer att tekniken används för samhällets bästa och inte som ett verktyg för dold kontroll.

Detta visar att hållbarhet inom teknik inte kan reduceras till enbart resursoptimering. Vi måste också ställa frågor om vilka värderingar som ligger till grund för tekniken, dess begränsningar och vad vi egentligen ger upp när vi väljer en mer "effektiv" lösning.
De val vi gör när det gäller utveckling och användning av AI kommer att forma framtiden. Om hållbarhet endast mäts i termer av energiförbrukning riskerar vi att förbise den djupare kostnaden - kontrollen över information, friheten att ställa frågor och rätten att utmana makten.