Sak er publisert i DN 28 januar.
Bærekraft handler ikke bare om energiforbruk og kostnadseffektivitet, det handler også om ansvarlighet. KI-modeller formes av dataene de trenes på, av utviklerne som bygger dem og av systemene som styrer dem. Når informasjonskontroll er en grunnpilar i myndighetenes dna, er det naivt å tro at en kinesisk KI-modell kan være upåvirket av dette.
I Kina er det forbudt for KI å generere innhold som strider mot «sosialistiske verdier». Sensur er innebygd. Temaer som demokrati, menneskerettigheter og myndighetskritikk filtreres automatisk ut. På papiret kan DeepSeek være like avansert som GPT-4, men hva skjer når du spør den om Taiwan? Om protestene i Hongkong? Om menneskerettighetsbrudd i Xinjiang?
Spørsmålet er ikke bare hva DeepSeek kan gjøre, men hva den ikke får lov til å si. Da jeg testet DeepSeek og spurte om protestene i Hongkong, fikk jeg bare et avvisende svar: «Sorry, that’s beyond my current scope.»
Skjermdump av mobil med Deepseek 27. januar. (Foto: Skjermdump/DeepSeek)
Dette er ikke en feil i systemet, det er en funksjon. Etter at du stiller et spørsmål, ser du at DeepSeek faktisk genererer et svar først, du kan lese det, få med deg innholdet, og kanskje til og med tro at det er det endelige svaret. Først etter dette stopper den opp og gir en melding om at den ikke kan svare. Dette viser tydelig at systemet er designet på denne måten med vilje, det er ikke en tilfeldig feil eller en svakhet, men en bevisst implementert funksjonalitet.
Spør jeg Chat GPT, får jeg derimot en detaljert forklaring om bakgrunnen for protestene. Dette viser hvordan KI-modeller kan begrenses, ikke ved å spre propaganda, men ved å tie om sensitive temaer. Det illustrerer også at bærekraft i teknologi ikke kun kan reduseres til å omhandle ressursoptimalisering.
Vi må også stille spørsmål om hvilke verdier teknologien bygger på, hvilke begrensninger som ligger i den, og hva vi faktisk gir avkall på når vi velger en mer «effektiv» løsning.
DeepSeeks store gjennombrudd er at den er billigere enn konkurrentene. Mens amerikanske selskaper bruker enorme summer på infrastruktur og maskinvare, har DeepSeek funnet en måte å levere lignende ytelse til en lavere pris.
Når en stat som Kina bestemmer hva en modell kan og ikke kan si, kan vi få en teknologi som virker avansert, men som har skjulte begrensninger. En KI-modell trenger ikke å spre propaganda for å være politisk, det holder at den unngår bestemte temaer, filtrerer bort informasjon eller styrer samtaler i en bestemt retning. Dette kan skje så subtilt at vi knapt merker det, men konsekvensene kan bli store.
Noen ser DeepSeek som et positivt bidrag fordi det utfordrer amerikanske selskapers dominans i KI-utviklingen. Flere aktører kan bety mer konkurranse og nye perspektiver, men spørsmålet er om vi egentlig får større valgfrihet hvis myndighetene fortsatt styrer hva teknologien kan si.
Selv om kinesiske modeller har åpenbare begrensninger, må vi heller ikke tro at vestlige KI-modeller er helt nøytrale. Store teknologiselskaper former allerede hvordan vi får informasjon, enten det er gjennom økonomiske interesser, geopolitikk eller algoritmer som bestemmer hva vi ser, og hva vi ikke ser.
DeepSeek er helt klart et imponerende teknologisk gjennombrudd, men også en påminnelse om at teknologi og politikk henger tett sammen. Spørsmålet er derfor ikke hvem som vinner KI-kappløpet, men hvordan vi sørger for at teknologien brukes til det beste for samfunnet, og ikke som et verktøy for skjult kontroll.
Dette viser at bærekraft i teknologi ikke kan reduseres til kun ressursoptimalisering. Vi må også stille spørsmål om hvilke verdier teknologien bygger på, hvilke begrensninger som ligger i den, og hva vi faktisk gir avkall på når vi velger en mer «effektiv» løsning.
Valgene vi tar i utviklingen og bruken av AI vil forme fremtiden. Hvis bærekraft kun måles i energiforbruk, risikerer vi å overse den dypere kostnaden – kontrollen over informasjon, friheten til å stille spørsmål, og retten til å utfordre makt.