Deepseek er billig og effektiv - og lydig
Artikel offentliggjort i DN 28. januar.
Bæredygtighed inden for teknologi er ofte et spørgsmål om ressourcer: Hvor meget energi kræver en løsning? Hvor effektiv er den? Hvor meget koster den? På disse parametre er den kinesiske AI-model DeepSeek imponerende. Den er mere omkostningseffektiv end ChatGPT, bruger mindre strøm og viser, at store sprogmodeller kan udvikles med et lavere ressourceforbrug.
Bæredygtighed handler ikke kun om energiforbrug og omkostningseffektivitet, det handler også om ansvar. AI-modeller formes af de data, de trænes på, af de udviklere, der bygger dem, og af de systemer, der kontrollerer dem. Når informationskontrol er en hjørnesten i regeringens DNA, er det naivt at tro, at en kinesisk AI-model kan være upåvirket af dette.
I Kina er det forbudt for AI at generere indhold, der er i modstrid med "socialistiske værdier". Censur er indbygget. Emner som demokrati, menneskerettigheder og kritik af regeringen bliver automatisk filtreret fra. På papiret er DeepSeek måske lige så avanceret som GPT-4, men hvad sker der, når man spørger den om Taiwan? Om protesterne i Hongkong? Om menneskerettighedskrænkelser i Xinjiang?
Spørgsmålet er ikke bare, hvad DeepSeek kan, men også hvad den ikke må sige. Da jeg testede DeepSeek og spurgte om protesterne i Hongkong, fik jeg kun et afvisende svar: "Beklager, det er uden for min nuværende rækkevidde."
Screenshot af mobil med Deepseek den 27. januar (Foto: Screenshot/DeepSeek)
Det er ikke en fejl i systemet, det er en funktion. Når du har stillet et spørgsmål, ser du, at DeepSeek faktisk genererer et svar først, du kan læse det, tage indholdet til dig og måske endda tro, at det er det endelige svar. Først derefter stopper den og giver en besked om, at den ikke kan svare. Dette viser tydeligt, at systemet er designet på denne måde med vilje, det er ikke en utilsigtet fejl eller en svaghed, men en bevidst implementeret funktionalitet.
Hvis jeg derimod spørger Chat GPT, får jeg en detaljeret forklaring på årsagen til protesterne. Det viser, hvordan AI-modeller kan begrænses, ikke ved at sprede propaganda, men ved at undgå følsomme emner. Det illustrerer også, at bæredygtighed inden for teknologi ikke kun kan reduceres til ressourceoptimering.
Vi skal også stille spørgsmål til de værdier, som teknologien er baseret på, dens begrænsninger, og hvad vi egentlig giver afkald på, når vi vælger en mere "effektiv" løsning.
DeepSeeks store gennembrud er, at den er billigere end sine konkurrenter. Mens amerikanske virksomheder bruger enorme summer på infrastruktur og hardware, har DeepSeek fundet en måde at levere en lignende ydelse til en lavere pris.
Det lyder lovende, men hvad får vi egentlig adgang til?
Når en stat som Kina bestemmer, hvad en model må og ikke må sige, kan vi få en teknologi, der virker avanceret, men som har skjulte begrænsninger. En AI-model behøver ikke at sprede propaganda for at være politisk, den skal bare undgå bestemte emner, filtrere information fra eller styre samtaler i en bestemt retning. Det kan ske så subtilt, at vi næsten ikke lægger mærke til det, men konsekvenserne kan være enorme.
Nogle ser DeepSeek som et positivt bidrag, fordi det udfordrer de amerikanske virksomheders dominans inden for AI-udvikling. Flere aktører kan betyde mere konkurrence og nye perspektiver, men spørgsmålet er, om vi virkelig får større valgfrihed, hvis myndighederne bliver ved med at kontrollere, hvad teknologien kan sige.
Selv om de kinesiske modeller har åbenlyse begrænsninger, bør vi ikke antage, at vestlige AI-modeller er helt neutrale. Store teknologivirksomheder former allerede, hvordan vi får information, hvad enten det er gennem økonomiske interesser, geopolitik eller algoritmer, der bestemmer, hvad vi ser, og hvad vi ikke ser.
DeepSeek er helt klart et imponerende teknologisk gennembrud, men også en påmindelse om, at teknologi og politik er tæt sammenflettet. Spørgsmålet er derfor ikke, hvem der vinder AI-kapløbet, men hvordan vi sikrer, at teknologien bruges til fordel for samfundet og ikke som et redskab til skjult kontrol.
Det viser, at bæredygtighed inden for teknologi ikke kan reduceres til ren ressourceoptimering. Vi må også stille spørgsmål til de værdier, som teknologien bygger på, dens begrænsninger, og hvad vi egentlig giver afkald på, når vi vælger en mere "effektiv" løsning.
De valg, vi træffer i udviklingen og brugen af AI, vil forme fremtiden. Hvis bæredygtighed kun måles i forhold til energiforbrug, risikerer vi at overse de dybere omkostninger - kontrollen med information, friheden til at stille spørgsmål og retten til at udfordre magten.