Ordbok | Cegal

Black Box AI

Skrevet av Redaksjonen | 12.jul.2024 08:54:51
Hva er Black box AI?

Begrepet svart boks refererer tradisjonelt til en enhet som er installert i et fly for å registrere flydata og samtaler i cockpiten. I dag brukes begrepet imidlertid om systemer for kunstig intelligens, særlig maskinlæringsmodeller, hvis interne virkemåte ikke er gjennomsiktig eller lett forståelig for mennesker. Begrepet "black box" innebærer at prosessene i AI systemet er skjulte eller ugjennomsiktige, noe som gjør det vanskelig å tolke hvordan systemet tar beslutninger eller gjør forutsigelser.

I black box AI er systemets input og output synlige, men logikken og mekanismene som omdanner input til output, er ikke gjennomsiktige. Denne mangelen på åpenhet kan skyldes algoritmenes kompleksitet, de enorme datamengdene som behandles, eller at teknologien er proprietær.

Black Box AI involverer ofte sofistikerte modeller, for eksempel dype nevrale nettverk. Beslutningsprosessen kan ikke uten videre forklares i menneskelige termer. Til tross for at de er vanskelige å tolke, kan black box AI-modeller oppnå høy grad av nøyaktighet og ytelse. Black box AI brukes i en rekke bruksområder der ytelse og nøyaktighet prioriteres fremfor tolkbarhet. Disse bruksområdene omfatter blant annet:

  • Helsevesen: Prediktive modeller for sykdomsdiagnoser og behandlingsanbefalinger
  • Finans: Kredittvurdering, svindeloppdagelse og algoritmisk handel
  • Autonome kjøretøy: Beslutningssystemer for navigasjon og unngåelse av hindringer
  • Naturlig språkbehandling: Maskinoversettelse, sentimentanalyse og chatbots
  • Fornybar energi: Black box AI-modeller, som dype nevrale nettverk, kan spille en avgjørende rolle når det gjelder å optimalisere energiproduksjonen og styre integreringen av fornybare energikilder i strømnettet
  • Olje og gass: Black box AI-modeller kan analysere store datamengder for å forbedre nøyaktigheten ved leting, optimalisere produksjonen og forutsi vedlikeholdsbehov

Den største utfordringen med black box AI er mangelen på åpenhet, noe som kan føre til flere problemer. Brukerne kan være skeptiske til å stole på beslutninger som tas av et system de ikke forstår, noe som kan skape tillitsproblemer. I tillegg kan det være vanskelig å identifisere og korrigere feil eller skjevheter i systemet, noe som skaper utfordringer når det gjelder ansvarlighet. Videre kan det være utfordrende å overholde juridiske og etiske standarder når beslutningsprosessen er uklar, noe som gjør det vanskeligere å overholde regelverket.

For å løse disse utfordringene er det en økende interesse for å utvikle Explainable AI (XAI), eller forklarbar kunstig intelligens på norsk.  Disse systemene har som mål å gi innsikt i hvordan AI-modeller tar beslutninger, noe som øker gjennomsiktigheten og påliteligheten.

Cegal og Black box AI

Som et globalt teknologiselskap kan vi bistå våre kunder med å dra nytte av AI-teknologi på bedriftsdata og systemer på en trygg og etisk måte, ved å for eksempel optimalisere forretningsprosesser, forbedre kundeopplevelser og skape nye inntektsstrømmer. Ved å bruke XAI-metoder kan vi gi tydelige forklaringer og skape forståelse for hvordan maskinlæring og AI-kapasiteter er iverksatt i vårt tilbud. Ved å tilby dette hjelper vi våre kunder med å forstå og samhandle mer effektivt med teknologien.