Konferansen fant nylig sted på Rice University i Houston, og gjennom denne artikkelen får du en oppsummering av de viktigste poengene og nye trender du bør kjenne til.
Samspillet mellom HPC og kunstig intelligens (AI)
Et viktig fokus på konferansen var samspillet mellom HPC og kunstig intelligens, og flere av foredragsholderne belyste markedstrender innen disse teknologiene. Dan Stanzione, PhD, fra Texas Advanced Computing Center (TACC), fortalte om hvordan HPC er en viktig forutsetning for AI. Han pekte på de økende kostnadene knyttet til lagring og skybasert databehandling, og understreket at AI nå bruker strøm tilsvarende rundt 17 ganger New Zealands årlige strømforbruk .
Den økende kompleksiteten i vitenskapelig og industriell databehandling, kombinert med AI-utvikling og datadrevne arbeidsoppgaver, fører til et økt behov for både kraft og avansert maskinvare innen HPC. I takt med den økende etterspørselen fokuserer bransjen også på energieffektivitet og innovative maskinvareløsninger for å styre strømforbruket og samtidig maksimere ytelsen.
Foredragsholderne understreket at kunstig intelligens ikke lenger bare er et tillegg, men at det nå er integrert i de fleste aspekter av HPC-arbeidsflyter.
For energisektoren, fra forbedring av seismiske analyser til optimalisering av komplekse simuleringer, er AIs dype integrering i HPC i ferd med å forandre måten vi håndterer data og gjør beregninger på.
Fordeler med GPU-akselerasjon
Akselerasjon av grafikkprosessorenheter (GPU) i HPC var et hett tema, og mange foredragsholdere belyste fordelene i forhold til tradisjonell CPU-prosessering. Innen høyytelsesdatabehandling gir GPU-er betydelig bedre resultater enn CPU-er for parallelle arbeidsoppgaver, med ytelsesgevinster på opptil 50 ganger innen seismisk prosessering og beregningsbasert væskedynamikk. Overgangen til GPU-akselerasjon er omfattende, og en mengde eldre kode blir omarbeidet for å utnytte parallell arkitektur. Den pågående utviklingen av sofistikerte API-er og biblioteker forventes å legge til rette for bredere bruk og ytterligere ytelsesforbedringer i vitenskapelige simuleringer.
Maskinvarelandskapet er i rask utvikling, drevet av overgangen til GPU-akselerasjon.
Betydningen av benchmarking
Konferansen tok også for seg grundige tekniske diskusjoner om HPC-benchmarking og sammenligninger mellom GPU og CPU. ExxonMobil delte blant annet sin prosess for benchmarking og anskaffelse av neste generasjons superdatamaskiner, noe som ga verdifull innsikt i kostnader, strømbegrensninger og tidslinjer for maskinvare. bp's sesjon "GPU migration for a seismic imaging software framework" ga praktisk kunnskap om hvordan man bygger GPU-klynger i stor skala.
Med økende kostnader for databehandling og økende strømbehov er bransjen i ferd med å gå over til mer bærekraftige HPC-modeller. Diskusjonene fremhevet behovet for å revurdere kostbare, kraftintensive oppsett til fordel for mer effektive, skybaserte løsninger.
Energy HPC-konferansen satte søkelyset på den raske endringstakten innen HPC, og innsikten som ble delt under arrangementet understreket viktigheten av å investere i avansert maskinvare, optimalisere ytelsen og ta i bruk mer bærekraftige databehandlingsmodeller.
HPC-landskapet er i stadig utvikling, og det byr på både utfordringer og muligheter som gjør at energiselskaper som tilpasser seg raskt, kan holde seg i forkant i et svært konkurranseutsatt marked.
Les om Cegal Cetegra som Cegals ledende leverandørnøytrale skyplattform for energibransjen - og som inkluderer en HPC-løsning med en omfattende innsiktsmodul, med fokus på kostnader og utnyttelse av noder og ressurser.