Gå til hovedindhold

Forskere modellerer todimensionalt vidundermateriale i supercomputer

Supercomputer bygger bro mellem teoretiske og eksperimenterende fysikere.
Af
04/05/2015 13:05

Grafen er det tyndeste materiale, vi kender: Det er kun et atom tykt. I forhold til vægten er grafen 200 gange stærkere end stål. Det kulstofbaserede materiale er fremragende til at lede både varme og strøm.

Men vi ved endnu meget lidt om det ultratynde vidundermateriale. Til at blive klogere på det kan forskerne gå to veje: Praktiske eksperimenter og simulering via modeller. Danske forskere går begge veje.

Professor Mads Brandbyge fra DTU Nanotech benytter en supercomputer til at modellere grafen. Han var blandt modtagerne af midler fra DeiC Call 2013, hvor der blev uddelt penge til decentrale HPC-projekter (High Performance Computing).

Mads Brandbyge er tilknyttet Center for Nanostructured Graphene, der modtog 490.000 kroner til at udbygge supercomputeren Niflheim med ekstra regnekraft.

”Jeg bruger den blandt andet til at udføre teoretiske beregninger på de områder, som mine kolleger eksperimenterer med. For eksempel har de opdaget, at det virker godt at bruge krom til at gå i forbindelse med grafen. Men hvorfor det virker, ved de ikke. Det kan simuleringerne forklare os,” fortæller han.

Mads Brandbyge understreger, at der er tale om grundforskning. Derfor har forskerne endnu ikke en praktisk anvendelse i tankerne. Det kommer senere, når de har indsamlet mere viden om materialet.

Men han har nogle tanker om, hvad grafen kan bruges til i fremtiden:

”Man kan bygge meget effektive sensorer med grafen. En mulighed er udstyr, der indsamler data om vores kroppe. I fremtiden skal du måske bare ånde på noget grafen i din smartphone for at få stillet en diagnose,” siger han.

Simulering nærmer sig virkeligheden

Hans simuleringer tager udgangspunkt i det enkelte atom og vokser derfra.

Siden han begyndte at forske, er supercomputerne blevet stadig hurtigere. Det medfører, at de to forskningsmetoder nærmer sig hinanden: Eksperimenterne og simulationerne.

”De eksperimenterende forskere forsøger hele tiden at komme ned i stadig mindre størrelser. De forstørrer billedet mest muligt, så de kan arbejde med stadig mindre elementer. For os på den teoretiske side går bevægelsen den modsatte vej: Vi tager udgangspunkt i det enkelte atom og arbejder os opad i størrelse og kompleksitet. Fordi computerne vokser, kan vi nu arbejde med så store datamængder, at vi er ved at nærme os det størrelsesniveau, eksperimenterne foregår på. Vi nærmer os et et-til-et-niveau i forhold til virkeligheden,” siger han.

Giver bedre samspil

Det giver mulighed for et endnu bedre samspil mellem teoretikere og praktikere.

”Vi kan tage udgangspunkt i, hvad man kan gøre i et eksperiment, og guide vores kolleger i nye retninger. I traditionel elektronik arbejder man med solide materialer, det vi kalder bulk. Vi kender de ledende egenskaber i et siliciumkrystal, de er velbeskrevet. Men med grafen er det hele overflade. Der kan vi ikke nøjes med bulkberegningerne, fordi meget afhænger af form og interfaces. Derfor er simuleringer meget vigtige i nanoverdenen,” siger han.

Hvis man laver huller i et lag grafen, fungerer det som en halvleder. I teorien er der dermed mulighed for at opbygge elektronik af grafen ved at forme ledningsbaner og transistorer i materialet.

”Personlig tror jeg, at det vil være meget svært at slå silicium af banen. Så jeg tror snarere på andre anvendelsesområder for grafen,” siger Mads Brandbyge.

Så han regner ikke med, at han en dag vil køre sine simuleringer af grafen på en grafen-baseret supercomputer.

Muligheden for at slå huller i grafenen er netop et af de områder, hvor simulering er nyttig:

”Det er vanskeligt at eksperimentere med. Strukturerne bliver ustabile og går i stykker. Men vi kan modellere dem i computeren og se, hvilke konsekvenser hullerne giver,” forklarer han.

Kræver HPC-ekspertise

Mads Brandbyge understreger, at succes med supercomputere både kræver en indsats fra forskerne og fra dem, der står teknikken:

”Det kræver specialviden at installere hardware og software. Jeg er meget afhængig af en superdygtig kollega, der har helt styr på, hvordan man kompilerer, installerer software og får det til at køre hurtigt og effektivt,” siger han.

Niflheim

Niflheim er et Linux-baseret cluster med 851 regneenheder med i alt 7.120 CPU-kerner og en regnekapacitet på over 75 teraflops.

Regneenhederne kommunikerer indbyrdes via højhastighedsteknologien Infiniband eller Gigabit Ethernet.

Forskerne skriver gerne deres programmer i Fortran, C eller Python.

Supercomputer-clusteret er placeret på DTU Fysik.

DeiC Call 2013

DeiC blev etableret i 2012, hvor aktiviteterne i forskningsnettet og DCSC (Danish Center for Scientific Computing) blev slået sammen. DCSC havde siden 2001 fordelt statslige midler til HPC-aktiviteter (High Performance Computing). Pengene gik primært til at opbygge og udbygge lokale supercomputercentre på danske universiteter.

Med etableringen af DeiC skiftede fokus til en national satsning i stedet for den decentrale strategi. Som en overgangsordning valgte DeiCs bestyrelse at tildele i alt 15 millioner kroner til finansiering af anvendelse af HPC-ressourcer i forskningsprojekter.

De 15 millioner blev fordelt på 22 forskningsprojekter.

Læs mere

DeiC Call 2013 - liste over modtagere af midler

Center for Nanostructured Graphene