Den moderne computer er en teknologisk triumf.
En enkelt computerchip indeholder milliarder af transistorer i nanometerskala, som ikke alene er ekstremt pålidelige, men også arbejder i en hastighed af millioner af opgaver i sekundet.
Denne høje hastighed og pålidelighed kommer dog med en pris: et meget stort energiforbrug.
Datacentre samt vores computere og smartphones tegner sig for omkring tre procent af det globale elektricitetsforbrug, og brugen af kunstig intelligens vil sandsynligvis øge forbruget endnu mere.
Hvad nu hvis vi kunne redesigne den måde, computere fungerer, så de kunne udføre beregningsopgaver lige så hurtigt som i dag, men med et langt lavere forbrug af energi?
Naturen og dens processer giver os nogle potentielle løsninger.
I 1961 granskede fysikeren Rolf Landauer fra IBM Research spørgsmålet om, hvorvidt vi skal bruge så meget energi på computeropgaver.
Han kom frem til 'the Landauer limit' (Landauers princip/grænseværdi), der beskriver, hvordan hver eneste bit-operation har brug for et vist minimum af energi.
Rolf Landauer foretog en teoretisk beregning af dette minimumsforbrug: Hvis man for eksempel sætter en bit, den mindste måleenhed af data på en computer, til at have en værdi på nul eller én, bruger den omkring 10 joule (J) energi.
Det er en meget lille mængde energi, til trods for de mange milliarder opgaver, som computere udfører.
Hvis vi kunne betjene computere på så lavt et niveau, ville den mængde elektricitet, der bruges til beregning og håndtering af spildvarmen ved kølesystemer, ikke være en bekymring.
Der er dog en hage ved det. For at udføre en bit-opgave i nærheden Landauers energigrænse skal opgaven udføres uendeligt langsomt.
Beregning i en begrænset tidsperiode forudsiges at koste yderligere et energiforbrug, der er proportionelt med den hastighed, hvormed beregningen udføres. Med andre ord, jo hurtigere udregningen er, desto mere energi bliver der brugt.
Det blev for nylig demonstreret med eksperimenter, der er sat op til at simulere beregningsprocesser: Energidissipationen, som er et slags udtryk for 'tabt energi', begynder at stige målbart, når man udfører mere end omkring én handling i sekundet.
Processorer, der arbejder med en klokfrekvens på en milliard cyklusser i sekundet (hvilket er almindeligt i moderne halvledere) bruger omkring 10J pr. bit - altså omkring 10 milliarder gange mere end i Landauers princip.
En løsning kan være at designe computere på en fundamentalt anderledes måde.
Grunden til, at traditionelle computere arbejder meget hurtigt, er, at de kører serielt, altså én operation ad gangen. Hvis man i stedet kunne bruge et meget stort antal 'computere', der arbejdede parallelt, så kunne hver enkelt arbejde meget langsommere.
For eksempel kunne man erstatte en 'hare'-processor, der udfører en milliard operationer på et sekund, med en milliard 'skildpadde'-processorer, der hver tager et helt sekund at udføre deres opgaver, hvilket ville resultere i en langt lavere energiforbrug per operation.
Et studie fra 2023, som jeg var medforfatter på, viser, at en computer kan fungere i nærheden af Landauers grænseværdi, ved at bruge langt mindre energi end nutidens computere.
Er det overhovedet muligt for milliarder af uafhængige 'computere' at arbejde parallelt?
Parallel bearbejdning i mindre skala bliver allerede brugt i dag, for eksempel når omkring 10.000 grafikprocessor-kerner eller GPU'er kører på samme tid til træning af AI-modeller.
Det er dog ikke for at reducere hastigheden og øge energieffektiviteten, men snarere af nødvendighed.
Der er grænser for, hvad kølesystemerne kan klare på nuværende tidspunkt, hvis vi øger den enkelte processors datakraft, så derfor bruger man processorerne parallelt.
Såkaldt kredsløbsbaseret 'biocomputation' eller 'biocomputing' er et computersystem, der er meget tættere på, hvad der skal til for at nærme sig Landauers grænseværdi.
Det gør brug af biologiske motorproteiner, som er bittesmå maskiner, der hjælper med at udføre mekaniske opgav...