Proteinforskning i Köpenhamn och distributed computing

Novo Nordisk donerar 110 miljoner dollars till ett nytt centrum för proteinforskning i Köpenhamn, ett forskningsfält som ligger i tiden. Thomas skrev om det häromdan, och i dagens utgåva av Nature uppmärksammas centret.

Nature tar i sin nyhetsartikel bland annat upp den beräkningskapacitet som behövs för sådana här studier:

This technique, which smashes proteins into tiny fragments before reconstructing them by computer for identification and further study, benefits from the sort of large-scale computing power and bioinformatics capability a large centre can provide.

Jag tycker det är intressant att se att det inte bara är stora vetenskapliga centra som kan ge forskarna tillgång till sådan storskalig beräkningskapacitet. Ett exempel på Folding@Home, som använder en annan taktik (i brist på jätteanslag från finansiärer av typen Novo Nordisk, antar jag – men det verkar fungera ändå). Forskargruppen bakom Folding@Home är verksam på Stanford under ledning av Vijay Pande, och intresserar sig för att med hjälp av simuleringar som kräver stor datorkapacitet studera proteiner och deras dynamik, en fundamental del av biologin.

Pandegruppen använder distributed computing för att skapa datorkapaciteten. Distributed computing bygger, som bekant, på att människor frivilligt installerar mjukvara på sina PC:s och därmed donerar oanvända CPU-cykler till något projekt; tekniken börjar nu få några år på nacken. Det första omtalade projektet var Seti@home som lanserades i slutet av 1990-talet och många projekt var länge inom fysik och matematik. Men det som jag misstänkte för fyra år sedan har skett, livsvetenskaperna börjat knappa in – Folding@home är idag ett ledande distributed computing-project. De har varit framgångsrika på att bygga allmänhetens intresse. Istället för att leta efter radiosignaler från rymden (som det första framgångsrika storskaliga distributed computing-projektet, Seti@Home, gjorde), forskar gruppen på något som kan leda till bättre förståelse av ett flertal sjukdomar; sense-of-wonder-forskning slås alltså av relevansforskning. Framgången visar sig i antalet deltagare, totalt sett över två miljoner.

Och det går snabbt: i dagsläget är hastigheten 897 TFLOPS (att jämföra med Seti@Home som i dagsläget kommer upp i 286 TFLOPS). Det är, som man hävdade i ett pressmeddelande i slutet av mars, ”the most powerful distributed computing resource on the planet, and for the calculations we run (parallel independent molecular dynamics trajectories), the most powerful supercomputer of any type (distributed or otherwise).” Till skillnad från en del andra distributed computing-projekt har man en icke obetydlig vetenskaplig output listan över papers som gruppen producerar visar om inte annat det.

Mötet och interaktionen mellan forskare och grupper utanför akademin är en faktor som ibland måste tas med för att förstå den vetenskapliga dynamiken; kommunikation med utomakademiska grupper bör ses som en del av den vetenskapliga praktiken. Det är en klassisk insikt inom modern vetenskapshistoria (modern är väl att ta i, för att beskriva ett resultat som är årtionden gammalt), men den går att applicera på dagens life sciences likaväl som på geologi i det tidiga 1800-talets England. Det är också intressant att se den institutionella innovationsförmåga som finns i Pangegruppen; att man klarar av att göra de här sakerna utan en stor mängd pengar att köpa superdatorer för.

Dessutom är den i snävt mening tekniska innovationspraktiken distribuerad: innovationer inom området sker delvis i interaktion med folk utanför Pandegruppen och utanför akademin. Den absoluta majoriteten av Folding@Homes användare är förstås passiva; vi kan inte göra något annat än att ladda ner skärmsläckaren och känna oss lite nöjda när vi tänker på den CPU-tid vi donerat till den bokstavligt talat livsviktiga proteinforskningen. Men en liten grupp avancerade användare tycks vara i samarbete med Pandegruppen; bland användarna finns folk som till vardags arbetar som programmerare, tex, och de preliminära data jag fått fram (det här är något som jag jobbat empiriskt med av och till en tid nu, ett av mina skrivbordsprojekt), visar att utvecklingen av mjukvara till projektet sker bland annat med hjälp av dessa ”amatörer” (ordet använt i den äldre, icke-nedsättande meningen) donerar programmeringskunnande, avancerade insikter i CPU-teknik och annat, till gruppen.

Och där har vi en annan klassisk insikt, den om att innovationer och teknisk utveckling i vetenskapsrelaterade områden ibland sker i samarbete med ”amatörer” och användare; den utomakademiska gruppen blir alltså inte bara ”passiva” påhejare, leverantörer av politiskt och ekonomiskt stöd, utan ibland faktiska deltagare i den vetenskapliga praktiken och teknikutvecklingen. Men det visste ju vi vetenskapshistoriker redan.

Det här inlägget postades i vetenskap. Bokmärk permalänken.

1 svar på Proteinforskning i Köpenhamn och distributed computing

  1. Thomas skriver:

    Bra poäng – den om relationen mellan professionella och amatörer. Samarbetet var klassiskt sett välutvecklat inom naturhistorien, där de fåtaliga universitetszoologerna och -botanisterna kompletterades av en härskara av glada amatörer som samlade växter, sköt fåglar och kammade igenom snåren efter sällsynta insekter.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.