Forskning går långsamt och är trixigt, visar det sig. Jag har den sista månaden testat ett stort antal olika sätt att angripa mina data på, och inget har gett något intressant resultat. Beror det på att det inte finns något att hitta i dessa data, eller på att jag har ställt fel frågor? Det vet man inte. Men jag har kommit på mer och mer saker som har varit fel med mina tidagare frågor, och hittat mer och mer fel med mina metoder, så även om mina data är innehållslösa så betyder det inte att mina metoder fungerar. Det känns ibland som om jag rumlar runt slumpmässigt i mina idéers och metoders värld.
Vilket osökt leder mig till att tänka på min senaste angreppsmetod: slumpgång i genomet. Det finns en grupp av algoritmer som kallas Markov Chain Monte Carlo-metoder, som går ut på att man gissar en massa gånger vad ens rätta svar är, och varje gissning beror på ens tidigare gissning. Om man till exempel ska försöka reda vilka Nisses bästa vänner som känner honom bäst är kan man till att börja med gissa en bunt med människor som man tror är kompisar med Nisse. Dessa människor kan sen säga dig vilka de tror är Nisses vänner, och utifrån dessa rekommendationer slumpar du sen fram en ny grupp med människor (som kan överlappa med den förra gruppen). Sen frågar du den nya gruppen människor vilka Nisses bästa vänner är, och drar en ny grupp baserad på deras åsikter, osv. Om du efter ett tag får en bunt med människor som verkligen är bra kompisar med Nisse kommer de naturligtvis ge dig väldigt bra information om vilka som är Nisses kompisar, så det är mycket högre chans att du väljer dem i nästa steg också, så till slut kommer du stå där med samma grupp av Nisses polare hela tiden.
Jag tänkte göra samma sak, fast med gener istället. Vi får se hur det går, det är lite trixigt att formulera problemet rätt.