I detta arbete utförs en jämförelse av exekveringstid för tolkning och rendering av Lindenmayersystem (L-system), utfört av samma algoritm på CPU’n (eng. central processingunit) och GPU’n (eng. graphics processing unit). Undersökningen fokuserar på exekveringstid och dess utveckling vid olika typer av L-system, längder samt upplösning. Algoritmen implementerades i spelmotorn Unity både på CPU’n via C# och på GPU’n medhjälp av beräknings-shaders. Experimenten bestod av två L-system. Ett med förgreningaroch ett utan. Båda L-systemen testades med olika upplösningar och längder, varpå exekveringstid avlästes. Experimentens resultat påvisar stor fördel hos CPU-lösningen gällande exekveringstid. Bristen på GPU-anpassad kod, exempelvis kod utan förgreningar och med bra minneshantering, leder till att GPU’n presterar sämre. Arbetet avslutas med förslag på vidareforskning. Förslagen innefattar utökad testning på olika hårdvara, en mer kontrollerad testmiljö samt implementering av algoritmen i faktisk spelproduktion.