Denna rapport jämför två nätverksarkitekturer för artificiella neurala nätverk vars uppgift är att realisera ett styrsystem för ett fordon som det även skall lära sig att styra. Jämförelsen bygger på utförda experiment där de båda nätverken fick lära sig att styra ett fordon längs en slumpgenererad väg. Båda nätverken bygger på belöningsbaserad inlärning för att lära sig lösa uppgiften.
Resultatet av utvärderingen visar både att nätverken inte hade några problem med att lära sig att styra fordonet och att de inte krävde lång tid för att kunna lära sig hur fordonet skulle styras. Resultaten visar inte heller att någon skillnad fanns i vare sig tillförlitlighet eller generaliseringsförmåga hos de båda nätverksarkitekturerna.