Högskolan i Skövde

his.sePublikasjoner
Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • apa-cv
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Ett parallelliserat verktyg för simulering av artificiella neurala nätverk
Högskolan i Skövde, Institutionen för datavetenskap.
1997 (svensk)Independent thesis Basic level (degree of Bachelor)Oppgave
Abstract [sv]

Den forskningsgrupp som vid Högskolan i Skövde bedriver forskning om neurala nätverk, har nyligen köpt in en ny beräkningsmaskin, dedikerad för simuleringar av dessa neurala nätverk. Maskinen är en Sun Enterprise 4000, en MIMD-maskin med 6 st UltraSparc CPUer.

Det finns behov av nya verktyg, som underlättar utveckling av ANN modeller till denna maskin, och som dessutom utnyttjar maskinens parallellitet. Detta verktyg ska uppvisa så god prestanda som möjligt. I denna rapport studeras förutsättningarna för ett sådant verktyg.

Av de tänkbara metoder som kan användas för att parallellisera en nätverksimulator, är troligtvis epokbaserad parallellisering den som ger högst prestandaökning på en MIMD-maskin. Detta beror på att den inte kräver lika täta synkroniseringar som exempelvis en neuronbaserad parallellisering.

En implementation av den epokbaserade metoden har skett, både med och utan parallelliserad summering av viktförändringar. Den parallelliserade summeringen av viktförändringar behöver teoretiskt endast log2(n) så lång tid som den serialiserade summeringen kräver (n = antal trådar). Summeringen av viktförändringar är dock en ganska liten del av varje epok, och effektivisering av denna bit har inte så stor praktiskt betydelse.

Ett mindre antal tester har gjorts för att kontrollera om simulatorn är korrekt implementerad. De tester som gjordes gav lyckat resultat och talar för att simulatorn är korrekt.

Ur prestandatesterna som genomförts kan följande slutsatser dras:

* Ökning av antal exempel ökar prestandaökningen

* Ökning av antal vikter minskar prestandaökningen

* Antal epoker påverkar inte prestandaökningen

På det målsystem med 6 CPUer som testerna genomförts på, gäller följande:

* 4-5 trådar ger oftast högst prestandaökning

* 3-5 gångers prestandaökning är normalt

Eftersom prestandan på många av nätverken ligger uppåt 75% (4.5 gånger prestandaökning med 6 st CPUer) av vad målmaskinen klarar av, anser författaren av denna rapport att parallelliseringen är lyckad.

sted, utgiver, år, opplag, sider
Skövde: Institutionen för datavetenskap , 1997. , s. 60
HSV kategori
Identifikatorer
URN: urn:nbn:se:his:diva-239OAI: oai:DiVA.org:his-239DiVA, id: diva2:2594
Presentation
(engelsk)
Uppsök
samhälle/juridik
Examiner
Tilgjengelig fra: 2007-11-07 Laget: 2007-11-07 Sist oppdatert: 2018-01-13

Open Access i DiVA

fulltekst(332 kB)129 nedlastinger
Filinformasjon
Fil FULLTEXT01.psFilstørrelse 332 kBChecksum SHA-1
1377651b88f49196ee48263e0ea29d524e94483c79e6b4ab4668d16d2547f51042fb01c9
Type fulltextMimetype application/postscript
fulltekst(122 kB)267 nedlastinger
Filinformasjon
Fil FULLTEXT02.pdfFilstørrelse 122 kBChecksum SHA-512
3d5df304abc97608a3eddd2921620ea73a2e6ca32cb55c05a380b24ebaf6ad5246f56a315b55842172c7ff2e1aa3e66aee9301e6ec4109f307aadc6ded1f23bf
Type fulltextMimetype application/pdf

Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar
Totalt: 396 nedlastinger
Antall nedlastinger er summen av alle nedlastinger av alle fulltekster. Det kan for eksempel være tidligere versjoner som er ikke lenger tilgjengelige

urn-nbn

Altmetric

urn-nbn
Totalt: 332 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • apa-cv
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf