Högskolan i Skövde

his.sePublikationer
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • apa-cv
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Automatic Selection of Viewpoint for Digital Human Modelling
Högskolan i Skövde, Institutionen för informationsteknologi. Högskolan i Skövde, Forskningsmiljön Informationsteknologi. (Interaction Lab (ILAB))ORCID-id: 0000-0002-6568-9342
Högskolan i Skövde, Institutionen för informationsteknologi. Högskolan i Skövde, Forskningsmiljön Informationsteknologi. (Interaction Lab (ILAB))
Högskolan i Skövde, Institutionen för informationsteknologi. Högskolan i Skövde, Forskningsmiljön Informationsteknologi. Högskolan i Skövde, Institutionen för ingenjörsvetenskap. Högskolan i Skövde, Forskningsmiljön Virtuell produkt- och produktionsutveckling. (Interaction Lab (ILAB))ORCID-id: 0000-0003-2254-1396
2020 (Engelska)Ingår i: DHM2020: Proceedings of the 6th International Digital Human Modeling Symposium, August 31 – September 2, 2020 / [ed] Lars Hanson, Dan Högberg, Erik Brolin, Amsterdam: IOS Press, 2020, s. 61-70Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

During concept design of new vehicles, work places, and other complex artifacts, it is critical to assess positioning of instruments and regulators from the perspective of the end user. One common way to do these kinds of assessments during early product development is by the use of Digital Human Modelling (DHM). DHM tools are able to produce detailed simulations, including vision. Many of these tools comprise evaluations of direct vision and some tools are also able to assess other perceptual features. However, to our knowledge, all DHM tools available today require manual selection of manikin viewpoint. This can be both cumbersome and difficult, and requires that the DHM user possesses detailed knowledge about visual behavior of the workers in the task being modelled. In the present study, we take the first steps towards an automatic selection of viewpoint through a computational model of eye-hand coordination. We here report descriptive statistics on visual behavior in a pick-and-place task executed in virtual reality. During reaching actions, results reveal a very high degree of eye-gaze towards the target object. Participants look at the target object at least once during basically every trial, even during a repetitive action. The object remains focused during large proportions of the reaching action, even when participants are forced to move in order to reach the object. These results are in line with previous research on eye-hand coordination and suggest that DHM tools should, by default, set the viewpoint to match the manikin’s grasping location.

Ort, förlag, år, upplaga, sidor
Amsterdam: IOS Press, 2020. s. 61-70
Serie
Advances in Transdisciplinary Engineering, ISSN 2352-751X, E-ISSN 2352-7528 ; 11
Nyckelord [en]
Cognitive modelling, Digital Human Modelling, Eye-hand coordination
Nationell ämneskategori
Interaktionsteknik
Forskningsämne
Interaction Lab (ILAB)
Identifikatorer
URN: urn:nbn:se:his:diva-18965DOI: 10.3233/ATDE200010ISI: 000680825700007Scopus ID: 2-s2.0-85091213088ISBN: 978-1-64368-104-7 (tryckt)ISBN: 978-1-64368-105-4 (digital)OAI: oai:DiVA.org:his-18965DiVA, id: diva2:1462386
Konferens
6th International Digital Human Modeling Symposium, August 31 – September 2, 2020, Skövde, Sweden
Ingår i projekt
Synergi Virtual Ergonomics (SVE), KK-stiftelsen
Forskningsfinansiär
KK-stiftelsen, 20180167
Anmärkning

CC BY-NC 4.0

Funder: Knowledge Foundation and the INFINIT research environment (KKS Dnr. 20180167). This work was financially supported by the synergy Virtual Ergonomics funded by the Swedish Knowledge Foundation, dnr 20180167. https://www.his.se/sve

Tillgänglig från: 2020-08-29 Skapad: 2020-08-29 Senast uppdaterad: 2021-09-06Bibliografiskt granskad

Open Access i DiVA

fulltext(1059 kB)187 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 1059 kBChecksumma SHA-512
4942c9276ada49aabccb63bd63205f89410756a3a28d9bc6ba9a9864e6e2e1b1c54098f72afd90c517a25eee1334e0f5c7e69052eb9dc316df4eeb7aa5d16722
Typ fulltextMimetyp application/pdf

Övriga länkar

Förlagets fulltextScopus

Person

Billing, ErikLamb, Maurice

Sök vidare i DiVA

Av författaren/redaktören
Billing, ErikLamb, Maurice
Av organisationen
Institutionen för informationsteknologiForskningsmiljön InformationsteknologiInstitutionen för ingenjörsvetenskapForskningsmiljön Virtuell produkt- och produktionsutveckling
Interaktionsteknik

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 187 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

doi
isbn
urn-nbn

Altmetricpoäng

doi
isbn
urn-nbn
Totalt: 756 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • apa-cv
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf