Publikationer från Malmö universitet
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Constraining neural networks output by an interpolating loss function with region priors
Malmö universitet, Fakulteten för teknik och samhälle (TS), Institutionen för datavetenskap och medieteknik (DVMT). Sony, R&D Center Europe, Lund, Sweden.
Sony, R&D Center Europe, Lund, Sweden.
Malmö universitet, Fakulteten för teknik och samhälle (TS), Institutionen för datavetenskap och medieteknik (DVMT).ORCID-id: 0000-0003-0998-6585
2020 (Engelska)Ingår i: NeurIPS workshop on Interpretable Inductive Biases and Physically Structured Learning / [ed] Michael Lutter; Alexander Terenin; Shirley Ho; Lei Wang, 2020Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

Deep neural networks have the ability to generalize beyond observed training data. However, for some applications they may produce output that apriori is known to be invalid. If prior knowledge of valid output regions is available, one way of imposing constraints on deep neural networks is by introducing these priors in a loss function. In this paper, we introduce a novel way of constraining neural network output by using encoded regions with a loss function based on gradient interpolation. We evaluate our method in a positioning task where a region map is used in order to reduce invalid position estimates. Results show that our approach is effective in decreasing invalid outputs for several geometrically complex environments.

Ort, förlag, år, upplaga, sidor
2020.
Nyckelord [en]
Deep neural networks, Loss function, Constraining, Adaptation
Nationell ämneskategori
Datavetenskap (datalogi)
Identifikatorer
URN: urn:nbn:se:mau:diva-41238OAI: oai:DiVA.org:mau-41238DiVA, id: diva2:1536862
Konferens
NeurIPS workshop on Interpretable Inductive Biases and Physically Structured Learning December 12th, 2020
Tillgänglig från: 2021-03-12 Skapad: 2021-03-12 Senast uppdaterad: 2022-03-11Bibliografiskt granskad

Open Access i DiVA

fulltext(1313 kB)91 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 1313 kBChecksumma SHA-512
055ccca03ac3d6c2140ad1077f20dc1b60587845b385b10b849a47466d79ef36cd9f93d165e2036a80207ccd4ec1243b5bf7b01b9900be19d30d70cfa0e0b287
Typ fulltextMimetyp application/pdf

Övriga länkar

FulltextConference homepage

Person

Bergkvist, HannesDavidsson, Paul

Sök vidare i DiVA

Av författaren/redaktören
Bergkvist, HannesDavidsson, Paul
Av organisationen
Institutionen för datavetenskap och medieteknik (DVMT)
Datavetenskap (datalogi)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 91 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 195 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf