Benutzer: Gast  Login
Originaltitel:
Learning Sequence Representations
Übersetzter Titel:
Lernen von Sequenz-Repräsentationen
Autor:
Bayer, Justin Simon
Jahr:
2015
Dokumenttyp:
Dissertation
Fakultät/School:
Fakultät für Informatik
Betreuer:
van der Smagt, Patrick (Prof. Dr.)
Gutachter:
van der Smagt, Patrick (Prof. Dr.); Schmidhuber, Jürgen (Prof. Dr.)
Sprache:
en
Fachgebiet:
DAT Datenverarbeitung, Informatik
Stichworte:
machine learning, recurrent neural networks, neural networks
Übersetzte Stichworte:
maschinelles lernen, rekurrente Neuronale Netze, neuronale Netze
TU-Systematik:
DAT 260d; DAT 815d
Kurzfassung:
We contribute to the field of neural networks, and recurrent ones in particular, in three ways. First we show how neural networks can be used to process not only points, but random variables summarised by their expectations and variances. Second, a framework to reduce sequences to points is introduced. Third, leveraging variational inference we find latent state representations of sequences, enabling arbitrarily complex distributions of sequences. The methods are experimentally verified for huma...     »
Übersetzte Kurzfassung:
Wir tragen drei Methoden zum Feld der (rekurrenten) neuronalen Netze bei. Zuerst zeigen wir wie nicht nur Punkte, sondern Zufallsvariablen in Form ihrer Erwartungswerte und Varianzen durch sie hindurchpropagiert werden k ̈onnen. Dann pr ̈asentieren wir ein Rahmenwerk um Sequenzen auf Punkte abzubilden. Zuletzt nutzen wir ,,variational inference” um latente Zust ̈ande von Sequenzen zu finden, was es uns erlaubt beliebig komplexe Sequenzen zu repr ̈asentieren. Die Methoden werden fu ̈r die Vorhers...     »
WWW:
https://mediatum.ub.tum.de/?id=1256381
Eingereicht am:
22.06.2015
Mündliche Prüfung:
02.11.2015
Dateigröße:
4711999 bytes
Seiten:
111
Urn (Zitierfähige URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20151102-1256381-1-9
Letzte Änderung:
28.01.2016
 BibTeX