Artwork

Вміст надано CCC media team. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією CCC media team або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !

Variational Autoencorders: the cognitive scientist's favorite deep learning tool (realraum)

41:56
 
Поширити
 

Manage episode 515597089 series 2475293
Вміст надано CCC media team. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією CCC media team або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Variational Autoencoders (VAEs) were first introduced as early concept learners in the vision domain. Since then, they have become a staple tool in generative modeling, representation learning, and unsupervised learning more broadly. Their use as analogues of human cognition is one of the first steps towards the understanding of more complex cognitive models leading up to models of human brain function and behavior. As part of a series of talks on cognitive science and deep learning at the realraum in Graz, this presentation will focus on the role of VAEs in cognitive science research. Topics: - Supervised vs. unsupervised learning - Deep Learning basics: classifiers and backpropagation - Autoencoders: architecture, training, embedding, and generative modeling - Variational Autoencoders: statistical latent space, and the reparametrization trick - Training VAEs: loss functions, optimization, and the KL divergence - Concept learning: VAEs in cognitive science https://creativecommons.org/licenses/by-sa/4.0/ about this event: https://cfp.realraum.at/realraum-october/talk/LHH3M9/
  continue reading

2002 епізодів

Artwork
iconПоширити
 
Manage episode 515597089 series 2475293
Вміст надано CCC media team. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією CCC media team або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Variational Autoencoders (VAEs) were first introduced as early concept learners in the vision domain. Since then, they have become a staple tool in generative modeling, representation learning, and unsupervised learning more broadly. Their use as analogues of human cognition is one of the first steps towards the understanding of more complex cognitive models leading up to models of human brain function and behavior. As part of a series of talks on cognitive science and deep learning at the realraum in Graz, this presentation will focus on the role of VAEs in cognitive science research. Topics: - Supervised vs. unsupervised learning - Deep Learning basics: classifiers and backpropagation - Autoencoders: architecture, training, embedding, and generative modeling - Variational Autoencoders: statistical latent space, and the reparametrization trick - Training VAEs: loss functions, optimization, and the KL divergence - Concept learning: VAEs in cognitive science https://creativecommons.org/licenses/by-sa/4.0/ about this event: https://cfp.realraum.at/realraum-october/talk/LHH3M9/
  continue reading

2002 епізодів

All episodes

×
 
Loading …

Ласкаво просимо до Player FM!

Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.

 

Короткий довідник

Слухайте це шоу, досліджуючи
Відтворити