A decoder-only foundation model for time-series forecasting
MP3•Головна епізоду
Manage episode 418218346 series 2954468
Вміст надано Rob. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Rob або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Motivated by recent advances in large language models for Natural Language Processing (NLP), we design a time-series foundation model for forecasting whose out-of-the-box zero-shot performance on a variety of public datasets comes close to the accuracy of state-of-the-art supervised forecasting models for each individual dataset. Our model is based on pretraining a patched-decoder style attention model on a large time-series corpus, and can work well across different forecasting history lengths, prediction lengths and temporal granularities.
2023: Abhimanyu Das, Weihao Kong, Rajat Sen, Yichen Zhou
https://arxiv.org/pdf/2310.10688
…
continue reading
2023: Abhimanyu Das, Weihao Kong, Rajat Sen, Yichen Zhou
https://arxiv.org/pdf/2310.10688
294 епізодів