Artwork

Вміст надано Jay Shah. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Jay Shah або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !

Why are Transformer so effective in Large Language Models like ChatGPT

9:43
 
Поширити
 

Manage episode 359298739 series 2859018
Вміст надано Jay Shah. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Jay Shah або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

Understanding why and how transformers are so efficient in large language models nowadays such as #chatgpt and more.
Watch the full podcast with Dr. Surbhi Goel here: https://youtu.be/stB0cY_fffo
Find Dr. Goel on social media
Website: https://www.surbhigoel.com/
Linkedin: https://www.linkedin.com/in/surbhi-goel-5455b25a
Twitter: https://twitter.com/surbhigoel_?lang=en
Learning Theory Alliance: https://let-all.com/index.html
About the Host:
Jay is a Ph.D. student at Arizona State University.
Linkedin: https://www.linkedin.com/in/shahjay22/
Twitter: https://twitter.com/jaygshah22
Homepage: https://www.public.asu.edu/~jgshah1/ for any queries.
Stay tuned for upcoming webinars!
***Disclaimer: The information contained in this video represents the views and opinions of the speaker and does not necessarily represent the views or opinions of any institution. It does not constitute an endorsement by any Institution or its affiliates of such video content.***

Checkout these Podcasts on YouTube: https://www.youtube.com/c/JayShahml
About the author: https://www.public.asu.edu/~jgshah1/

  continue reading

93 епізодів

Artwork
iconПоширити
 
Manage episode 359298739 series 2859018
Вміст надано Jay Shah. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Jay Shah або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

Understanding why and how transformers are so efficient in large language models nowadays such as #chatgpt and more.
Watch the full podcast with Dr. Surbhi Goel here: https://youtu.be/stB0cY_fffo
Find Dr. Goel on social media
Website: https://www.surbhigoel.com/
Linkedin: https://www.linkedin.com/in/surbhi-goel-5455b25a
Twitter: https://twitter.com/surbhigoel_?lang=en
Learning Theory Alliance: https://let-all.com/index.html
About the Host:
Jay is a Ph.D. student at Arizona State University.
Linkedin: https://www.linkedin.com/in/shahjay22/
Twitter: https://twitter.com/jaygshah22
Homepage: https://www.public.asu.edu/~jgshah1/ for any queries.
Stay tuned for upcoming webinars!
***Disclaimer: The information contained in this video represents the views and opinions of the speaker and does not necessarily represent the views or opinions of any institution. It does not constitute an endorsement by any Institution or its affiliates of such video content.***

Checkout these Podcasts on YouTube: https://www.youtube.com/c/JayShahml
About the author: https://www.public.asu.edu/~jgshah1/

  continue reading

93 епізодів

Усі епізоди

×
 
Loading …

Ласкаво просимо до Player FM!

Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.

 

Короткий довідник

Слухайте це шоу, досліджуючи
Відтворити