Artwork

Вміст надано wail. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією wail або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !

Fine-Tuning AI Models: Unlocking the Potential of Llama 2, Code Llama, and OpenHermes

23:20
 
Поширити
 

Архівні серії ("Канал неактуальний" status)

When? This feed was archived on January 21, 2025 14:14 (2M ago). Last successful fetch was on September 28, 2024 12:48 (5M ago)

Why? Канал неактуальний status. Нашим серверам не вдалося отримати доступ до каналу подкасту протягом тривалого періоду часу.

What now? You might be able to find a more up-to-date version using the search function. This series will no longer be checked for updates. If you believe this to be in error, please check if the publisher's feed link below is valid and contact support to request the feed be restored or if you have any other concerns about this.

Manage episode 440702883 series 3601678
Вміст надано wail. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією wail або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

In this episode, we dive deep into the world of fine-tuning AI language models, breaking down the processes and techniques behind optimizing models like Llama 2, Code Llama, and OpenHermes. We'll explore the critical role of high-quality instruction datasets and walk you through a step-by-step guide on fine-tuning Llama 2 using Google Colab. Learn about the key libraries, parameters, and how to go beyond notebooks with more advanced scripts.

We also take a closer look at the fine-tuning of Code Llama with the Axolotl tool, covering everything from setting up a cloud-based GPU service to merging the trained model and uploading it to Hugging Face. Whether you're just starting with AI models or looking to level up your game, this episode has you covered.

Finally, we'll explore Direct Preference Optimization (DPO), a cutting-edge technique that significantly improved the performance of OpenHermes-2.5. DPO, a variation of Reinforcement Learning from Human Feedback (RLHF), shows how preference data can help models generate more accurate and relevant answers. Tune in for practical insights, code snippets, and tips to help you explore and optimize AI models.

  continue reading

Один епізод

Artwork
iconПоширити
 

Архівні серії ("Канал неактуальний" status)

When? This feed was archived on January 21, 2025 14:14 (2M ago). Last successful fetch was on September 28, 2024 12:48 (5M ago)

Why? Канал неактуальний status. Нашим серверам не вдалося отримати доступ до каналу подкасту протягом тривалого періоду часу.

What now? You might be able to find a more up-to-date version using the search function. This series will no longer be checked for updates. If you believe this to be in error, please check if the publisher's feed link below is valid and contact support to request the feed be restored or if you have any other concerns about this.

Manage episode 440702883 series 3601678
Вміст надано wail. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією wail або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

In this episode, we dive deep into the world of fine-tuning AI language models, breaking down the processes and techniques behind optimizing models like Llama 2, Code Llama, and OpenHermes. We'll explore the critical role of high-quality instruction datasets and walk you through a step-by-step guide on fine-tuning Llama 2 using Google Colab. Learn about the key libraries, parameters, and how to go beyond notebooks with more advanced scripts.

We also take a closer look at the fine-tuning of Code Llama with the Axolotl tool, covering everything from setting up a cloud-based GPU service to merging the trained model and uploading it to Hugging Face. Whether you're just starting with AI models or looking to level up your game, this episode has you covered.

Finally, we'll explore Direct Preference Optimization (DPO), a cutting-edge technique that significantly improved the performance of OpenHermes-2.5. DPO, a variation of Reinforcement Learning from Human Feedback (RLHF), shows how preference data can help models generate more accurate and relevant answers. Tune in for practical insights, code snippets, and tips to help you explore and optimize AI models.

  continue reading

Один епізод

Усі епізоди

×
 
Loading …

Ласкаво просимо до Player FM!

Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.

 

Короткий довідник

Слухайте це шоу, досліджуючи
Відтворити