Fine-Tuning AI Models Can Be Risky
MP3•Головна епізоду
Manage episode 511237357 series 3468839
Вміст надано Artificially Human. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Artificially Human або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
This podcast was created entirely by AI and is based on the following research paper:
- Title: Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend to!
- Source: arXiv
- Authors: Xiangyu Qi et al.
- Published Date: 2023-10-05
Visit www.paper2podcast.com to download the full paper and learn more. Thanks for listening!
373 епізодів