Artwork

Вміст надано Team PolyAI. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Team PolyAI або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !

019: How practically safeguarding generative AI works IRL

26:50
 
Поширити
 

Manage episode 398754018 series 3533896
Вміст надано Team PolyAI. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Team PolyAI або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

Kylie Whitehead and Meghan Berton discuss the importance of implementing guardrails to limit a system to its intended scope and ensure the generated outputs are safe. They also touch on topics like user input filtering, hybrid generative AI solutions, hallucination management, and preventing offensive or biased responses. These and highlighting challenges and opportunities of using generative AI in voice assistants and the importance of continuously improving and refining the technology - in today's episode!

Follow PolyAI on LinkedIn
Watch this and other episodes of the Deep Learning pod on YouTube

  continue reading

46 епізодів

Artwork
iconПоширити
 
Manage episode 398754018 series 3533896
Вміст надано Team PolyAI. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Team PolyAI або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

Kylie Whitehead and Meghan Berton discuss the importance of implementing guardrails to limit a system to its intended scope and ensure the generated outputs are safe. They also touch on topics like user input filtering, hybrid generative AI solutions, hallucination management, and preventing offensive or biased responses. These and highlighting challenges and opportunities of using generative AI in voice assistants and the importance of continuously improving and refining the technology - in today's episode!

Follow PolyAI on LinkedIn
Watch this and other episodes of the Deep Learning pod on YouTube

  continue reading

46 епізодів

Усі епізоди

×
 
Loading …

Ласкаво просимо до Player FM!

Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.

 

Короткий довідник