Artwork

Вміст надано Dev and Doc. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Dev and Doc або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !

#07 a conversation on safety and risks of AI models | AI safety summit 2023

51:36
 
Поширити
 

Manage episode 428686722 series 3585389
Вміст надано Dev and Doc. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Dev and Doc або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

30 епізодів

Artwork
iconПоширити
 
Manage episode 428686722 series 3585389
Вміст надано Dev and Doc. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією Dev and Doc або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

30 епізодів

Усі епізоди

×
 
Loading …

Ласкаво просимо до Player FM!

Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.

 

Короткий довідник

Слухайте це шоу, досліджуючи
Відтворити