Artwork

Вміст надано John Danaher. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією John Danaher або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.
Player FM - додаток Podcast
Переходьте в офлайн за допомогою програми Player FM !

Episode #35 – Brundage on the Case for Conditional Optimism about AI

 
Поширити
 

Manage episode 195929978 series 1328245
Вміст надано John Danaher. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією John Danaher або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

IzBNIN-z.jpgIn this episode I talk to Miles Brundage. Miles is a Research Fellow at the University of Oxford’s Future of Humanity Institute and a PhD candidate in Human and Social Dimensions of Science and Technology at Arizona State University. He is also affiliated with the Consortium for Science, Policy, and Outcomes (CSPO), the Virtual Institute of Responsible Innovation (VIRI), and the Journal of Responsible Innovation (JRI). His research focuses on the societal implications of artificial intelligence. We discuss the case for conditional optimism about AI.

You can download the episode here or listen below. You can also subscribe on iTunes or Stitcher (the RSS feed is here).

Show Notes

  • 0:00 – Introduction
  • 1:00 – Why did Miles write the conditional case for AI optimism?
  • 5:07 – What is AI anyway?
  • 8:26 – The difference between broad and narrow forms of AI
  • 12:00 – Is the current excitement around AI hype or reality?
  • 16:13 – What is the conditional case for AI conditional upon?
  • 22:00 – The First Argument: The Value of Task Expedition
  • 29:30 – The downsides of task expedition and the problem of speed mismatches
  • 33:28 – How AI changes our cognitive ecology
  • 36:00 – The Second Argument: The Value of Improved Coordination
  • 40:50 – Wouldn’t AI be used for malicious purposes too?
  • 45:00 – Can we create safe AI in the absence of global coordination?
  • 48:03 – The Third Argument: The Value of a Leisure Society
  • 52:30 – Would a leisure society really be utopian?
  • 56:24 – How were Miles’s arguments received when presented at the EU parliament?

Relevant Links

  continue reading

64 епізодів

Artwork
iconПоширити
 
Manage episode 195929978 series 1328245
Вміст надано John Danaher. Весь вміст подкастів, включаючи епізоди, графіку та описи подкастів, завантажується та надається безпосередньо компанією John Danaher або його партнером по платформі подкастів. Якщо ви вважаєте, що хтось використовує ваш захищений авторським правом твір без вашого дозволу, ви можете виконати процедуру, описану тут https://uk.player.fm/legal.

IzBNIN-z.jpgIn this episode I talk to Miles Brundage. Miles is a Research Fellow at the University of Oxford’s Future of Humanity Institute and a PhD candidate in Human and Social Dimensions of Science and Technology at Arizona State University. He is also affiliated with the Consortium for Science, Policy, and Outcomes (CSPO), the Virtual Institute of Responsible Innovation (VIRI), and the Journal of Responsible Innovation (JRI). His research focuses on the societal implications of artificial intelligence. We discuss the case for conditional optimism about AI.

You can download the episode here or listen below. You can also subscribe on iTunes or Stitcher (the RSS feed is here).

Show Notes

  • 0:00 – Introduction
  • 1:00 – Why did Miles write the conditional case for AI optimism?
  • 5:07 – What is AI anyway?
  • 8:26 – The difference between broad and narrow forms of AI
  • 12:00 – Is the current excitement around AI hype or reality?
  • 16:13 – What is the conditional case for AI conditional upon?
  • 22:00 – The First Argument: The Value of Task Expedition
  • 29:30 – The downsides of task expedition and the problem of speed mismatches
  • 33:28 – How AI changes our cognitive ecology
  • 36:00 – The Second Argument: The Value of Improved Coordination
  • 40:50 – Wouldn’t AI be used for malicious purposes too?
  • 45:00 – Can we create safe AI in the absence of global coordination?
  • 48:03 – The Third Argument: The Value of a Leisure Society
  • 52:30 – Would a leisure society really be utopian?
  • 56:24 – How were Miles’s arguments received when presented at the EU parliament?

Relevant Links

  continue reading

64 епізодів

所有剧集

×
 
Loading …

Ласкаво просимо до Player FM!

Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.

 

Короткий довідник