Artwork

Treść dostarczona przez Dev and Doc. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Dev and Doc lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
Player FM - aplikacja do podcastów
Przejdź do trybu offline z Player FM !

#07 a conversation on safety and risks of AI models | AI safety summit 2023

51:36
 
Udostępnij
 

Manage episode 428686722 series 3585389
Treść dostarczona przez Dev and Doc. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Dev and Doc lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

24 odcinków

Artwork
iconUdostępnij
 
Manage episode 428686722 series 3585389
Treść dostarczona przez Dev and Doc. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Dev and Doc lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

24 odcinków

כל הפרקים

×
 
Loading …

Zapraszamy w Player FM

Odtwarzacz FM skanuje sieć w poszukiwaniu wysokiej jakości podcastów, abyś mógł się nią cieszyć już teraz. To najlepsza aplikacja do podcastów, działająca na Androidzie, iPhonie i Internecie. Zarejestruj się, aby zsynchronizować subskrypcje na różnych urządzeniach.

 

Skrócona instrukcja obsługi

Posłuchaj tego programu podczas zwiedzania
Odtwarzanie