Artwork

Treść dostarczona przez Michael Sharkey and Chris Sharkey. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Michael Sharkey and Chris Sharkey lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
Player FM - aplikacja do podcastów
Przejdź do trybu offline z Player FM !

EP29: Meta's Code Llama, Unnatural Instruction, Phishing Our Mother & OpenAI's GPT3.5 Fine Tuning

1:03:44
 
Udostępnij
 

Manage episode 375181512 series 3446506
Treść dostarczona przez Michael Sharkey and Chris Sharkey. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Michael Sharkey and Chris Sharkey lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.

This week, the Zuck strikes again - Meta unveils a state of the art AI code generator to challenge OpenAI's dominance. We explore the implications of AI models training themselves, and how it could accelerate capabilities. Then we put 11 labs' multilingual speech synthesis to the test, using it to generate a fake phishing call on our mother. Don't miss our scandalous experiments pushing AI to its limits in this jam-packed episode!

If you like the pod, please consider subbing, liking, commenting etc. xox

CHAPTERS:
=====
00:00 - Rehearsal of Phishing Our Mother (Cold Open)
00:19 - Meta's Code Llama
08:24 - Unnatural Instruction to Train AI Models
15:06 - Why Didn't Meta Release the Unnatural Instruction Code Llama Model? The Sparks of AGI?
16:50 - Evolution of GPT: Is Unnatural Instruction The Next Evolution of Models?
23:04 - DeepMind's Reinforced Self-Training ReST for Language Modeling paper and thoughts on future models
36:09 - Fine Tuning GPT-3.5 Turbo Announced by OpenAI: Should You Just Fine Tune Open Source?
44:05 - ElevenLabs Out of Beta and Multilingual v2: Explained by AI Us.
48:12 - Chris Tried to Figure Out AI Phishing
53:03 - Rehearsing Phishing Our Mother Call & Implications of This AI Tech
59:43 - How Much We Lost Not Investing in NVIDIA
1:01:29 - AI Bros Give Investment Advice

SOURCES:
======
https://ai.meta.com/blog/code-llama-large-language-model-coding/
https://www.theinformation.com/articles/metas-next-ai-attack-on-openai-free-code-generating-software
https://twitter.com/emollick/status/1694793231727210579?s=46&t=uXHUN4Glah4CaV-g2czc6Q
https://minimaxir.com/2023/08/stable-diffusion-xl-wrong/
https://twitter.com/abacaj/status/1679996952560246786/photo/1
https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates
https://arstechnica.com/ai/2023/08/how-chatgpt-turned-generative-ai-into-an-anything-tool/
https://elevenlabs.io/blog/multilingualv2/
https://www.businessinsider.com/nvidia-technology-spending-wave-build-out-google-meta-oracle-gpu-2023-8

PAPERS:
======
https://arxiv.org/pdf/2212.09689.pdf
https://arxiv.org/pdf/2308.08998.pdf

  continue reading

69 odcinków

Artwork
iconUdostępnij
 
Manage episode 375181512 series 3446506
Treść dostarczona przez Michael Sharkey and Chris Sharkey. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Michael Sharkey and Chris Sharkey lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.

This week, the Zuck strikes again - Meta unveils a state of the art AI code generator to challenge OpenAI's dominance. We explore the implications of AI models training themselves, and how it could accelerate capabilities. Then we put 11 labs' multilingual speech synthesis to the test, using it to generate a fake phishing call on our mother. Don't miss our scandalous experiments pushing AI to its limits in this jam-packed episode!

If you like the pod, please consider subbing, liking, commenting etc. xox

CHAPTERS:
=====
00:00 - Rehearsal of Phishing Our Mother (Cold Open)
00:19 - Meta's Code Llama
08:24 - Unnatural Instruction to Train AI Models
15:06 - Why Didn't Meta Release the Unnatural Instruction Code Llama Model? The Sparks of AGI?
16:50 - Evolution of GPT: Is Unnatural Instruction The Next Evolution of Models?
23:04 - DeepMind's Reinforced Self-Training ReST for Language Modeling paper and thoughts on future models
36:09 - Fine Tuning GPT-3.5 Turbo Announced by OpenAI: Should You Just Fine Tune Open Source?
44:05 - ElevenLabs Out of Beta and Multilingual v2: Explained by AI Us.
48:12 - Chris Tried to Figure Out AI Phishing
53:03 - Rehearsing Phishing Our Mother Call & Implications of This AI Tech
59:43 - How Much We Lost Not Investing in NVIDIA
1:01:29 - AI Bros Give Investment Advice

SOURCES:
======
https://ai.meta.com/blog/code-llama-large-language-model-coding/
https://www.theinformation.com/articles/metas-next-ai-attack-on-openai-free-code-generating-software
https://twitter.com/emollick/status/1694793231727210579?s=46&t=uXHUN4Glah4CaV-g2czc6Q
https://minimaxir.com/2023/08/stable-diffusion-xl-wrong/
https://twitter.com/abacaj/status/1679996952560246786/photo/1
https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates
https://arstechnica.com/ai/2023/08/how-chatgpt-turned-generative-ai-into-an-anything-tool/
https://elevenlabs.io/blog/multilingualv2/
https://www.businessinsider.com/nvidia-technology-spending-wave-build-out-google-meta-oracle-gpu-2023-8

PAPERS:
======
https://arxiv.org/pdf/2212.09689.pdf
https://arxiv.org/pdf/2308.08998.pdf

  continue reading

69 odcinków

Wszystkie odcinki

×
 
Loading …

Zapraszamy w Player FM

Odtwarzacz FM skanuje sieć w poszukiwaniu wysokiej jakości podcastów, abyś mógł się nią cieszyć już teraz. To najlepsza aplikacja do podcastów, działająca na Androidzie, iPhonie i Internecie. Zarejestruj się, aby zsynchronizować subskrypcje na różnych urządzeniach.

 

Skrócona instrukcja obsługi