Artwork

Treść dostarczona przez Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
Player FM - aplikacja do podcastów
Przejdź do trybu offline z Player FM !

Adrià Garriga-Alonso sobre el riesgo existencial asociado a los modelos de lenguaje a gran escala

53:11
 
Udostępnij
 

Manage episode 418726419 series 3574790
Treść dostarczona przez Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
  continue reading

2 odcinki

Artwork
iconUdostępnij
 
Manage episode 418726419 series 3574790
Treść dostarczona przez Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini. Cała zawartość podcastów, w tym odcinki, grafika i opisy podcastów, jest przesyłana i udostępniana bezpośrednio przez Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini lub jego partnera na platformie podcastów. Jeśli uważasz, że ktoś wykorzystuje Twoje dzieło chronione prawem autorskim bez Twojej zgody, możesz postępować zgodnie z procedurą opisaną tutaj https://pl.player.fm/legal.
En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
  continue reading

2 odcinki

Wszystkie odcinki

×
 
Loading …

Zapraszamy w Player FM

Odtwarzacz FM skanuje sieć w poszukiwaniu wysokiej jakości podcastów, abyś mógł się nią cieszyć już teraz. To najlepsza aplikacja do podcastów, działająca na Androidzie, iPhonie i Internecie. Zarejestruj się, aby zsynchronizować subskrypcje na różnych urządzeniach.

 

Skrócona instrukcja obsługi

Posłuchaj tego programu podczas zwiedzania
Odtwarzanie