⚠️ Découvrez du contenu EXCLUSIF (pas sur la chaîne) ⚠️ ⇒ https://the-flares.com/y/bonus/

⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️

Sommaire :
0:01:15 Présentation de Stuart Armstrong
0:01:51 Quelques mots sur le Future of Humanity Institute
0:03:49 Qu'est ce que AGI (IAG) et super IA ?
0:06:31 Quel impact pour le monde si nous réussissons à développer une IA générale ?
0:09:47 Quelle approche semble etre la plus prometteuse pour développer une IAG ?
0:12:58 Une fois que nous avons conçu une IAG, il peut y avoir un décollage lent ou rapide vers une IA bien supérieure à l’humanité. Qu’est ce qui est le plus probable ?
0:18:21 Qu’est ce qu’une super IA pourrait faire concrètement ? Notamment dans le monde physique et pourquoi ça représente un risque existentiel ?
0:22:10 Quelles sont les pistes pour résoudre le problème du contrôle et l’alignement des valeurs ?
0:32:07 Est ce que les politiciens prennent au sérieux les enjeux de l’IA ?
0:34:02 Quels sont les points positifs d’une super IA alignée ?
0:38:56 Est ce qu'une IA pourrait devenir consciente ?
0:44:16 Comment envisager la transition de la civilisation vers un monde viable en termes de notre rapport avec l’environnement ?
0:47:01 Quels sont les risques existentiels les plus sérieux ?
0:52:30 La situation actuelle concernant les armes nucléaires est-elle intenable sur le long terme ?
0:56:15 Sommes nous dans le siècle le plus important de l’histoire humaine ?
1:00:47 Les reflexions sur le paradoxe de Fermi
1:09:58 Quelle méthodologie peut-on appliquer pour réfléchir au lointain futur de l’humanité sans être complètement dépassé par l’incertitude ?
1:15:01 Est-il vraiment pertinent de remplir l'univers avec des milliards de milliards d'êtres conscients "heureux mais sans plus" ?
1:17:55 La philosophie transhumaniste est-elle désirable pour le futur de notre espèce ?
1:20:34 Sommes- nous destiné à devenir des êtres post-biologiques ?
1:24:16 Est ce que vous croyez en une certaine forme de déterminisme technologique ?
1:26:28 Quelle probabilité accorder au fait que nous sommes dans une simulation ?

Vous avez aimé cette vidéo ?
Pensez à mettre un 👍 et à la partager.
C'est un petit geste qui nous aide grandement 🥰

✍️ QUI EST DERRIÈRE CE CONTENU ? ☕

➡ Production : The Flares - https://the-flares.com
➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/

-----------------------------------------------------------------

🌎 SUIVEZ-NOUS 🌎

💬 Discord : https://the-flares.com/y/discord
💬 Communauté : https://the-flares.com/y/communaute
🐦 Twitter : https://the-flares.com/y/twitter
▶️ Youtube : https://the-flares.com/y/youtube
👕 Goodies : https://the-flares.com/y/goodies

-----------------------------------------------------------------
💡 SOURCES & RÉFÉRENCES 💡

➡ Stuart Armstrong :
https://www.fhi.ox.ac.uk/team/stuart-armstrong/
➡ Future of Humanity Institute :
https://www.fhi.ox.ac.uk/
➡ Article de Stuart sur le paradoxe de Fermi :
https://www.fhi.ox.ac.uk/publications/armstrong-s-sandberg-a-2013-eternity-in-six-hours-intergalactic-spreading-of-intelligent-life-and-sharpening-the-fermi-paradox-acta-astronautica-89-1-13/

📧 CONTACTEZ-NOUS 📧

https://the-flares.com/y/contact

#AvenirDuMonde #IntelligenceArtificielle

Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Stuart Armstrong, chercheur au Future of Humanity Institute de l’université d’Oxford. Nous allons parler du futur de l’intelligence artificielle, ses potentiels et dangers, les risques existentiels, le paradoxe de Fermi et comment réfléchir au lointain futur de l’humanité.

⬇️ Lisez la suite ici ⬇️

https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/futur-de-lia-risques-existentiels-paradoxe-de-fermi-et-lointain-futur-avec-stuart-armstrong-du-future-of-humanity-institute/