![SF-RADIO.ORG artwork](https://is4-ssl.mzstatic.com/image/thumb/Podcasts126/v4/fc/c0/63/fcc063b9-c40f-8e8d-e9dc-40c5d83f8125/mza_14009064604701238079.jpg/100x100bb.jpg)
Singularität - Die starke KI
SF-RADIO.ORG
German - July 18, 2023 08:09 - 1 hour - 79.6 MBScience Fiction Fiction Homepage Download Apple Podcasts Google Podcasts Overcast Castro Pocket Casts RSS feed
Singularität - Die starke KI
Quelle: https://podcast.catch-42.com/catch42-002/
Catch-42
In der zweiten Folge unseres Catch-42 Podcasts dreht sich alles um technologische Singularität und künstliche Intelligenz: Was ist ein Large Language Model (LLM) und wie funktioniert es? Ab wann spricht man von einer starke KI und welche Chancen und Risiken gehen damit einher? Was verbirgt sich hinter dem so genannten Alignment Problem? Wie definieren wir überhaupt Intelligenz und Bewusstsein? Und werden Maschinen jemals wirklich intelligent sein und Bewusstsein erlangen? All das besprechen Soenke und Felix in der heutigen Folge des Catch-42 Podcasts.
Felix Holzapfel
Jahrgang 1978, wurde von Thinkers360 mehrfach als Top10 Global Thought Leader für Digitale Transformation ausgezeichnet. Nach dem Verkauf seiner Digitalagentur, berät er heute etablierte Unternehmen und beteiligt sich an Startups. Er hat bereits mehrere Fachbücher sowie einen Roman über Trends, Technologie und den Wandel unserer Medienlandschaft veröffentlicht. Mehr unter www.felixholzapfel.com.
Soenke Scharnhorst
Soenke wurde 1979 in Stuttgart geboren und studierte Wirtschaftsinformatik an der Dualen Hochschule Mannheim. Seit 2000 arbeitet er in verschiedenen Positionen für Europas größtes Softwareunternehmen. Als Autor behandelt er die Erweiterung der menschlichen Möglichkeiten durch den Einsatz von Technologie, die Evolution der Maschinenintelligenz und ihre Konsequenzen für die Zukunft. Mehr unter soenke-scharnhorst.de.
Shownotes
S01E02: „Singularität“
ChatGPT Explained:https://www.youtube.com/watch?v=-4Oso9-9KTQ&ab_channel=KyleHill
Agentisches Chaos – Ein KI-Katastrophen-Szenario: https://www.youtube.com/watch?v=dfHM1tyX7rc&ab_channel=KarlOlsberg
TED Talks zum Thema Strong AI
https://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are
https://www.ted.com/talks/max_tegmark_how_to_get_empowered_not_overpowered_by_ai
https://www.ted.com/talks/sam_harris_can_we_build_ai_without_losing_control_over_it
It’s not AI consciousness that worries me, but their intelligence: https://www.youtube.com/watch?v=T3EHANFeyns&ab_channel=SabineHossenfelder
Your brain hallucinates your conscious reality
https://www.ted.com/talks/anil_seth_your_brain_hallucinates_your_conscious_reality
Papier Clip Maximiser:https://en.wikipedia.org/wiki/Instrumental_convergence#Paperclip_maximizer
Technischer Posthumanismus und Vergleich zum Transhumanismus: https://de.wikipedia.org/wiki/Posthumanismus
Homoe Deus von Yuval Noah Harari: https://de.wikipedia.org/wiki/Homo_Deus_%E2%80%93_Eine_Geschichte_von_Morgen
The Alignment Problem:https://en.wikipedia.org/wiki/AI_alignment
Robotergesetze:https://de.wikipedia.org/wiki/Robotergesetze
Stuart Russels:https://www.ki-risiken.de/2020/01/13/stuart-russells-3-prinzipien-f%C3%BCr-gutartige-ki-und-meine-zweifel-daran/
Karl Olsberg:https://www.ki-risiken.de/einf%C3%BChrung/
Explainable AI:https://kaum-intelligent.de/Folgen mit Karl Olsberg und Kaum intelligent auf ReWrite-Podcast:https://rewrite-podcast.de/?s=K%C3%BCnstliche