![SF-RADIO.ORG artwork](https://is4-ssl.mzstatic.com/image/thumb/Podcasts126/v4/fc/c0/63/fcc063b9-c40f-8e8d-e9dc-40c5d83f8125/mza_14009064604701238079.jpg/100x100bb.jpg)
Risiken Künstlicher Intelligenz (mit Karl Olsberg)
SF-RADIO.ORG
German - June 05, 2021 06:00 - 1 hour - 78.7 MBScience Fiction Fiction Homepage Download Apple Podcasts Google Podcasts Overcast Castro Pocket Casts RSS feed
Risiken Künstlicher Intelligenz (mit Karl Olsberg)
Diskutierte Blog-Beiträge
1. Das Kompetenzproblem
2. Das Ungleichheitsproblem
3. Das Midas-Problem
Stuart Russells 3 Prinzipien
für „gutartige“ KI (und Zweifel daran)
Maximierung des Ziels der „Verwirklichung menschl. Werte“, Anfangsunsicherheit, welche Werte das sind u. Ableitung dieser aus Beobachtung menschl. Verhaltens.
Regeln für gutartige KI von Karl Olsberg
Eine Maschine …
1. darf kein unbegrenztes Ziel verfolgen.
2. muss sich an geltende Gesetze halten.
3. muss tun, was der Nutzer von ihr möchte – ohne Verstoß gegen Regel 1 oder 2.
Weitere Blogbeiträge (Auswahl)
Weitere Beiträg auf Karl Olsbergs Blog KI-Risiken
Referenzen
OODA-Loop [wikipedia dt.]
Human-in-the-loop [wikipedia engl.]
KI-Regeln: Wofür das
Europäische Parlament eintritt [dt.]
The ethics of artificial intelligence:
Issues and initiatives [engl.]
Empfehlungen
Youtube-Channel: Karl Olsbergs KONSEQUENZEN
ReWrite Ausgabe 57: Karl Olsbergs Roman »Mirror«
ReWrite Ausgabe 17: Künstliche Intelligenz in Literatur und Film
Sam Harris: Can we build AI without losing control over it? [TED Talk auf youtube, engl.]