In der letzten Woche haben neben Technikchef Ilya Sutskever weitere wichtige Personen OpenAI verlassen. Einer davon war Jan Leike, bisher zuständig für die Sicherheit hochentwickelter KI und Leiter des "Superalignment"-Teams. In einer Serie von Tweets erklärt er sehr offen die Hintergründe seines unerwarteten Abgangs. Sie sind erschreckend.
Jan Leikes Tweet-Serie: x.com/janleike/status/1791498...
Meine deutsche Übersetzung: www.ki-risiken.de/2024/05/18/...
Ein Bericht über die "Knebelverträge", die OpenAI-Mitarbeiter unterzeichnen müssen: www.vox.com/future-perfect/20...
Ein Aufruf führender KI-Wissenschaftler, die existenziellen Risiken der KI ebenso ernst zu nehmen wie die eines Atomkriegs oder einer globalen Pandemie: www.safe.ai/work/statement-on...
Ein ergänzender Blogbeitrag von mir zu der Frage, warum KI überhaupt ein existenzielles Risiko ist: www.ki-risiken.de/2024/05/21/...
Ein weiterer Blogbeitrag zu der in den Kommentaren gestellten Frage, was wir denn überhaupt tun können: www.ki-risiken.de/2024/05/20/...
Негізгі бет Ғылым және технология Eine deutliche Warnung
Пікірлер: 539