The Inside View
Een podcast door Michaël Trazzi
54 Afleveringen
-
Curtis Huebner on Doom, AI Timelines and Alignment at EleutherAI
Gepubliceerd: 16-7-2023 -
Eric Michaud on scaling, grokking and quantum interpretability
Gepubliceerd: 12-7-2023 -
Jesse Hoogland on Developmental Interpretability and Singular Learning Theory
Gepubliceerd: 6-7-2023 -
Clarifying and predicting AGI by Richard Ngo
Gepubliceerd: 9-5-2023 -
Alan Chan And Max Kauffman on Model Evaluations, Coordination and AI Safety
Gepubliceerd: 6-5-2023 -
Breandan Considine on Neuro Symbolic AI, Coding AIs and AI Timelines
Gepubliceerd: 4-5-2023 -
Christoph Schuhmann on Open Source AI, Misuse and Existential risk
Gepubliceerd: 1-5-2023 -
Simeon Campos on Short Timelines, AI Governance and AI Alignment Field Building
Gepubliceerd: 29-4-2023 -
Collin Burns On Discovering Latent Knowledge In Language Models Without Supervision
Gepubliceerd: 17-1-2023 -
Victoria Krakovna–AGI Ruin, Sharp Left Turn, Paradigms of AI Alignment
Gepubliceerd: 12-1-2023 -
David Krueger–Coordination, Alignment, Academia
Gepubliceerd: 7-1-2023 -
Ethan Caballero–Broken Neural Scaling Laws
Gepubliceerd: 3-11-2022 -
Irina Rish–AGI, Scaling and Alignment
Gepubliceerd: 18-10-2022 -
Shahar Avin–Intelligence Rising, AI Governance
Gepubliceerd: 23-9-2022 -
Katja Grace on Slowing Down AI, AI Expert Surveys And Estimating AI Risk
Gepubliceerd: 16-9-2022 -
Markus Anderljung–AI Policy
Gepubliceerd: 9-9-2022 -
Alex Lawsen—Forecasting AI Progress
Gepubliceerd: 6-9-2022 -
Robert Long–Artificial Sentience
Gepubliceerd: 28-8-2022 -
Ethan Perez–Inverse Scaling, Language Feedback, Red Teaming
Gepubliceerd: 24-8-2022 -
Robert Miles–Youtube, AI Progress and Doom
Gepubliceerd: 19-8-2022
The goal of this podcast is to create a place where people discuss their inside views about existential risk from AI.
