Lista de valores de p(doom)
"P(doom)" es la probabilidad de resultados catastróficos (por ejemplo, la extinción humana) como resultado de la IA. Esto se refiere más a menudo a la probabilidad de que la IA tome el control de la humanidad, pero diferentes escenarios también pueden constituir "doom". Por ejemplo, una gran parte de la población muriendo debido a una nueva arma biológica creada por la IA, colapso social debido a un ciberataque a gran escala, o la IA causando una guerra nuclear. Ten en cuenta que no todos usan la misma definición cuando hablan de sus estimaciones de probabilidades de una catástrofe a manos de una IA. Lo más notable es que el horizonte temporal a menudo no se especifico, lo que hace que la comparación sea un poco difícil.
Presiona el valor de p(doom) para abrir la fuente.-
Roman Yampolskiy
Científico de seguridad de IA -
Eliezer Yudkowsky
Fundador de MIRI -
Ruleta rusa (10 disparos)
-
Dan Hendrycks
Jefe del Centro para la Seguridad de la IA -
Daniel Kokotajlo
Pronosticador y ex investigador de OpenAI -
Zvi Mowshowitz
Periodista independiente de seguridad de IA -
Holden Karnofsky
Cofundador de Open Philanthropy -
Emad Mostaque
Fundador de Stability AI -
Jan Leike
Ex líder de alineación en OpenAI -
Paul Christiano
Jefe de seguridad de IA, Instituto de Seguridad de IA de EE. UU., anteriormente OpenAI, fundó ARC -
AI engineer
(Valor medio estimado, la metodología de la encuesta puede ser defectuosa) -
Joep Meindertsma
Fundador de PauseAI(El 60% restante consiste en gran medida en "podemos pausar".) -
Eli Lifland
Pronosticador competitivo superior -
Herida de bala en el pecho
-
Scott Alexander
Popular bloguero de Internet en Astral Codex Ten -
AI Safety Researchers
(Media de 44 investigadores de seguridad de IA en 2021) -
Geoff Hinton
uno de los tres padrinos de la IA(Recientemente dijo "Más o menos 50-50" sobre buenos resultados para la humanidad. Anteriormente mencionó el 10%.) -
Emmett Shear
Cofundador de Twitch, ex CEO interino de OpenAI -
Reid Hoffman
Cofundador de LinkedIn -
Yoshua Bengio
uno de los tres padrinos de la IA -
Dario Amodei
CEO de Anthropic -
Ruleta rusa (1 disparo)
-
Lina Khan
jefa de la FTC -
Elon Musk
CEO de Tesla, SpaceX, X -
Machine learning researchers
(Media en 2023, dependiendo del diseño de la pregunta, valores medianos: 5-10%) -
Vitalik Buterin
Fundador de Ethereum -
Nate Silver
Fundador de FiveThirtyEight -
Salto BASE semanal durante 1 año
-
Forecasting Research Institute Superforecasters
(Del mismo estudio: Los expertos en el dominio estimaron un 3% de riesgo existencial de IA, y una catástrofe de IA en un 12%) -
Yann LeCun
uno de los tres padrinos de la IA, trabaja en Meta(menos probable que un asteroide) -
Ataque de tiburón (riesgo anual)
Haz algo al respecto
Independiente de tu p(doom), seguramente estás de acuerdo en que no deberíamos permitir que las empresas de desarrollo de IA jueguen con nuestro futuro. Únete a PauseAI para evitarlo.