(Top)

Lista de valores de p(doom)

"P(doom)" es la probabilidad de resultados catastróficos (por ejemplo, la extinción humana) como resultado de la IA. Esto se refiere más a menudo a la probabilidad de que la IA tome el control de la humanidad, pero diferentes escenarios también pueden constituir "doom". Por ejemplo, una gran parte de la población muriendo debido a una nueva arma biológica creada por la IA, colapso social debido a un ciberataque a gran escala, o la IA causando una guerra nuclear. Ten en cuenta que no todos usan la misma definición cuando hablan de sus estimaciones de probabilidades de una catástrofe a manos de una IA. Lo más notable es que el horizonte temporal a menudo no se especifico, lo que hace que la comparación sea un poco difícil.

Presiona el valor de p(doom) para abrir la fuente.
  • Roman Yampolskiy
    Científico de seguridad de IA

  • Eliezer Yudkowsky
    Fundador de MIRI

  • Ruleta rusa (10 disparos)

  • Dan Hendrycks
    Jefe del Centro para la Seguridad de la IA

  • Daniel Kokotajlo
    Pronosticador y ex investigador de OpenAI

  • Zvi Mowshowitz
    Periodista independiente de seguridad de IA

  • Holden Karnofsky
    Cofundador de Open Philanthropy

  • Emad Mostaque
    Fundador de Stability AI

  • Jan Leike
    Ex líder de alineación en OpenAI

  • Paul Christiano
    Jefe de seguridad de IA, Instituto de Seguridad de IA de EE. UU., anteriormente OpenAI, fundó ARC

  • AI engineer

    (Valor medio estimado, la metodología de la encuesta puede ser defectuosa)
  • Joep Meindertsma
    Fundador de PauseAI

    (El 60% restante consiste en gran medida en "podemos pausar".)
  • Eli Lifland
    Pronosticador competitivo superior

  • Herida de bala en el pecho

  • Scott Alexander
    Popular bloguero de Internet en Astral Codex Ten

  • AI Safety Researchers

    (Media de 44 investigadores de seguridad de IA en 2021)
  • Geoff Hinton
    uno de los tres padrinos de la IA

    (Recientemente dijo "Más o menos 50-50" sobre buenos resultados para la humanidad. Anteriormente mencionó el 10%.)
  • Emmett Shear
    Cofundador de Twitch, ex CEO interino de OpenAI

  • Reid Hoffman
    Cofundador de LinkedIn

  • Yoshua Bengio
    uno de los tres padrinos de la IA

  • Dario Amodei
    CEO de Anthropic

  • Ruleta rusa (1 disparo)

  • Lina Khan
    jefa de la FTC

  • Elon Musk
    CEO de Tesla, SpaceX, X

  • Machine learning researchers

    (Media en 2023, dependiendo del diseño de la pregunta, valores medianos: 5-10%)
  • Vitalik Buterin
    Fundador de Ethereum

  • Nate Silver
    Fundador de FiveThirtyEight

  • Salto BASE semanal durante 1 año

  • Forecasting Research Institute Superforecasters

    (Del mismo estudio: Los expertos en el dominio estimaron un 3% de riesgo existencial de IA, y una catástrofe de IA en un 12%)
  • Yann LeCun
    uno de los tres padrinos de la IA, trabaja en Meta

    (menos probable que un asteroide)
  • Ataque de tiburón (riesgo anual)

Haz algo al respecto

Independiente de tu p(doom), seguramente estás de acuerdo en que no deberíamos permitir que las empresas de desarrollo de IA jueguen con nuestro futuro. Únete a PauseAI

para evitarlo.