(Top)

Plantilla de correos electrónicos

Crea un email para enviar a tus representantes políticos.

Por qué enviar un email es genial

  • Sales de tu burbuja. Si hablas de los riesgos de la IA o de la pausa en un servidor de Discord o en Twitter, lo más probable es que les estés hablando a los ya convencidos. Con el correo, puedes llegar a personas que no leen sobre estos temas normalmente.
  • Es el medio de los profesionales. Políticos, periodistas, lobistas: todos usan correos electrónicos. Si quieres que te tomen en serio, tú también deberías usarlo.
  • Hacer que el riesgo de la IA sea de público conocimiento es clave. Necesitamos que todos sepan que todos los demás saben sobre el riesgo de la IA, para que sea de conocimiento común y la gente se sienta más cómoda hablando de ello. No sólo convencer a personas influyentes, como políticos, periodistas y lobistas. (Vea la explicación de Connor sobre por qué hacer que el riesgo de la IA sea de público conocimiento es súper importante aquí
    y aquí
    .)
  • Sin presión social. Si publicas algo abiertamente, un político puede dudar en responder a un tema sobre el cual aún no ha tomado una decisión.
  • No mucha gente lo hace realmente. Eso significa que tu correo electrónico destacará.

A quién enviárselo

  • Idealmente, a alguien que pueda asistir a la próxima cumbre. Muchos países asistirán a la próxima Cumbre de Seguridad de la IA. ¿Quién es probable que represente a su país? ¿Quizás un ministro de Asuntos Exteriores o de Ciencia?
  • Alguien que sea propenso a actuar. ¿Hay algún político que esté a menudo al frente del debate sobre nuevos temas digitales o científicos? ¿Quizás incluso alguien que ya haya compartido inquietudes sobre la IA? ¿O alguien que simplemente sea bueno presentando temas nuevos y controversiales y convenciendo a los demás?
  • Alguien que te represente políticamente. Quizás un político de un partido por el que votaste. Encuentra su dirección de correo electrónico
    .

Elige una preocupación

  • ¿Qué es lo que más te preocupa? No tengas miedo de ser juzgado por tus inquietudes. El trabajo de los políticos es representarte, incluyendo las cosas que te preocupan.
  • Ten en cuenta a la persona a la que escribes y lo que ya puede creer. Si estás escribiendo a alguien que ya ha trabajado en temas de TI y ciberseguridad, considera enfocarte en ese tema en particular.
  • Selecciona una:   

Elige una acción

  • ¿Qué quieres que haga el destinatario después de recibir tu correo? ¿Preparar para la cumbre, organizar un debate, tener una reunión? Al igual que con cada sección, puedes reemplazar el texto sugerido si tienes una mejor idea.
  • Selecciona una:     

Últimos pasos

Antes de enviar el correo electrónico, debes reemplazar manualmente los placeholders "__NOMBRE__", "__TEMA__", "__PAÍS__" y "__TU NOMBRE__". También puede ser eficaz personalizar aún más el mensaje. Aquí tienes algunos consejos:

  • Conoce a tu destinatario. Infórmate sobre la persona a la que envías la carta. ¿En qué están trabajando? ¿Qué opinan sobre la IA? ¿Qué ha sucedido en su vida profesional las últimas semanas?
  • Comparte algo sobre ti. ¿Por qué te importa la seguridad de la IA? ¿Por qué te tomaste el tiempo de enviar esta carta?
  • Hazlo noticioso. La plantilla de correo no siempre está actualizada. Asegúrate de mencionar los avances recientes en políticas de IA (especialmente los locales).

Para obtener más información, puedes echar un vistazo a nuestra página sobre cómo escribir una carta o un correo electrónico a alguien en el poder.

Resultado

Puedes editar el mensaje directamente en el navegador.

Estimado/a __NOMBRE__,

En primer lugar, muchas gracias por todo lo que ha hecho por __TEMA__. Le escribo hoy para llamar su atención sobre un asunto en el que creo que __PAÍS__ y usted en particular pueden desempeñar un papel muy importante. El tema es la amenaza existencial de la inteligencia artificial.

La mitad de los investigadores de IA creen que hay un 10 % o más de probabilidades de que la invención de una superinteligencia artificial signifique el fin de la humanidad. Entre los científicos de seguridad de la IA, esta probabilidad se estima en un promedio del 30 %. Ejemplos notables de personas que han hecho sonar la alarma son Geoffrey Hinton y Yoshua Bengio, ambos ganadores del premio Turing y pioneros de los métodos de aprendizaje profundo que actualmente están logrando el mayor éxito. El riesgo existencial de la IA ha sido reconocido por cientos de científicos, la ONU, los EE.UU. y la Unión Europea.

En resumen: no sabemos cómo alinear la IA con los objetivos y valores complejos que tenemos los humanos. Cuando se materialice un sistema superinteligente, existe un riesgo significativo de que una de estas instancias persiga un objetivo desalineado sin que podamos detenerlo. E incluso si esa IA sobrehumana permaneciera bajo control humano, quien ostentara tal poder podría usarlo para cambiar el mundo de forma drástica e irreversible. Tal IA podría usarse para desarrollar nuevas tecnologías y armas, manipular a masas de personas o derrocar gobiernos.

Los avances en el panorama de la IA han progresado mucho más rápido de lo previsto. En 2020, se estimaba que una IA superaría los exámenes de ingreso a la universidad para 2050. Este objetivo se logró en marzo de 2023. Ahora, la IA ya está escribiendo hasta el 90 % del código en las empresas de IA. En algún momento, posiblemente en un futuro cercano, la IA podrá construir directamente IA más poderosas, lo que conducirá a un aumento rápido de las capacidades de la IA. Miles de expertos han pedido una pausa en el desarrollo de la IA más avanzada, y también parece haber un amplio apoyo para frenar el desarrollo de la IA entre el público. Una encuesta indica que el 63 % de los estadounidenses apoya regulaciones para evitar que las empresas de IA construyan IA superinteligente. Más de 100 000 personas (incluidos los investigadores de IA más citados) han firmado una declaración sobre la prohibición del desarrollo de una superinteligencia.

Incluso entre los directores ejecutivos de las empresas de IA, hay un “consenso abrumador” de que la regulación es necesaria, pero parece que las empresas no están dispuestas a poner en peligro su posición competitiva deteniendo voluntariamente el desarrollo. Un gobierno tendría que imponer una pausa. Desafortunadamente, la dinámica de carrera no solo se aplica a las empresas: los países también tienen incentivos para no quedarse atrás en las capacidades de IA y priorizan el crecimiento sobre la seguridad. Estas dinámicas son la razón por la que necesitamos urgentemente una solución internacional. Necesitamos coordinación internacional, necesitamos que los políticos inicien negociaciones de tratados.

Me gustaría pedirle que considere trabajar para entablar negociaciones de un tratado para la gobernanza del cómputo, lo que evitaría los peores riesgos que plantea la IA. Un país debería tomar la iniciativa, y en este momento, ninguno lo está haciendo.

La parte más importante de dicho documento es que debería haber algún mecanismo implementado que pueda pausar los entrenamientos más peligrosos. Idealmente, esto sucede antes de que se entrene un modelo, ya que los accidentes de IA podrían ocurrir durante las pruebas de laboratorio. Se pueden encontrar implementaciones de esta idea aquí.

Atentamente,

__TU NOMBRE__