spot_img

Últimas 7 notas

Apple y Elon Musk piden parar al ChatGPT

Elon Musk y Apple. Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad.

Desde Revista G7 nos unimos a Elon Musk y Apple al llamado para que todos los laboratorios de IA para pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 .

Esta pausa debe ser pública y verificable, e incluir a todos los actores clave.

Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos:

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?

¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento?

¿Deberíamos  desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?

¿ Deberíamos arriesgarnos a perder el control de nuestra civilización?

Elon Musk y Apple.

Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.

Leé toda la carta abierta y si estas de acuerdo agregá tu firma aquí:

Pause Giant AI Experiments: An Open Letter

 

La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados ​​por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

NEWS @ REVISTA G7

*

PERSONAJES

ÚLTIMAS REVISTAS G7 IMPRESAS

Edición #144

Edición #143

Edición #142

Edición #141

Edición #140

CREATIVIDAD Y NEGOCIOS

OPINIÓN

CULTURA

INNOVACIÓN

ESTILO

G7 BRANDS