Elon Musk y Apple. Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad.
Desde Revista G7 nos unimos a Elon Musk y Apple al llamado para que todos los laboratorios de IA para pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 .
Esta pausa debe ser pública y verificable, e incluir a todos los actores clave.
Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.
Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos:
¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?
¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento?
¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?
¿ Deberíamos arriesgarnos a perder el control de nuestra civilización?
Elon Musk y Apple.
Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.
Leé toda la carta abierta y si estas de acuerdo agregá tu firma aquí:
La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.