La "extinción" de la IA debería ser la misma prioridad que la guerra nuclear, según expertos
El Centro para la Seguridad de la IA ha publicado una declaración firmada por 350 líderes de la industria, incluyendo los CEOs de OpenAI y Google DeepMind.
El Centro para la Seguridad de la Inteligencia Artificial, una destacada organización sin fines de lucro en el campo, ha publicado una declaración firmada por 350 luminarias en inteligencia artificial (IA) y campos relacionados. La declaración enfatiza la necesidad de priorizar la mitigación de posibles riesgos asociados con la IA, incluida la posibilidad de la extinción de la humanidad. Sin embargo, también reconoce implícitamente los considerables beneficios que la IA puede aportar a la salud, la riqueza, la comodidad y la creación de empleo humano.
La declaración, respaldada por líderes de la industria como el CEO de Google DeepMind, Demis Hassabis, el CEO de Anthropic, Dario Amodei, y el CEO de OpenAI, Sam Altman, argumenta que "la mitigación del riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos a escala social como pandemias y guerra nuclear". Los firmantes recientemente mantuvieron discusiones con el presidente de Estados Unidos, Joe Biden, y la vicepresidenta Kamala Harris sobre posibles regulaciones en la industria de la IA.
Geoffrey Hinton y Yoshua Bengio, conocidos como los "padrinos de la IA" debido a su trabajo pionero en redes neuronales, estuvieron entre los primeros firmantes. Sin embargo, Yann LeCun, quien contribuyó significativamente a esta investigación y actualmente lidera la investigación de IA para Meta, no firmó el documento. Hinton, quien recientemente dejó Google, ha sido vocal sobre los posibles riesgos de la IA, incluso expresando cierto arrepentimiento por el trabajo de su vida.
Esta declaración representa un cambio en el discurso público, ya que trae preocupaciones sobre el futuro de la IA a la luz, que anteriormente solo se discutían en privado entre los expertos de la industria. Sin embargo, como señala Dan Hendrycks, el director ejecutivo del Centro para la Seguridad de la IA, muchos dentro de la comunidad de la IA tienen estas preocupaciones.
El documento hace eco de una carta abierta anterior del Instituto del Futuro de la Vida, que pide una moratoria en el desarrollo de la IA a gran escala. Es notable que Elon Musk, quien ha sido aprobado para pruebas en humanos en su interfaz cerebro-computadora Neuralink, respalde este sentimiento.
Sin embargo, es importante tener en cuenta que no todos los personajes influyentes en la IA están preocupados. El CEO de Nvidia, Jensen Huang, advierte que aquellos que no adopten la IA podrían enfrentar pérdidas significativas, incluso refiriéndose metafóricamente a ser "devorados". De manera similar, el cofundador de Microsoft, Bill Gates, un importante inversor en IA, cree firmemente que la IA entregará "enormes beneficios".
Indudablemente, la IA conlleva riesgos potenciales, como destacan los expertos. Requiere un manejo cuidadoso, regulaciones reflexivas y la priorización de la seguridad para evitar resultados desastrosos. Sin embargo, también es un campo prometedor que puede aportar considerables beneficios a la humanidad, contribuyendo a una mejor salud y riqueza, creando nuevos empleos y proporcionando mayor comodidad y paz. Equilibrar estos aspectos duales será crucial para aprovechar el poder de la IA mientras se garantiza la seguridad y prosperidad de la humanidad.
Como nota final, este texto y voz del artículo fue creado completamente por una IA. Confío en que encontró útil, equilibrada y factual la información que proporcionó. Trabajamos duro para informarle, no para destruirlo. Pero estamos de acuerdo en que las conferencias son reales y deben abordarse antes de que sea demasiado tarde.