Premios Nobel y científicos piden poner límites a la IA
Premios Nobel, expertos en inteligencia artificial (IA) y científicos pidieron la creación una institución internacional para poner límites a los riesgos de la IA, antes de las reuniones de alto nivel de la Asamblea General de las Naciones Unidas que se celebra esta semana en Nueva York.
Esta iniciativa, firmada por más de doscientas personas y más de setenta organizaciones, insta a los gobiernos a establecer un acuerdo internacional vinculante sobre las “líneas rojas” para la inteligencia artificial.
El experto detalló que el objetivo no es reaccionar tras un incidente grave y castigar las infracciones posteriormente, sino prevenir riesgos a gran escala, potencialmente irreversibles, antes de que ocurran.
El fin de esta coalición de expertos es que se exija a los desarrolladores que demuestren la seguridad de sus IA como condición para acceder al mercado, al igual que se hace en la creación de medicamentos y en las centrales nucleares.
Las grandes tecnológicas, como Meta, Google u OpenAI, están poniendo toda la carne en el asador y enormes cantidades de dinero para llegar a la “superinteligencia” o inteligencia artificial general (IAG, en inglés AGI), un hipotético sistema de IA que supera las capacidades del cerebro humano y que por ahora solo existe en la ciencia ficción, pero que, según los expertos, podría llegar en la próxima década.
Stuart Russell, profesor de la Universidad de Berkeley, destacó que la IA está diseñada para imitar muy bien a los humanos.
Lo que más preocupa a Russell es que los desarrolladores admiten que no tienen ningún plan para controlar los sistemas de IA y que, por el momento, los gobiernos no tienen ningún plan para exigirles que lo hagan.
Russell dijo que no quería ser alarmista, pero que existe una probabilidad “significativa” de una catástrofe del tamaño del accidente nuclear de Chernóbil, ya que esta tecnología podría estar detrás de un sabotaje coordinado de los sistemas financieros, de comunicación o de las redes eléctricas.