Un investigador que participó en la creación de ChatGPT ha advertido de que la IA podría llevar al fin de la humanidad, o al menos existe un 50% de probabilidades de que eso ocurra.
Business Insider (se abre en una nueva pestaña) informa de que Paul Christiano, que dirigió el equipo de alineación de modelos lingüísticos en OpenAI, pero que desde entonces ha dejado la empresa y ahora dirige el Centro de Investigación de Alineación sin ánimo de lucro, hizo la advertencia en el Bankless (se abre en una nueva pestaña) podcast.
Durante la entrevista, los presentadores mencionaron la posibilidad de un «escenario catastrofista de Eliezer Yudkowsky», un conocido escéptico de la IA desde hace muchos años (en realidad, un par de décadas).
Christiano dijo a los anfitriones: «Eliezer está en esta transformación extremadamente rápida una vez que se desarrolla la IA. Yo tengo una visión un poco menos extrema al respecto».
A continuación, describe más un proceso gradual de subir marchas con la aceleración del cambio de la IA, y observa que: «En general, quizá se esté llegando más a una probabilidad de fatalidad del 50/50 poco después de tener sistemas de IA que estén al nivel humano».
Christiano también dijo en el podcast que hay «algo así como un 10-20% de posibilidades de que la IA tome el poder» en algún momento, lo que culminaría en un escenario bastante sombrío en el que muchos (o de hecho la mayoría) de los humanos estarían muertos. «Me lo tomo muy en serio», añade Christiano. No es broma.
La misión del Alignment Research Center es «alinear el futuro aprendizaje automático [AI] con los intereses humanos».
¿Condena eterna?
Ésta es una más del montón de advertencias recientes sobre cómo la IA puede acabar afectando negativamente al mundo. Y una de las más extremas, sin duda, dado que se habla de la perdición de la humanidad y de la desaparición de la mayor parte de la población de la Tierra.
Por supuesto, ni siquiera Christiano cree que haya más que una posibilidad relativamente pequeña de que esto último ocurra, pero aún así, una tirada de dados del 20% (en el peor de los casos) para una adquisición hostil por parte de la IA no es una perspectiva que nadie desearía.
Por supuesto, es interesante que cualquier adquisición por parte de una IA deba ser hostil. ¿No podemos tener el desarrollo de una inteligencia artificial considerada y benevolente que gobierne genuinamente en nuestro mejor interés, por una vez? Pues no. Cualquier IA puede empezar con buenas intenciones, pero inevitablemente se descarrilará, y los juicios para «mejorar» acabarán torciéndose de forma espectacular. Has visto las películas, ¿verdad?
Hablando en serio, lo que se quiere decir ahora es que, aunque la IA no es realmente inteligente -todavía no lo es, básicamente sigue siendo un gran (gigantesco) recolector de datos que los procesa y que, hay que reconocerlo, ya hace un uso impresionante de ellos-, necesitamos directrices y normas cuanto antes para evitar posibles desastres en el futuro.
Esas catástrofes pueden consistir en violaciones de la privacidad, por ejemplo, y no en el fin del mundo tal y como lo conocemos (TM), pero aun así hay que protegerse contra ellas.
La advertencia más reciente sobre la IA lanzada por un experto procede del llamado «Padrino de la IA», que acaba de abandonar Google. Geoffrey Hinton esbozó básicamente los argumentos generales en contra de la IA, o al menos, en contra de su expansión rápida y descontrolada -que está ocurriendo ahora-, incluidos los peligros de que la IA nos supere en inteligencia de una manera mucho más rápida de lo que él esperaba. Por no hablar de la amenaza para el empleo, que ya es muy real. En nuestra opinión, ese es el peligro más acuciante a corto plazo.
Esto sigue a una carta abierta en la que se pide una pausa en el desarrollo de ChatGPT y otros sistemas de IA durante al menos seis meses, firmada entre otros por Elon Musk (que tiene su propia respuesta en forma de una IA que promete que «probablemente no aniquilará a los humanos»).