Go to home page

Inteligencia Artificial: El Dr. Frankenstein cada vez más asustado de su creación

3 de mayo de 2023 (EIRNS)  Con claro disgusto de los mercados financieros, cuyos rastreadores operan todos con “Inteligencia Artificial” (IA) y que han hecho enormes apuestas en los mercados tecnológicos, expertos en inteligencia artificial y destacadas personalidades del medio (entre ellos Elon Musk, presidente ejecutivo de SpaceX, y Steve Wozniak, cofundador de Apple) publicaron el 22 de marzo una carta abierta en la que piden "a todos los laboratorios de IA que hagan de inmediato una pausa de al menos 6 meses en el entrenamiento de sistemas de IA más potentes que el GPT-4". 

La carta abierta, "Pause Giant AI Experiments: An Open Letter” (Pausa a los experimentos gigantes de IA: una carta abierta), firmada por más de 27.000 personas, argumenta lo siguiente: "La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería planificarse y gestionarse con el cuidado y los recursos correspondientes. Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie ni siquiera sus creadores puede entender, predecir o controlar de manera fiable". 

Los autores se preguntan: "¿Deberíamos desarrollar mentes no humanas que, con el tiempo, podrían superarnos en número, en inteligencia, en obsolescencia y nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?". (futureoflife. org/ open-letter/pause-giant-ai-experiments/ ) 

Eliezer Yudkowsky, considerado uno de los fundadores de la IA, va mucho más lejos en un artículo de Time titulado "Pausar el desarrollo de la IA no es suficiente. Necesitamos clausurarlo por completo".

"Me he abstenido de firmar porque creo que la carta subestima la gravedad de la situación. Muchos investigadores empapados en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todo el mundo en la Tierra morirá. No en el sentido de 'tal vez sea una remota posibilidad', sino en el sentido de 'eso es lo obvio que ocurriría'", escribe Yudkowsky. (time. com/ 6266923/ai-eliezer-yudkowsky-open-letter-not-enough/). 

Por supuesto, en principio, la IA (basada únicamente en la "estupidez" algorítmica) nunca será capaz de ser más inteligente que la creatividad humana, a menos que se vea superada por humanos confusos que no presten atención o cegados por la geopolítica y la codicia. En la famosa película de ciencia ficción de Stanley Kubrick "2001: Una odisea del espacio", el astronauta superviviente interviene en el último momento para desactivar el sistema de IA. Pero, ¿lo habría hecho el astronauta si el sistema de IA le hubiera condicionado psicológicamente previamente para no hacerlo?

 

Para mayor información escriba a preguntas@larouchepub.com

 

Volver    Volver al inicio

clearclearclear