Ciencia

¿La IA puede destruir a la humanidad?

Hoy, con el auge de herramientas desarrolladas por OpenAI y Google, el debate resurge con fuerza.

Más de medio siglo antes de que los asistentes virtuales respondieran preguntas cotidianas, el cine ya imaginaba máquinas capaces de pensar por sí mismas. En 2001: A Space Odyssey (1968), el ordenador HAL 9000 controla una misión espacial y termina rebelándose contra los astronautas, instalando en el imaginario colectivo la idea de que algún día las máquinas podrían superar y desafiar a sus creadores.

Hoy, con el auge de herramientas desarrolladas por OpenAI y Google, el debate resurge con fuerza. Los sistemas de inteligencia artificial generativa pueden redactar textos fluidos, crear imágenes y resolver problemas complejos. Sin embargo, expertos advierten que estas capacidades no implican consciencia ni voluntad propia.

La investigadora Melanie Mitchell, del Instituto Santa Fe, señala que el concepto de “inteligencia” ha cambiado constantemente. Lo que antes parecía exclusivo del pensamiento humano —como vencer a un campeón mundial de ajedrez— hoy puede lograrse mediante procesamiento masivo de datos, como ocurrió en 1996 cuando la supercomputadora Deep Blue derrotó a Garry Kasparov.

Para la lingüista Emily Bender, los modelos actuales funcionan como sistemas avanzados de predicción de texto. Aunque sus respuestas suenan humanas, no existe un “yo” consciente detrás de ellas. La mayoría de especialistas coincide en que la IA contemporánea no posee autoconciencia.

No obstante, algunos investigadores, como Yoshua Bengio, advierten que el riesgo no depende de que las máquinas “sientan”, sino de su creciente capacidad para ejecutar tareas complejas y del posible uso indebido de estas herramientas.

Lejos de los escenarios apocalípticos de la ciencia ficción, el verdadero desafío radica en regular y orientar el desarrollo tecnológico. La pregunta ya no es si la IA será como HAL, sino cómo la humanidad decidirá utilizarla.

Publicaciones relacionadas

Botón volver arriba