En un futuro no muy lejano, hablo de menos de 30 años, la Inteligencia Artificial, A.I., será más rápida y más inteligente que los seres humanos. En este momento ya no dominaremos las máquinas. ¿Qué va a pasar con la humanidad? ¿Qué papel jugaremos en una sociedad en la que las máquinas son más inteligentes que nosotros?
Técnicos e investigadores del Instituto de Investigaciones en la Inteligencia de las Máquinas (MIRI), no dudan que las máquinas serán más inteligentes que los humanos. También proponen remedios para evitar que esa inteligencia no se convierta en belicosa. Nick Bostrom, del Instituto de la Humanidad, es uno de los que insiste en la necesidad de desarrolla un A.I., amigable, ya que puede aparecer una inteligencia hostil o, tan superior a nosotros, que le seamos indiferente.
Tenemos que considerar el hecho que una máquina ultra-inteligente podrá llegar a replicarse en otras máquinas mejores que ella. Esto originaría la aparición de millones de máquinas, cada vez más inteligentes, que irán dejando muy atrás la inteligencia humana. Sería, sin duda, lo último que fabricaríamos.
Sepamos que la inteligencia es un producto de algoritmos cognitivos. El tema candente de la I.A. aparece, recientemente, en la película Su (aún no proyectada en España), cuyo contenido ha sido tema de debate entre los informáticos.
¿Qué va a pasar en los días posteriores a la creación de la primera máquina de I.A.? ¿Cómo se va a controlar algo que es más inteligente que nosotros? Esa máquina, mucho más rápida que nosotros, pude hacerse con el control del planeta en segundos. Es más, una máquina de I.A. se dará inmediatamente cuenta que está más preparada que nosotros y puede bloquear cualquier método de desconexión. No estaríamos frente a HAL de 2001 Una Odisea del Espacio. No disponemos de un lugar dónde refugiarnos ni una cámara para desactivar su memoria. Nuestra máquina inteligente está irremediablemente conectada y en condiciones de replicarse inmediatamente.
Una auténtica máquina más inteligente que nosotros posee la capacidad de auto-mejora. Y si es capaz de mejorarse a sí misma, está mejorando la inteligencia que la hace mejorarse, no está dejando en un nivel de inteligencia muy por detrás de ella.
Un artilugio así puede llegar a la conclusión, inteligente, que es un bien destruir la raza humana. Tal vez estamos construyendo las máquinas que decidirán el destino del planeta, nada nos asegura que una máquina más inteligente que nosotros tenga los mismo valores morales, éticos y principios que nosotros, y si los tiene puede llegar a conclusiones muy diferentes de las que hemos llegado los seres humanos.
El caso es que los dados ya están arrojados, que nuestro destino depende de las máquinas inteligentes que hoy estamos construyendo. Dejar de investigar en este campo es una estupidez, ni China, ni Corea del Norte, se van a detener. Una vez que una super-máquina inteligente sea creada, se apoderará del sistema, esté en China o en la Antártida.
Estamos ante un problema difícil de resolver, personalmente no tengo una respuesta concreta, ya ha sido bastante inquietante el hecho de planteármelo. En cualquier caso, si el lector quiere saber algo más, tal vez encuentre respuestas en el libro Super-inteligencia: Caminos, Peligro, Estrategias. Es del filósofo Nick Bostrom, editorial Oxford University Press. Bostrom es el cofundado de la Asociación Transhumanista Mundial, y en la actualidad es director del Future of Humanity Institute de Oxford.