Científicos de la Sociedad Max Planck, una prestigiosa institución de investigación europea, afirman que la humanidad nunca podrá controlar una inteligencia artificial superinteligente, y que este podría salvar o destruir a la humanidad. [Ver video]
El problema de acuerdo a los científicos es que no hay forma de contener un algoritmo de este tipo sin una tecnología mucho más avanzada que la que podemos construir hoy.
El equipo se centró principalmente en la cuestión de la contención. Si un algoritmo todopoderoso decidiera de alguna manera que debe hacer daño a la gente, de una manera más parecida a la de "Termíneitor", este acabará con la humanidad por completo.
Los científicos propusieron construir una especie de "algoritmo de contención" que simule el comportamiento del algoritmo peligroso y le impida hacer nada perjudicial, pero como el algoritmo de contención tendría que ser al menos tan poderoso como el primero para poder hacerlo, los científicos declararon que el problema era imposible de resolver.
Todo esto es un debate teórico. Es probable que la Inteligencia Artificial lo suficientemente avanzada como para amenazar a la humanidad esta todavía lejos, aunque gente muy inteligente está trabajando duro en ello.
"Una máquina superinteligente que controle el mundo suena a ciencia ficción", dijo Manuel Cebrián, coautor del estudio, "Pero ya hay máquinas que realizan ciertas tareas importantes de forma autónoma sin que los programadores entiendan del todo cómo lo han aprendido. Por tanto, se plantea la cuestión de si esto podría llegar a ser en algún momento incontrolable y peligroso para la humanidad". Concluye Cebrián.
Si vamos a seguir adelante con la inteligencia artificial, creando maquinas cada vez más inteligentes, es posible que ni siquiera sepamos cuándo llegará una superinteligencia más allá de nuestro control. Eso significa que tenemos que empezar a hacer algunas preguntas serias sobre las direcciones que estamos tomando.