Un grupo de investigadores del Instituto Max-Planck para el Desarrollo Humano (Alemania) ha llegado a la conclusión de que los seres humanos no serían capaces de parar una «rebelión» de las máquinas.
El gran escritor de ciencia ficción, Isaac Asimov, escribió en 1942 unas normas para los robots de sus relatos. En estas, las máquinas tenían prohibido hacer daño a un ser humano; debían cumplir las órdenes dadas por estos, y su protección no podía entrar en conflicto con la primera y segunda ley.
Ahora, un grupo de investigadores del Instituto Max-Planck para el Desarrollo Humano (Alemania) ha concluido que, aunque una inteligencia artificial parta de estas premisas, no se pueden prever sus acciones, ya que se tendría que crear una simulación de la misma superinteligencia, la cual no se puede analizar actualmente.
En este sentido, las leyes planteadas por Asimov carecen de sentido, debido a que no se conocen los escenarios y situaciones por las que pasará la inteligencia, según han asegurado los autores del estudio, publicado en Journal of Artificial Intelligence Research.
«Parece ciencia ficción cuando hablamos de que las máquinas podrían llegar a controlar el mundo«, ha comentado a ScienceAlert Manuel Cebrian, coautor del estudio, del Instituto Max-Planck para el Desarrollo Humano (Alemania). «Pero ya existen ciertas máquinas que realizan tareas importantes sin que los programadores les hayan enseñado algo«, ha añadido.
El problema de la detención para máquina de Alan Turing y la superinteligencia artificial
Los científicos han basado sus planteamientos en el problema de la parada o problema de la detención para máquina, desarrollado por Alan Turing. En este test, se realizan diferentes preguntas a una máquina para ver si alcanza conclusiones o, por el contrario, se queda atrapada en un círculo vicioso.
Sin embargo, este test se puede aplicar a máquinas menos complejas, mientras que con la superinteligencia artificial la situación se complica, teniendo en cuenta que esta puede albergar todos los programas informáticos en su memoria.
“La superinteligencia entraña un nuevo problema totalmente diferente a la ética robótica que hemos estudiado tradicionalmente”, han asegurado los investigadores.
Por ejemplo, si a la inteligencia artificial se le educara en las leyes de la robótica, puede que alcanzara una conclusión, o no, lo cual significa que no es controlable. Además, «esto provoca que el algoritmo que ya contiene no se pueda utilizar«, ha explicado Iyad Rahwan, del mismo instituto.
Así, llega a esta conclusión y advierte de que si una inteligencia artificial no es necesaria, lo mejor sería no crearla en absoluto, ya que no se sabe cómo evolucionará y ya será tarde para limitar sus capacidades.
Desgraciadamente, las leyes de la robótica serían inútiles para frenar una posible «rebelión» de las máquinas. «La gran pregunta que nos tenemos que hacer es si esto podría descontrolarse y ser peligroso para la humanidad«, ha concluido Cebrian.
Este artículo fue publicado en Business Insider España por Abraham Andreu.