Estudio asegura que no podremos detener a las máquinas inteligentes

Un equipo de científicos realizaron pruebas para determinar qué seguridad tenemos de que las máquinas super inteligentes actúen a nuestro favor.
Foto: Pixabay
Foto: Pixabay Pixabay

La inteligencia artificial se ha vuelto parte de los nuevos estudios científicos, pero de a poco va ganando lugar en nuestras vidas. Es más común de lo que pensamos, pero a veces suponemos que es parte de una novela de ciencia ficción, donde los robots quieren asesinar a los humanos.

Contrario a esta creencia, se suele decir que al ser los humanos los que desarrollan los algoritmos de las máquinas, tenemos la posibilidad de que no produzcan ningún tipo de daño. Pero aparentemente esto no es tan así.

Un equipo de científicos realizó un estudio donde utilizaron cálculos teóricos y llegaron a la conclusión de que una inteligencia artificial super inteligente no podría ser controlada por algoritmos.

Según comentan desde The Next Web, se está intentando llegar a la respuesta a una pregunta formulada por el filósofo Oxford Nick Bostrom, quien planteaba: ¿qué seguridad tenemos de que las máquinas super inteligentes actúen a nuestro favor?

Los científicos comenzaron a buscar la solución. Comenzaron por hacer un algoritmo de contención teórico que simulaba un comportamiento de inteligencia artificial. Luego detenían el proceso para ver si las acciones de la inteligencia artificial se volvían nocivas.

Los investigadores llegaron a concluir que parecía imposible armar un algoritmo que lograra controlar tal inteligencia. Al respecto, Iyad Rahwan, Director del Centro para Humanos y Máquinas, concluía que si el algoritmo le ordena a la inteligencia artificial no destruirnos, detiene su propias operaciones. De ser así, no sabría si el algoritmo de contención continúa su análisis o se detuvo para contener a la peligrosa inteligencia artificial. O sea, el algoritmo de contención se vuelve inútil. 

Esta inteligencia artificial continúa siendo hipotética, pero no estamos tan lejos como creemos. Manuel Cebrian, uno de los autores del estudio, dice que hay máquinas entre nosotros que desempeñan tareas que los propios programadores no saben cómo las aprendieron.