¿Cómo hacer obedecer a los robots?

¿Cómo hacer obedecer a los robots?

- enSin categoría
0
Robot. Sputnik - Alexandr Ovcharov

Washington, 7 Jun (Sputnik).- Un grupo de expertos de la Universidad de California en Berkeley, Estados Unidos,  determinó el ‘nivel de libertad’ de las máquinas con inteligencia artificial lo que podría mejorar sus algoritmos y evitar que se negaran a cumplir las tareas indicadas o, al revés, se sometieran ‘a ciegas’ a la voluntad humana.

Un robot (imagen referencial)Robot. Sputnik/ Ramil Sitdikov
Los científicos estadounidenses han creado un modelo matemático de interacción entre hombre y robot que representa un “juego de interruptor”.

Según ellos, los robots con inteligencia artificial funcionarán mejor si carecen de ‘confianza en sí mismos’ en sus acciones. Lo que quiere decir que las máquinas deben saber no solo cumplir las tareas necesarias sino también atender las tentativas de una persona de intervenir.

El concepto del juego es fácil: un robot con interruptor recibe una tarea que puede ser anulada por una persona en cualquier momento al pulsar una tecla. Sin embargo, si el robot lo considera irracional, bloquea las acciones del operador y sigue funcionando. La tarea principal de la máquina es actuar con el máximo beneficio para el usuario.

Si el programa cree que el comportamiento del operador no es óptimo y el robot actúa a favor de sus intereses, entonces, nunca permitirá hacerse apagar. Y al revés, si la máquina piensa que la persona siempre tiene razón, se apagará a la primera orden, aunque en realidad la inteligencia artificial haga todo de forma correcta.Los expertos teorizan que la estrategia óptima para la máquina es tener en cuenta las tentativas del usuario de parar el proceso, informarlo de que el robot quiere seguirlo y esperar la respuesta del usuario, demostrando así la ‘falta de confianza’ en sus propias acciones.

El problema estudiado no es abstracto. Por ejemplo, el vehículo no tripulado que lleva a un niño pequeño a la escuela no debería obedecer directamente a sus órdenes, así que el algoritmo debe saber distinguir intervenciones razonables de las obviamente erróneas.

Los autores no detallan soluciones concretas para el problema pero señalan que desde el punto de vista de la seguridad “el sistema no debe llegar a extremos”. En el futuro, los investigadores planean calcular la probabilidad de diferentes reacciones del robot cuando está al tanto de su utilidad personal. (Sputnik)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

También te puede gustar

El Pentágono autoriza el gasto de $1.000 millones para construir el muro fronterizo

Washington, 26 mar (Sputnik).- El Departamento de Defensa