Los Bots tienen más éxito si se hacen pasar por humanos

Un equipo de investigación internacional que incluía a Lyad Rahwan, Director del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano en Berlín, buscó averiguar si la cooperación entre humanos y máquinas es diferente si la máquina pretende ser humana. Llevaron a cabo un experimento en el que los humanos debían interactuar con bots.

En el estudio publicado en Nature Machine Intelligence, los científicos muestran que los bots tienen una mayor tasa de éxito que los humanos en ciertas interacciones hombre-máquina, pero solo si se les da la posibilidad de ocultar su identidad no humana.


Las voces artificiales como la de Siri o Alexa, y sus respuestas a menudo incómodas no dejan dudas en que no nos estamos comunicando con una persona real. Los últimos avances tecnológicos que combinan inteligencia artificial con voces realistas dan la posibilidad de que los robots se hagan pasar por humanos. Esto ha llegado a la formulación de nuevas preguntas de origen ético: ¿Es la suplantación de humanos por parte de los bots un caso de engaño? ¿Debería ser obligatoria la transparencia?

Investigaciones ya han demostrado que los humanos prefieren no cooperar con los robots inteligentes. Pero si las personas no se dan cuenta de que están interactuando con una máquina y da lugar a una cooperación más exitosa, ¿no tendría sentido mantener el engaño en algunos casos?

En el estudio publicado en Nature Machine Intelligence, un equipo de investigación de Los Emiratos Árabes Unidos, EE. UU y Alemania que involucró a Lyad Rahwan, preguntó a casi 700 participantes en línea juego de cooperación para interactuar con un humano o un compañero artificial. En el juego, conocido como el dilema del prisionero, los jugadores tenían la posibilidad de actuar de manera egoísta para explotar al otro jugador o cooperar con ventajas para ambas partes.

La parte más importante del experimento era que los investigadores dieron a algunos de sus participantes información falsa sobre la identidad de su compañero de juego. A algunos de los participantes se les decía que estaban jugando con un bot, y viceversa. Con esto, los investigadores lograron examinar si los humanos tienen prejuicios contra los socios de juego que toman por bots o si por el contrario hace una diferencia en la eficiencia de los bots si admiten que son bots o no.

Estos hallazgos mostraron que los bots que se hacen pasar por humanos tuvieron más éxito al convencer a sus compañeros de juego de cooperar. Aunque cuando revelaban su verdadera identidad, las tasas de cooperación disminuían. En cuanto a las utilidades que podría tener esto podemos destacar el uso de estos bots en formato de asistentes humanos y de esa forma proporcionar una asistencia mucho más rápida y eficiente. Los investigadores dicen que la sociedad tendrá que negociar las distinciones entre los casos de interacción de hombre-máquina que requieren transparencia y aquellos en los que la eficiencia es la clave.

Artículo original

Deja un comentario