Un estudio enfrenta tres distintas situaciones en la que un androide podría mentirle a un humano y cómo la persona interpretaría este escenario
Las normas sociales ayudan a los humanos a entender cuándo debemos decir la verdad y cuándo no, para no herir los sentimientos de alguien o evitar hacerle daño. Pero, ¿cómo se aplican estas normas a los robots, que cada vez trabajan más con humanos? Para entender si los humanos pueden aceptar que los robots digan mentiras, los científicos pidieron a casi 500 participantes que calificaran y justificaran diferentes tipos de engaños de los robots. Las conclusiones se recojen enFrontiers in Robotics and AI.
“Quería explorar una faceta poco estudiada de la ética de los robots, para contribuir a nuestra comprensión de la desconfianza hacia las tecnologías emergentes y sus desarrolladores –señala Andrés Rosero, candidato a doctorado en la Universidad George Mason (Estados Unidos) y autor principal del artículo–. Con la llegada de la IA generativa, sentí que era importante comenzar a examinar posibles casos en los que se pudieran utilizar conjuntos de comportamientos y diseños antropomórficos para manipular a los usuarios”.
Para este trabajo, los científicos seleccionaron tres escenarios que reflejaban situaciones en las que los robots ya trabajan (en el ámbito médico, de limpieza y en el comercio minorista) y tres comportamientos de engaño diferentes: engaños estatales externos, que mienten sobre el mundo que está más allá del robot; engaños estatales ocultos, en los que el diseño del robot oculta sus capacidades; y engaños estatales superficiales, en los que el diseño del robot exagera sus capacidades.
En el escenario de engaño del estado externo, un robot que trabaja como cuidador de una mujer con Alzheimer miente diciéndole que su difunto esposo llegará pronto a casa. En el escenario de engaño del estado oculto, una mujer visita una casa donde una ama de llaves robot está limpiando, sin saber que el robot también está filmando. Finalmente, en el escenario de engaño del estado superficial, un robot que trabaja en una tienda como parte de un estudio sobre las relaciones entre humanos y robots se queja falsamente de sentir dolor al mover muebles, lo que hace que un humano le pida a otra persona que ocupe el lugar del robot.
Los científicos reclutaron a 498 participantes y les pidieron que leyeran uno de los escenarios y luego respondieran a un cuestionario. En este se preguntaba a los participantes si aprobaban el comportamiento del robot, en qué medida era engañoso, si podía justificarse y si alguien más era responsable del engaño. Los investigadores codificaron estas respuestas para identificar temas comunes y las analizaron.
Los participantes desaprobaron la mayor parte del engaño estatal oculto, el robot de limpieza con la cámara oculta, que consideraron el más engañoso. Si bien consideraron que el engaño estatal externo y el engaño estatal superficial eran moderadamente engañosos, desaprobaron más el engaño estatal superficial, en el que un robot fingía sentir dolor. Esto puede haber sido percibido como manipulador.
Los participantes aprobaron la mayor parte del engaño del estado externo, en el que el robot mintió a un paciente. Justificaron el comportamiento del robot diciendo que protegía al paciente de un dolor innecesario, priorizando la norma de no herir los sentimientos de alguien por sobre la honestidad.
Aunque los participantes pudieron justificar los tres engaños (por ejemplo, algunos sugirieron que el robot de limpieza podría filmar por razones de seguridad), la mayoría de los participantes declaró que el engaño del estado oculto no podía justificarse. De manera similar, aproximadamente la mitad de los participantes que respondieron al engaño del estado superficial dijeron que era injustificable. Los participantes tendieron a culpar a los desarrolladores o propietarios de los robots de estos engaños inaceptables, especialmente los engaños del estado oculto.
“Creo que deberíamos preocuparnos por cualquier tecnología que sea capaz de ocultar la verdadera naturaleza de sus capacidades, porque podría llevar a que los usuarios sean manipulados por esa tecnología de maneras que el usuario (y quizás el desarrollador) nunca pretendieron”, reflexiona Rosero. “Ya hemos visto ejemplos de empresas que utilizan principios de diseño web y chatbots de inteligencia artificial de maneras que están diseñadas para manipular a los usuarios para que realicen una determinada acción. Necesitamos una regulación para protegernos de estos engaños dañinos”.
Sin embargo, los científicos advirtieron que esta investigación debe extenderse a experimentos que puedan modelar mejor las reacciones de la vida real, por ejemplo, videos o juegos de roles cortos.
“El beneficio de utilizar un estudio transversal con viñetas es que podemos obtener una gran cantidad de actitudes y percepciones de los participantes de una manera económica”, explicó Rosero. “Los estudios con viñetas brindan hallazgos de referencia que pueden corroborarse o cuestionarse mediante experimentos posteriores. Es probable que los experimentos con interacciones entre humanos y robots en persona o simuladas brinden una mayor comprensión de cómo los humanos realmente perciben estos comportamientos de engaño de los robots”.
Fuente: elmundo.es