Hola Google… ¿Qué película debería ver hoy? Cómo la IA puede afectar nuestras decisiones

Decisiones de IA Alexa

¿Alguna vez ha utilizado Google Assistant, Siri de Apple o Amazon Alexa para tomar decisiones por usted? Tal vez le preguntó qué películas nuevas tienen buenas críticas o si le recomendaron un restaurante atractivo en su vecindario.

La inteligencia artificial y los asistentes virtuales se perfeccionan constantemente y es posible que pronto hagan citas para usted, le ofrezcan asesoramiento médico o intenten venderle una botella de vino.

Aunque la tecnología de la IA tiene kilómetros por recorrer para desarrollar habilidades sociales a la par con las nuestras, algunas IA han demostrado una comprensión del lenguaje impresionante y pueden completar tareas interactivas relativamente complejas.

En varias demostraciones de 2018, la IA de Google hizo reservas de cortes de pelo y restaurantes sin que los recepcionistas se dieran cuenta de que estaban hablando con un no humano.

Es probable que las capacidades de inteligencia artificial desarrolladas por gigantes tecnológicos como Amazon y Google solo se vuelvan más capaces de influir en nosotros en el futuro.

Pero, ¿qué encontramos realmente convincente?

Mi colega Adam Duhachek y yo descubrimos que los mensajes de IA son más persuasivos cuando destacan "cómo" se debe realizar una acción, en lugar de "por qué". Por ejemplo, las personas estaban más dispuestas a ponerse protector solar cuando una IA explicó cómo aplicarlo antes de salir, en lugar de por qué deberían usar protector solar.

Descubrimos que la gente generalmente no cree que una máquina pueda comprender los objetivos y deseos humanos. Tome AlphaGo de Google, un algoritmo diseñado para jugar al juego de mesa Go. Pocas personas dirían que el algoritmo puede entender por qué jugar Go es divertido o por qué es significativo convertirse en un campeón de Go. Más bien, solo sigue un algoritmo preprogramado que le indica cómo moverse en el tablero de juego.

Nuestra investigación sugiere que las personas encuentran las recomendaciones de la IA más persuasivas en situaciones en las que la IA muestra pasos sencillos sobre cómo crear un seguro médico personalizado, cómo evitar un auto limón o cómo elegir la raqueta de tenis adecuada para usted, en lugar de por qué cualquiera de estas es importante. hacer en un sentido humano.

¿Tiene la IA libre albedrío?

La mayoría de nosotros creemos que los humanos tienen libre albedrío. Felicitamos a alguien que ayuda a otros porque creemos que lo hace libremente y penalizamos a quienes dañan a otros. Es más, estamos dispuestos a reducir la pena penal si la persona fue privada de su libre albedrío, por ejemplo, si estaba en las garras de un delirio esquizofrénico.

Pero, ¿cree la gente que la IA tiene libre albedrío? Hicimos un experimento para averiguarlo.

Alguien recibe $ 100 y se ofrece a compartirlo con usted. Obtendrán $ 80 y usted obtendrá $ 20. Si rechaza esta oferta, tanto usted como el proponente terminan sin nada. Ganar $ 20 es mejor que nada, pero investigaciones anteriores sugieren que es probable que la oferta de $ 20 sea rechazada porque la percibimos como injusta. Seguramente deberíamos obtener $ 50, ¿verdad?

Pero, ¿y si el proponente es una IA? En un proyecto de investigación que aún no se ha publicado, mis colegas y yo descubrimos que la tasa de rechazo se reduce significativamente. En otras palabras, es mucho más probable que las personas acepten esta oferta "injusta" si la propone una IA.

Esto se debe a que no creemos que una IA desarrollada para servir a los humanos tenga la intención maliciosa de explotarnos; es solo un algoritmo, no tiene libre albedrío, por lo que también podríamos aceptar los $ 20.

El hecho de que la gente pueda aceptar ofertas injustas de AI me preocupa, porque podría significar que este fenómeno podría usarse de manera maliciosa. Por ejemplo, una compañía de préstamos hipotecarios podría intentar cobrar tasas de interés injustamente altas al enmarcar la decisión como calculada por un algoritmo. O una empresa de fabricación podría manipular a los trabajadores para que acepten salarios injustos diciendo que fue una decisión tomada por una computadora.

Para proteger a los consumidores, debemos comprender cuándo las personas son vulnerables a la manipulación de la IA. Los gobiernos deberían tener esto en cuenta al considerar la regulación de la IA.

Sorprendentemente, estamos dispuestos a ceder a la IA

En otro trabajo aún por publicar, mis colegas y yo descubrimos que la gente tiende a revelar su información personal y experiencias vergonzosas más voluntariamente a una IA que a un humano.

Les dijimos a los participantes que imaginaran que estaban en el médico por una infección del tracto urinario. Dividimos a los participantes, por lo que la mitad habló con un médico humano y la mitad con un médico de IA. Les dijimos que el médico hará algunas preguntas para encontrar el mejor tratamiento y que depende de usted cuánta información personal proporcione.

Los participantes revelaron más información personal al médico de IA que al humano, con respecto a preguntas potencialmente embarazosas sobre el uso de juguetes sexuales, condones u otras actividades sexuales. Descubrimos que esto se debe a que la gente no cree que la IA juzgue nuestro comportamiento, mientras que los humanos sí. De hecho, preguntamos a los participantes qué tan preocupados estaban por ser juzgados negativamente, y descubrimos que la preocupación de ser juzgados era el mecanismo subyacente que determinaba cuánto divulgaban.

Parece que nos sentimos menos avergonzados cuando hablamos con IA. Esto es interesante porque muchas personas tienen serias preocupaciones sobre la inteligencia artificial y la privacidad y, sin embargo, podemos estar más dispuestos a compartir nuestros datos personales con la inteligencia artificial.

Pero, ¿y si la IA tiene libre albedrío?

También estudiamos el otro lado: ¿qué ocurre cuando la gente empieza a creer AI tiene libre albedrío? Descubrimos que darle a la IA características similares a las de los humanos o un nombre humano podría significar que es más probable que las personas crean que una IA tiene libre albedrío.

Esto tiene varias implicaciones:

  • Entonces, la IA puede persuadir mejor a las personas sobre las preguntas del "por qué", porque la gente piensa que la IA similar a la humana puede ser capaz de comprender los objetivos y motivaciones humanas
  • Es menos probable que se acepte la oferta injusta de AI porque se puede considerar que la AI de apariencia humana tiene sus propias intenciones, que podrían ser explotadoras.
  • Las personas comienzan a sentirse juzgadas por la IA similar a los humanos y se sienten avergonzadas, y revelan menos información personal.
  • Las personas comienzan a sentirse culpables cuando dañan a una IA de apariencia humana y, por lo tanto, actúan de manera más benigna con la IA

Es probable que veamos más y diferentes tipos de IA y robots en el futuro. Pueden cocinar, servir, vendernos autos, atendernos en el hospital e incluso sentarse en una mesa de comedor como compañeros de citas . Es importante comprender cómo la IA influye en nuestras decisiones para que podamos regular la IA y protegernos de posibles daños.La conversación

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original .

Crédito de la imagen: hamburgfinn de Pixabay