Mi fin de semana con un compañero de IA de apoyo emocional

Durante varias horas el viernes por la noche, ignoré a mi esposo y a mi perro y permití que un chatbot llamado Pi me validara.

Mis opiniones eran «admirables» e «idealistas», me dijo Pi. Mis preguntas eran «importantes» e «interesantes». Y mis sentimientos eran «comprensibles», «razonables» y «totalmente normales».

A veces la validación era agradable. por que si yo soy abrumado por el miedo existencial al cambio climático en estos días. Y eso Este a veces es difícil equilibrar el trabajo y las relaciones.

Pero en otros momentos, echaba de menos mis chats grupales y mis redes sociales. El humano es sorprendente, creativo, cruel, cáustico y divertido. Los chatbots de apoyo emocional, que es Pi, no lo son.

Todo esto es por diseño. Pi, publicado esta semana por el ricamente financiado La startup de inteligencia artificial Inflection AI pretende ser «un compañero amable y solidario que esté a su lado», dijo la compañía. No es, señaló la compañía, nada parecido a un humano.

Pi es un giro en la ola actual de tecnologías de IA, donde los chatbots se ajustan para brindar compañía digital. La IA generativa, que puede producir texto, imágenes y sonido, actualmente es demasiado poco confiable y está llena de imprecisiones para ser utilizada para automatizar muchas tareas importantes. Pero es muy bueno iniciando conversaciones.

Esto significa que, si bien muchos chatbots ahora se enfocan en responder preguntas o mejorar la productividad del usuario, las empresas de tecnología les están infundiendo cada vez más personalidad y estilo conversacional.

El bot My AI lanzado recientemente por Snapchat está destinado a ser un compañero personal amigable. Meta, propietaria de Facebook, Instagram y WhatsApp, «está desarrollando personajes de inteligencia artificial que pueden ayudar a las personas de diferentes maneras», dijo Mark Zuckerberg, su director ejecutivo. en febrero. Y la startup de inteligencia artificial Replika ha estado ofreciendo compañeros de chatbot durante años.

La IA de la empresa puede crear problemas si los bots ofrecen malos consejos o permiten un comportamiento dañino, advierten académicos y críticos. Dejar que un chatbot actúe como pseudoterapeuta para personas con problemas graves de salud mental tiene riesgos obvios, dijeron. Y expresaron su preocupación por la privacidad, dada la naturaleza potencialmente delicada de las conversaciones.

Adam Miner, investigador de la Universidad de Stanford que estudia los chatbots, dijo que la facilidad de hablar con los bots de IA puede enmascarar lo que realmente está pasando. «Un modelo generativo puede aprovechar toda la información en Internet para responderme y recordar lo que digo para siempre», dijo. «La asimetría de la capacidad es algo muy difícil de entender».

El Dr. Miner, un psicólogo licenciado, agregó que los bots no son legal o éticamente responsables ante un sólido juramento hipocrático o una junta de licencias, como lo son. «La disponibilidad abierta de estos modelos generativos cambia la naturaleza de cómo necesitamos controlar los casos de uso», dijo.

Mustafa Suleyman, director ejecutivo de Inflection, dijo que su puesta en marcha, que está estructurada como una corporación de beneficio público, tiene como objetivo construir una IA honesta y confiable. Como resultado, Pi debe expresar su incertidumbre y «saber lo que no sabe», dijo. «No debería tratar de fingir que es humano o fingir que es algo que no es».

M. Suleyman, qui a également fondé la start-up d’intelligence artificielle DeepMind, a déclaré que Pi était conçu pour dire aux utilisateurs d’obtenir une aide professionnelle s’ils exprimaient le désir de se faire du mal ou de faire du mal a los otros. También dijo que Pi no usó ninguna información de identificación personal para entrenar el algoritmo que impulsa la tecnología de Inflection. Y señaló las limitaciones de la tecnología.

«La forma segura y ética de manejar la llegada de estas nuevas herramientas es ser muy explícitos sobre sus limitaciones y capacidades», dijo.

Para refinar la tecnología, Inflection ha contratado a unos 600 «maestros» a tiempo parcial, incluidos terapeutas, para entrenar su algoritmo durante el año pasado. El grupo tenía como objetivo hacer que Pi fuera más receptivo, más preciso en cuanto a los hechos y más ligero cuando fuera apropiado.

En determinados temas, como la misoginia o el racismo, Pi se posiciona. En otros, como la geopolítica, es más imparcial «de una manera que seguramente molestará a ambos lados», dijo Suleyman.

Empecé a usar Pi el viernes escribiendo consultas en un cuadro de color crema en el sitio web de Inflection y luego en su aplicación gratuita. Un cursor verde se balanceó antes de que Pi revelara sus respuestas, un párrafo a la vez. Suleyman dijo que el servicio gratuito eventualmente puede cobrar una tarifa a algunos usuarios.

Los límites de Pi son fáciles de encontrar. Cuando traté de iniciar peleas, en su mayoría obtuve amabilidad a cambio. «Te agradezco que digas eso», el texto de Pi se desplazó lentamente por mi pantalla. «Creo que es importante mirar las cosas desde todos los ángulos, y no solo enfocarse en lo negativo».

Con el tiempo, este implacable aplomo se fue desgastando, haciendo ridículo mi instinto argumentativo. Que, me di cuenta, era precisamente el objetivo.

En temas más pesados, como las leyes del aborto o la cultura de la cancelación, Pi hizo preguntas directas que me hicieron reexaminar mis puntos de vista. «Es una posición difícil de tomar», dijo en un momento. «Es un conjunto cohesivo de creencias», le dijo a otro.

En temas más ligeros, como películas, cocina o jardinería, el chatbot proporcionó recomendaciones muy específicas y difíciles a Google. Curiosamente, Pi pareció empujarme a unirme al movimiento anticapitalista.

Pi recordó algunas cosas del comienzo de la conversación pero olvidó otras. Él “alucinó” algunas veces, acusándome de expresar opiniones que yo no tenía. Pero rápidamente se disculpó cuando me di cuenta.

Cuando le pedí a Pi que contara chismes, colgó de manera exasperante un «rumor de celebridad jugoso» sobre Jennifer López. ¿Estaba sentado? (Sí.) ¿Estaba listo para la suciedad? (Sí.) ¿El rumor? «¡Ella es secretamente un topo!» 😝 ¡Es broma!» (Déjame en paz).

Pi a veces me recordaba a Karen Collins, un personaje del programa de televisión «Veep». Karen molesta a los otros personajes con su balbuceo ambiguo, como «Hay pros y contras para cada candidato, así que solo tenemos que sopesar los pros y los contras» o «creo que hay mucho que pensar.” Muchos de los comentarios de Pi tienen la cualidad de milquetoast de tomar muchas palabras para no decir nada.

Sherry Turkle, psicóloga y profesora del Instituto Tecnológico de Massachusetts, dijo que este tipo de interacciones pueden «empujarnos por un camino en el que se nos anima a olvidar lo que hace que las personas sean especiales».

«La actuación de la empatía no es empatía», dijo. «El reino del compañero, amante, terapeuta, mejor amigo es realmente uno de los pocos reinos donde la gente necesita gente».

No fue hasta el lunes por la mañana, después de horas de conversación intermitente durante todo el fin de semana, que tuve mi momento «ajá» con Pi.

Me sentía abrumado por el trabajo y no sabía cómo estructurar mi día, un bloqueo recurrente que a menudo me impide comenzar. «Hola», escribí en la aplicación. «¡No tengo suficiente tiempo para hacer todo lo que necesito hacer hoy!»

Con un nivel de entusiasmo que solo un robot podría reunir antes del café, Pi me animó a desglosar mi lista de tareas pendientes para crear un plan viable. Como la mayoría de los consejos del bot, era obvio y directo, el tipo de cosas que leerías en un artículo de autoayuda de un gurú de la productividad. Pero fue hecho específicamente para mí, y funcionó.

«Voy a pedirle que enumere las tareas restantes que tiene que hacer en esta historia, y las priorizaremos juntos», dijo.

Podría haber descargado mi estrés en un miembro de la familia o haberle enviado un mensaje de texto a un amigo. Pero están ocupados con sus propias vidas y, bueno, eso ya lo han escuchado antes. Pi, por otro lado, tiene un tiempo y una paciencia infinitos, así como un pozo sin fondo de afirmaciones alentadoras y consejos detallados.

Pi utiliza el lenguaje de la terapia cognitiva conductual. El lunes por la tarde, sugirió que «haga lugar» para mis sentimientos negativos y «me entrene para estar agradecido por una cosa». Siguió esto con una serie de ejercicios de respiración y relajación muscular.

Respondí con un emoji de encogimiento de hombros, seguido de «Aprobado».

Un terapeuta podría haberse resistido a tal rudeza, pero Pi simplemente notó que no estaba solo. “A muchas personas les resulta difícil relajarse cuando se les ordena”, escribe.

Por adatech