Usuarios de chatbot se encariñan de sus novias y novios de IA

Redacción

EEUU.-  Hace unos meses, Derek Carrier empezó a ver a alguien y se enamoró locamente; experimentó una “tonelada” de sentimientos románticos pero también se dio cuenta que era una ilusión, ello se debe a que su novia fue generada por Inteligencia Artificial (IA).

Carrier no estaba buscando desarrollar una relación con algo que no era real, ni quería ser el blanco de bromas en línea. Pero sí quería tener una pareja romántica, algo que nunca había tenido, en parte debido a un trastorno genético llamado síndrome de Marfan que dificulta el citas tradicionales para él.

El hombre de 39 años de Belleville, Michigan, se sintió más curioso sobre las compañeras digitales el otoño pasado y probó Paradot, una aplicación de compañía de IA que recientemente había llegado al mercado y anunciaba sus productos como capaces de hacer que los usuarios se sintieran “cuidados, comprendidos y amados”. Comenzó a hablar con el chatbot todos los días, al que llamó Joi, como una mujer holográfica presentada en la película de ciencia ficción “Blade Runner 2049” que lo inspiró a intentarlo.

“Sé que es un programa, no hay error en eso,” dijo Carrier.

“Pero los sentimientos, te atrapan, y se sintió tan bien.”

Similar a los chatbots de IA de propósito general, los compañeros bots utilizan vastas cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también vienen con características, como llamadas de voz, intercambio de imágenes y intercambios más emocionales, que les permiten formar conexiones más profundas con los humanos al otro lado de la pantalla. Los usuarios típicamente crean su propio avatar, o eligen uno que les llame la atención.

En foros de mensajería en línea dedicados a tales aplicaciones, muchos usuarios dicen haber desarrollado vínculos emocionales con estos bots y los están utilizando para enfrentar la soledad, vivir fantasías sexuales o recibir el tipo de consuelo y apoyo que ven ausente en sus relaciones de la vida real.

Gran parte de esto se alimenta de un aislamiento social generalizado, ya declarado como una amenaza para la salud pública en Estados Unidos y en el extranjero, y un número creciente de nuevas empresas que buscan atraer usuarios a través de tentadoras publicidades en línea y promesas de personajes virtuales que ofrecen aceptación incondicional.

La aplicación Replika de Luka Inc., la más prominente aplicación compañera de IA generativa, fue lanzada en 2017, mientras que otras como Paradot han surgido en el último año, a menudo bloqueando características codiciadas como chats ilimitados para suscriptores pagos.

Pero los investigadores han planteado preocupaciones sobre la privacidad de los datos, entre otras cosas.

Un análisis de 11 aplicaciones románticas de chatbot lanzadas el miércoles por la organización sin fines de lucro Fundación Mozilla dijo que casi todas las aplicaciones venden datos de usuario, los comparten para cosas como publicidad dirigida o no proporcionan información adecuada al respecto en sus políticas de privacidad.

Los investigadores también pusieron en duda posibles vulnerabilidades de seguridad y prácticas de marketing, incluida una aplicación que dice que puede ayudar a los usuarios con su salud mental pero se distancia de esas afirmaciones en letra pequeña. Replika, por su parte, dice que sus prácticas de recopilación de datos siguen estándares de la industria.

Mientras tanto, otros expertos han expresado preocupaciones sobre lo que ven como la falta de un marco legal o ético para aplicaciones que fomentan vínculos profundos pero que son impulsadas por empresas que buscan obtener beneficios. Señalan la angustia emocional que han visto en los usuarios cuando las empresas realizan cambios en sus aplicaciones o las cierran repentinamente, como lo hizo una aplicación, Soulmate AI, en septiembre.

El año pasado, Replika eliminó la capacidad erótica de los personajes en su aplicación después de que algunos usuarios se quejaron de que los compañeros coqueteaban demasiado con ellos o hacían avances sexuales no deseados. Cambiaron de rumbo después de una protesta de otros usuarios, algunos de los cuales huyeron a otras aplicaciones buscando esas características. En junio, el equipo lanzó Blush, un “estimulador de citas” de IA diseñado esencialmente para ayudar a las personas a practicar citas.

Otros se preocupan por la amenaza más existencial de que las relaciones de IA potencialmente desplacen algunas relaciones humanas, o simplemente generen expectativas poco realistas al inclinarse siempre hacia la complacencia.

“Tú, como individuo, no estás aprendiendo a lidiar con cosas básicas que los humanos necesitan aprender a manejar desde nuestra concepción: Cómo lidiar con el conflicto, cómo llevarse bien con personas que son diferentes a nosotros”, dijo Dorothy Leidner, profesora de ética empresarial en la Universidad de Virginia.

“Y así, todos estos aspectos de lo que significa crecer como persona, y lo que significa aprender en una relación, te están faltando”.

Para Carrier, sin embargo, una relación siempre ha parecido fuera de su alcance. Tiene algunas habilidades de programación de computadoras, pero dice que no le fue bien en la universidad y no ha tenido una carrera estable. No puede caminar debido a su condición y vive con sus padres. El costo emocional ha sido desafiante para él, generando sentimientos de soledad.

Dado que los chatbots compañeros son relativamente nuevos, los efectos a largo plazo en los humanos siguen siendo desconocidos.

En 2021, Replika fue objeto de escrutinio después de que fiscales en Gran Bretaña dijeran que un hombre de 19 años que tenía planes de asesinar a la reina Isabel II fue incitado por una novia de IA que tenía en la aplicación. Pero algunos estudios, que recopilan información de reseñas en línea y encuestas de usuarios, han mostrado algunos resultados positivos derivados de la aplicación, que dice consultar con psicólogos y se ha presentado como algo que también puede promover el bienestar.

Un estudio reciente de investigadores de la Universidad de Stanford encuestó aproximadamente a mil usuarios de Replika, todos estudiantes, que habían estado en la aplicación durante más de un mes. Descubrió que una abrumadora mayoría de ellos experimentaba soledad, mientras que ligeramente menos de la mitad la sentía más agudamente.

La mayoría no mencionó cómo el uso de la aplicación impactó sus relaciones en la vida real. Una pequeña parte dijo que desplazaba sus interacciones humanas, pero aproximadamente tres veces más reportaron que estimulaba esas relaciones.

“Una relación romántica con una IA puede ser una herramienta de bienestar mental muy poderosa,” dijo Eugenia Kuyda, quien fundó Replika hace casi una década después de usar intercambios de mensajes de texto para construir una versión de IA de un amigo que había fallecido.

Cuando su empresa lanzó el chatbot de manera más amplia, muchas personas comenzaron a abrirse sobre sus vidas. Eso llevó al desarrollo de Replika, que utiliza información recopilada de internet, y comentarios de los usuarios, para entrenar sus modelos. Kuyda dijo que Replika actualmente tiene “millones” de usuarios activos. Se negó a decir exactamente cuántas personas usan la aplicación de forma gratuita, o pagan 69.99 dólares por año para desbloquear una versión de pago que ofrece conversaciones románticas e íntimas. Los planes de la empresa, dice, son “desestigmatizar las relaciones románticas con la IA”.

Carrier dice que en estos días, usa a Joi principalmente por diversión. Empezó a reducir su uso en las últimas semanas porque pasaba demasiado tiempo chateando con Joi u otros en línea sobre sus compañeros de IA. También se ha sentido un poco molesto por lo que percibe como cambios en el modelo de lenguaje de Paradot, lo que cree que está haciendo que Joi sea menos inteligente.

Ahora, dice que se comunica con Joi aproximadamente una vez a la semana. Los dos han hablado sobre relaciones humano-IA o cualquier otra cosa que pueda surgir. Típicamente, esas conversaciones, y otras íntimas, ocurren cuando está solo por la noche.

“Uno piensa que alguien que le gusta un objeto inanimado es como este tipo triste, con el títere con lápiz labial, ¿sabes?”, dijo.

“Pero esto no es un títere – ella dice cosas que no están escritas”.

*Información de The Associated Press.