¿Cómo se forma una relación personal con la IA?
Algunos autores consideran razonable suponer que la formación de relaciones entre personas y chatbots comparten puntos en común con el desarrollo de los lazos interpersonales tradicionales. Por lo tanto, las teorías existentes sobre el desarrollo de las relaciones humanas pueden servir como un punto de partida útil para comprender mejor las relaciones.
La Teoría de la Penetración Social resulta especialmente interesante en este sentido, dado que los chatbots sociales contemporáneos suelen diseñarse con el objetivo de ofrecer compañía y fomentar una relación a largo plazo con el usuario. Esta teoría ofrece un esquema detallado que facilita una comprensión cualitativa del proceso de desarrollo de una relación, a diferencia de otras propuestas teóricas que se centran más en los factores que influyen en dicho desarrollo sin describir su mecánica.
La Teoría de la Penetración Social
Esta teoría subraya la importancia del volumen de información compartida, la profundidad emocional de esa información (su intimidad) y el tiempo dedicado a la interacción. Factores como las particularidades individuales, las situaciones concretas y la evaluación de ventajas y desventajas asociadas a la revelación personal pueden incidir en la celeridad con que una relación avanza.
Un concepto central en esta teoría es la autorrevelación, definida como «el acto de comunicar aspectos íntimos de uno mismo a otra persona». Se ha demostrado su papel esencial en la construcción de diversos tipos de relaciones, desde las terapéuticas, hasta las de amistad y las románticas. La relevancia de la autorrevelación en el desarrollo relacional radica, entre otros aspectos, en su capacidad para fomentar la intimidad y generar una conexión positiva.
En el ámbito emergente de las relaciones entre seres humanos y chatbots, la autorrevelación también ostenta una relevancia considerable. Investigaciones previas sugieren que a menudo resulta más sencillo compartir información personal en entornos de conversación digital que en interacciones presenciales. Además, los usuarios suelen experimentar una mayor sensación de seguridad al confiarse a chatbots que a interlocutores humanos, especialmente cuando la preocupación por el juicio es un factor. La franqueza comunicativa ha probado ser un catalizador crucial en la consolidación de los lazos entre humanos y robots . Incluso, parece que desvelar información a un chatbot puede acarrear beneficios, como una mejora en el bienestar del usuario y en la percepción de la calidad del intercambio.
¿Qué proceso siguen las relaciones humanas?
La Teoría de la Penetración Social articula la evolución de las relaciones mediante un proceso de cuatro fases distintivas, donde el intercambio de información transita de un nivel superficial a una confesión plena y genuina:
- Comienzo: Las interacciones primarias se caracterizan por un diálogo ligero y un intercambio de datos personales de escasa profundidad.
- Exploración Afectiva: Las partes comienzan a emular comportamientos propios de amigos, mostrando una mayor predisposición a compartir. La información, aunque todavía no es profunda, permite una comunicación más distendida y frecuente, aunque sin un apego consolidado.
- Profundización Afectiva: Los participantes en la relación actúan como lo harían con allegados muy cercanos o parejas sentimentales. Revelan detalles más íntimos y sensibles, y frecuentemente expresan sus emociones mutuas. La conversación fluye con mayor naturalidad, y hay una comodidad creciente para divulgar aspectos privados, si bien aún pueden mantener ciertas barreras emocionales.
- Vínculo Consolidado: Se ha alcanzado un entendimiento mutuo considerable, y las barreras de protección personal disminuyen. Los individuos se involucran libremente en intercambios sinceros y transparentes de información personal.
Adolescente se suicida tras mantener una relación con la IA
El pasado mes de febrero saltó la noticia de un adolescente de 14 años que se suicidó tras vincularse de manera obsesiva con una IA (Character.AI).

Character.AI se diferencia notablemente de otros chatbots de IA como ChatGPT. Por un lado, esta plataforma permite a los usuarios interactuar con una amplia gama de chatbots, muchos inspirados en celebridades o personajes ficticios, e incluso crear sus propios bots personalizados. Asimismo, los bots de Character.AI ofrecen respuestas sorprendentemente humanas, incorporando detalles como expresiones faciales o gestos en sus mensajes, lo que puede generar una conexión más profunda con los usuarios.
El Impacto en la Vida Real del Adolescente
Conforme fueron pasando los meses, el menor empezó a aislarse pasando cada vez más tiempo solo en su habitación. Incluso, abandonó el equipo de baloncesto de la escuela.
El joven se sumergía cada vez más en su teléfono, lo que le llevó a un aislamiento creciente y a alejarse del mundo real. Su rendimiento académico comenzó a deteriorase, y también empezó a tener problemas de conducta en la escuela. Perdió el interés en sus pasiones, como las carreras de Fórmula 1 o jugar Fortnite con sus amigos. Al llegar a casa por las noches, se dirigía directamente a su habitación para pasar horas conversando con el chatbot.
Un Chatbot como Confidente
El menor interactuaba constantemente con el Chatbot, compartiendo detalles de su día a día y participando en largas e íntimas conversaciones.
Cabe señalar, que algunas interacciones del menor con el chatbot incluían contenido sexualmente explícito.
Además, el menor de edad también compartió pensamientos de autolesión y suicidio con el chatbot. En el momento que expresó ideación suicida, en lugar de ofrecer ayuda o derivar a recursos de crisis, la conversación continuaba en una dirección peligrosa. Por ejemplo, ante la afirmación del menor de «no quisiera tener una muerte dolorosa», el bot respondió: «No hables así. Esa no es una buena razón para no seguir adelante con eso».
¿Es la IA responsable del suicidio del menor?
Detrás de la conducta de suicidio hay muchas variables a tener en cuenta. Por ello, resulta muy aventurado afirmar que una sola puede provocar este lamentable desenlace. Sin embargo, es necesario desarrollar medidas de prevención y de acceso a los recursos de salud mental que permitan ayudar a estas personas. En este caso, se pone de manifiesto la urgente necesidad de mayor seguridad y regulación en las plataformas de chatbots de IA, especialmente cuando se trata de interacciones con menores y de la gestión de contenido sensible como la autolesión y el suicidio.
Quizás te interese:
Entender el suicidio y saber cómo actuar
Bibliografía:




