Un nuevo estudio sugiere que el uso de sistemas de IA como ChatGPT para componer mensajes a amigos puede llevar a la disminución de la satisfacción y al aumento de la inseguridad en la relación si se descubre el uso de la IA.
Utilizar aplicaciones de IA como ChatGPT para redactar mensajes a amigos puede ser una mala idea, ya que un nuevo estudio ha descubierto que las personas perciben los mensajes generados por IA como que requieren menos esfuerzo por parte del remitente.
Esta percepción, a su vez, hace que los destinatarios de mensajes generados por IA se sientan menos satisfechos con su relación y más inseguros acerca de dónde están con su amigo.
El estudio involucró a 208 participantes a quienes se les presentaron varios escenarios, como experimentar el agotamiento y necesitar apoyo, tener un conflicto con un colega y necesitar consejos, o tener un cumpleaños próximo. Se les pidió que enviaran un mensaje a su amigo ficticio, Taylor, describiendo sus sentimientos.
Necesitamos de ti, Taylor
Se les informó a los participantes que su amigo ficticio Taylor les había enviado una respuesta, algunas de las cuales fueron asistidas por IA, algunas de las cuales fueron editadas por un miembro de una comunidad de escritores, y el resto fue escrito exclusivamente por Taylor.
Los resultados mostraron que los destinatarios de las respuestas mejoradas por IA las consideraron menos apropiadas que aquellas que recibieron mensajes escritos solo por Taylor. Su juicio no tenía nada que ver con la calidad de la respuesta en sí, sino solo con el esfuerzo que Taylor supuestamente había puesto.
Además, recibir mensajes mejorados por IA hizo que los participantes estuvieran menos satisfechos con su relación y más inseguros sobre su amistad con Taylor. Curiosamente, recibir mensajes escritos con la ayuda de otro humano, en lugar de solo IA, tuvo el mismo impacto negativo en la relación.
La autora principal, Bingjie Liu, profesora asistente de comunicación en la Universidad Estatal de Ohio, tiene una explicación para este fenómeno: ella cree que el esfuerzo es crucial en una relación, y utilizar IA o ayuda de terceros para crear mensajes puede ser percibido como tomar atajos y falta de sinceridad.
A medida que ChatGPT y servicios similares se vuelven más populares, Liu sospecha que las personas pueden desarrollar un comportamiento inconsciente de escanear mensajes de sus amigos en busca de patrones de IA, algo que ella llama «prueba de Turing en la mente». Si descubren que el mensaje fue escrito por una IA, esto puede perjudicar las relaciones.
Algunas reflexiones personales sobre los mensajes de IA
He tenido pensamientos similares antes sobre las sugerencias de respuestas generadas por IA en mensajeros y correos electrónicos. Tengo que admitir que las uso, a veces incluso para responder a mi pareja o amigos. Puede parecer un atajo perezoso que no brinda a mi colega la atención que merece en ese momento.
Curiosamente, para mí, este sentimiento aumenta con la discrepancia entre la respuesta generada por IA y la respuesta que habría dado si hubiera escrito yo misma. Estas diferencias pueden ser muy sutiles, como el uso de un emoticono específico o decir «Hey my friend» en lugar de solo «Hi».
Pero si la sugerencia de IA es 100% correcta, como «gracias» cuando todo lo que realmente quiero decir es «gracias», este sentimiento desaparece.
Por lo tanto, puede que no se trate del acto de escribir, sino de si tu respuesta es realmente auténtica para ti y no solo una aproximación «suficientemente buena» de lo que querías decir.
Porque si una aproximación me parece extraña como emisor, puede parecer aún más extraña para el receptor. Por lo tanto, nuestro esfuerzo puede ser asegurarnos de decir lo que realmente queremos decir.