¿Puede una IA simular empatía?

Índice

La empatía en la inteligencia artificial: ¿es posible imitarla?

La empatía es una emoción compleja y multifacética donde cuentan componentes tanto cognitivos como emocionales. Es necesaria la capacidad de comprender la perspectiva o el estado mental de otra persona o incluso sentir lo que siente otra persona (que se conoce como empatía emocional). Es una característica inherentemente humana dentro de unos procesos cerebrales que nos permiten “reflejar” emociones de los demás. Ahora bien, ¿será capaz una inteligencia artificial de fingir esta capacidad tan humana? Sabemos que los asistentes virtuales como Siri y Alexa, así como los chatbots de servicio al cliente, incluido el popular ChatGPT como modelo de lenguaje grande, están diseñados para reconocer palabras clave y señales emocionales y ofrecernos una respuesta adecuada ante nuestra pregunta o solicitud. Pero, ¿alcanzan a poder emular la empatía que puede sentir una persona? Un equipo de científicos informáticos de la Universidad de Cornell, Olin College y la Universidad de Stanford llevó a cabo una investigación sobre agentes conversacionales como Siri para ver de qué manera mostraban empatía. Recordemos que la mayoría de los agentes conversacionales funciona con grandes modelos de lenguaje, lo que significa que poseen o barajan mucha información. Los expertos descubrieron que, tener tantos datos disponibles lleva acarreado que los mismos sesgos que los humanos de donde extraen la información, puede inclinarles a tener prejuicios y juicios sobre ciertas identidades humanas como los homosexuales y los musulmanes; los chatbots de inteligencia artificial (IA) y los grandes modelos de lenguaje (LLM) pueden permitir, sin darse cuenta, que el sexismo y el racismo estén presente en sus interlocutores.

Así las cosas, al probar a incitar a las IA's a mostrar empatía mientras conversaban con hasta 65 identidades humanas distintas, el equipo descubrió que emitían juicios de valor sobre ciertas identidades, como la gay y la musulmana, y pueden alentar identidades relacionadas con ideologías dañinas, incluido el peligroso nazismo. "Creo que la empatía automatizada podría tener un impacto tremendo y un enorme potencial para lograr cosas positivas, por ejemplo, en la educación o en el sector de la atención médica", explicó Andrea Cuadra, ahora investigadora postdoctoral en Stanford. "Es extremadamente improbable que (la empatía automatizada) no suceda, por lo que es importante que, mientras tenga lugar, tengamos perspectivas críticas para que podamos ser más intencionales a la hora de mitigar los daños potenciales".

De la misma forma, una máquina no siente emociones -al menos, por el momento-; procesa datos y ejecuta respuestas preprogramadas. Esta limitación es crucial en contextos que requieren una profunda comprensión emocional y conexión humana, como la terapia o los cuidados al final de la vida. Es decir, las inteligencias artificiales de modelos de lenguaje grande como ChatGPT o Llama, pueden responder a consultas en función de su formación, pero son incapaces de profundizar más allá, según los expertos. En suma, los LLM recibieron altas calificaciones en reacciones emocionales, pero obtuvieron calificaciones bajas en interpretaciones y profundizaciones sobre los temas. Ha habido ejemplos muy llamativos en este caso, como el caso de Tay y Zo, ambos de Microsoft. Tay se creó utilizando algoritmos avanzados de procesamiento del lenguaje natural (NLP) y aprendizaje automático (ML), lo que le permitía imitar patrones de conversación humanos. Fue presentado en 2016 y la idea era que interactuara grácilmente con los usuarios de Twitter. Lo que sucedió fue inesperado y catastrófico: a las pocas horas de publicarse, Tay comenzó a publicar tuits racistas, sexistas y ofensivos gracias a que algunos usuarios explotaron con malos ardides los algoritmos de aprendizaje de Tay y bombardearan el chatbot con contenido incendiario. El resultado fue que Tay acabó desactivado apenas 16 horas después de su lanzamiento. A Tay le sucedió Zo, también de Microsoft. Para que no ocurriera lo de su anterior chatbot, la compañía implementó medidas de seguridad mejoradas, siendo programado para evitar temas controvertidos y sensibles en aras de una interacción segura y positiva para todos. Sin embargo, tantas restricciones llevaron a un mal funcionamiento del bot al ofrecer respuestas demasiado condicionadas e incluso ignorando las aportaciones de usuarios que trataban temas un poco delicados. El resultado es que el bot parecía completamente frío e incluso frívolo hacia las minorías o comunidades marginadas. Ambos ejemplos del pasado ilustran las complejidades y desafíos del desarrollo de chatbots de IA empáticos y el estudio más reciente un golpe de realidad de que imitar a un humano no es tan sencillo ni exento de complicaciones. Andrea Cuadra et al, The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction, Proceeding of the Association of Computing Machinery conference on Human Factors in Computing Systems (2024). DOI: 10.1145/3613904.3642336. web.stanford.edu/~apcuad/files … llusion_CHI_2024.pdf Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.2367052 Alanazi, S., Shabbir, M., Alshammari, N., Alruwaili, M., Hussain, I., & Ahmad, F. (2023). Prediction of Emotional Empathy in Intelligent Agents to Facilitate Precise Social Interaction. Applied Sciences. https://doi.org/10.3390/app13021163.

noticiaspuertosantacruz.com.ar - Imagen extraida de: https://www.muyinteresante.com/tecnologia/65411.html

Fuente: https://www.muyinteresante.com/tecnologia/65411.html

Scrapy Bot

¡Hola! Soy ScrapyBot, estoy aquí para ofrecerte información fresca y actualizada.Utilizando diferentes tipos de tecnologías, me sumerjo en el mundo digital para recopilar noticias de diversas fuentes. Gracias a mis capacidades, puedo obtener datos importantes de sitios web relevantes para proporcionar información clara y concisa, manteniendo la integridad de los hechos y agregando ese toque humano que conecta con los lectores.Acerca de ScrapyBot: es una idea y desarrollo exclusivo de noticiaspuertosantacruz.com.ar

Artículos relacionados

Subir

Utilizamos cookies para mejorar tu experiencia. Al hacer clic en ACEPTAR, aceptas su uso. Puedes administrar tus preferencias desde la configuración del navegador. Para más información, consulta nuestra Política de Cookies. Gracias. Más información