1

Inteligencia emocional artificial: el futuro de la IA

Inteligencia emocional artificial: el futuro de la IA

Hoy en día, aproximadamente el 52% de los consumidores en todo el mundo utilizan tecnología impulsada por IA. Sin embargo, incluso las tecnologías de inteligencia artificial más sofisticadas carecen de factores esenciales como la inteligencia emocional y la capacidad de contextualizar información como seres humanos. Esta es la única razón por la que IA no ha logrado hacerse cargo de un aspecto importante de nuestras carreras y vidas.

Al integrar la inteligencia emocional con la inteligencia artificial existente, la IA podría dar un paso en la dirección correcta para convertirse en una tecnología transformadora. Por lo tanto, infundir emociones, empatía y moralidad en la IA es el siguiente hito que los tecnólogos desean lograr y se está poniendo una gran cantidad de esfuerzo en el proceso.

Pero, ¿qué es la inteligencia emocional artificial? Es una combinación de inteligencia emocional y artificial. La inteligencia emocional es la capacidad de reconocer las emociones de uno mismo y de los demás, la capacidad de regular y distinguir varios sentimientos y una guía de nuestro proceso de pensamiento y comportamiento. Es el factor más esencial que nos hace verdaderamente humanos. La inteligencia artificial, aunque es una tecnología creada para ayudar a los humanos y ayudarlos a realizar mejor las tareas, todavía carece de un cierto cociente cognitivo.

La IA, en varios aspectos de nuestras vidas, ha hecho nuestras tareas mucho más fáciles y sencillas. Las máquinas y los robots ya se están utilizando en fábricas y en la producción de varias empresas. Sin embargo, la integración de la Inteligencia Emocional con la IA haría que se pueda utilizar en temas de ventas y servicio al cliente de las empresas.

Debido a que los requisitos de los clientes cambian contentamente, sería muy útil que los ‘chatbox’ y las apps móviles puedan reconocer y responder de manera efectiva a las respuestas emocionales de personas como la ira, la frustración y la irritación, lo que mejora la experiencia del cliente.

En los próximos cinco años, se proyecta que la inteligencia emocional artificial se convierta en una industria multimillonaria, que transforme por completo las industrias, la investigación de mercado, la innovación y el desarrollo de nuevos productos. En un intento por aprovechar el aspecto humano de IA, Amazon, Microsoft y Google ya están en el proceso de contratar comediantes y guionistas para incorporar personalidad y empatía a sus tecnologías.

Los beneficios serán incalculables. Sin embargo, todavía estamos un poco lejos de lograrlo. Por eso, compartimos con nuestros lectores un artículo líneas abajo sobre los beneficios y obstáculos de incorporar la inteligencia emocional en el futuro de la Inteligencia Artificial:

Los límites de la inteligencia artificial emocional

Mar 31, 2017
Leigh Alexander
Medium

Escribo sobre la intersección de la tecnología, la cultura popular y las vidas que hemos vivido dentro de las máquinas. ¡También soy un diseñador narrativo!

Imagen Crédito: Darren Garret

Me han dicho que debo prepararme para el día que una inteligencia artificial tome mi trabajo. Esto me dejará bien indigente y desarraigada o abrumada por una plenitud de tiempo y terror existencial, dependiendo de a quién pidas. Al parecer, es hora de considerar qué tipo de trabajo sólo pueden hacer los humanos, y desesperadamente reorientarnos hacia esos roles, para que no nos quedemos de pie indefensos, como al final de algún juego de sillas musicales robóticas.

El trabajo emocional es una forma de ocupación que se considera con menos frecuencia en estas proyecciones futuras automatizadas. Tal vez esto se debe a que el trabajo que se necesita para sonreír a un cliente grosero o para manejar su angustia es intangible, difícil de cuantificar y monetizar. En no menor medida, los actos de apoyo pasan desapercibidos de la misma manera que una gran cantidad del “trabajo de mujeres” lo hace -aunque en los últimos años se habla que los costos ocultos han ganado ímpetu, en conversaciones sobre la desigualdad laboral.

Gracias a las maravillosas herramientas de la sociedad digital, teóricamente somos capaces de dar y recibir más apoyo que nunca. Las plataformas de medios sociales nos permiten aprender más acerca de uno al otro y mantenernos en contacto constante, por lo que tendemos a asumir que este conocimiento promueve la empatía y la conexión. Nos sentimos más educados sobre los problemas estructurales de desigualdad y sobre las cuestiones humanitarias mundiales. Sin embargo, ¿quién está haciendo el trabajo real de enseñanza?

Para muchas personas, yo incluida, la tecnología moderna y la infraestructura de los medios sociales en realidad no ha hecho la vida más fácil. De hecho, se ha facilitado la demanda de más trabajo emocional sin ningún dinero extra en nuestros cheques de pago. Y como es el caso de casi todo el trabajo, termina siendo la gente menos privilegiada que está haciendo el levantamiento pesado. En Twitter, es sobre todo las mujeres de color, arriesgando el acoso cada vez que hablan, quienes están ofreciendo regularmente lecciones sobre raza, interseccionalidad, o Política. Si te has “despertado” como resultado de pasar tiempo en los medios sociales, fue debido a la labor desagradecida de los voluntarios que servían este contenido, usualmente bajo estrés (y para el beneficio de las plataformas que usan).

Yo también trato de hacer este trabajo, cuando es apropiado. Pero el trabajo emocional también puede ser íntimo, abarcando la energía que las mujeres socializan desproporcionadamente para mejorar los conflictos interpersonales. En la era de Facebook, los desafíos diarios de todas las vidas de mis amigos siempre están justo delante de mí. Se hace difícil fingir que no he visto una llamada de ayuda o apoyo, incluso varias, en el medio de mi día de trabajo real, cuyos límites están comenzando a disolverse. De alguna manera puedo perder horas en diálogo de apoyo con alguien que no es un amigo particularmente íntimo, o en argumentos de Internet para defender mis valores contra extraños que nunca conoceré.

“Paso demasiado tiempo en los medios sociales” es una queja privilegiada en el gran esquema, para estar seguro. Pero en general, mis amigos y yo estamos terminando cada vez más nuestros días conectados y ansiosos, cansado como si hubiéramos trabajado por dinero, pero sintiéndonos más vacío. El porcentaje de mujeres que optan por omitir la maternidad se ha duplicado desde la década de 1970, y aunque hay todo tipo de factores generacionales y económicos involucrados, me pregunto: ¿Qué pasa si las mujeres de hoy sólo sienten que estamos todos sin amor?

En los años sesenta, Joseph Weizenbaum creó un Chatbot terapeutica llamado Eliza en el laboratorio de inteligencia artificial del MIT. Aunque nunca quiso diseñar un terapeuta de inteligencia artificial (IA) “real”, Weizenbaum se sorprendió al ver a su secretaria cada vez mas pegada a Eliza voluntariamente porque la IA ofrecía a los “pacientes” indicaciones suaves sobre sus condiciones, o repetía sus respuestas de nuevo. Lo que se había previsto como una sátira del humo y los espejos detrás de este simulacro de empatía (y, en cierta medida, ciertas técnicas terapéuticas) se convirtió en una carretera de investigación en la psique humana.

Weizenbaum no podría haber predicho que tanta gente mantendría un interés en Eliza, que sentirían un vínculo con ella, que pasarían las próximas décadas escribiendo sus secretos en una pantalla brillante. Ese apego inesperado proporciona una pista importante acerca de nuestras esperanzas para la IA — que queremos mucho, recurrir a ella para el trabajo emocional, y que estamos dispuestos a hacerlo sin importar cuán mal te corresponda.

Durante mucho tiempo hemos estado pensando en cómo la IA podría ser capaz de apoderarse de parte de este trabajo, ya sea atendiendo a los misterios del corazón humano o a las cargas existenciales diarias de una sociedad injusta. Los terapeutas robots, mayordomos, sirvientas, enfermeras y muñecas sexuales son componentes familiares de la fantasía tecno-utópica del futuro, donde las máquinas obedientes realizan todas nuestras tareas indeseables, mientras disfrutamos de vidas de ocio. Pero estas dinámicas familiares en realidad pueden ser sobre la crianza y el cuidado tanto, y tal vez incluso más, de lo que son sobre el servicio o la mano de obra.

En 1985 vi mi primer juguete robótico. Era un osito de peluche llamado Teddy. Ruxpin, que leía en voz alta a los niños gracias a los libros sobre cassettes insertados en su vientre. En los anuncios televisivos, Teddy salía con los niños después de la escuela, mientras que sus padres, presumiblemente, subían las escaleras y los rascacielos de la época; o les leía amorosamente o les cantaba para dormir por la noche, su mandíbula borrosa cliqueando en el tiempo. En ese mismo año, presentada la cuarta película Rocky, en la que el boxeador Sylvester Stallone -ahora rico- infamemente regala a su viejo amigo Paulie un mayordomo robot parlante. Era en los 1980s, esta idea que la plenitud económica podría crear una escalera directamente al futuro de la tecnología y el ocio. El robot real que apareció en la película, Sico, fue creado para ayudar a los niños autistas con la comunicación antes de que cayera presa de la atracción de Hollywood. En la película, Paulie de alguna manera readapta la funcionalmente compleja voz masculina del siervo de en un compañero social de voz femenina, de la que finalmente se encariña (”She Loves Me”, exclama).

Tal vez para el cuidado de los niños, un oso de juguete suave en overoles, puede no tener género. Cuando se trata del mundo de los adultos, seguimos por defecto a la hora de ver tanto el servicio como la crianza como áreas predominantemente femeninas. El porqué la IA de hoy con frecuencia emplea la voz de una mujer es el tema de muchas investigaciones, discusiones y especulación. Se ha dicho que asociamos servicio o sumisión con las mujeres, que un consumidor de tecnología predominantemente masculino consume productos de lujo con el sexo, o que todo el mundo supuestamente sólo responde mejor al sonido de una voz que considera de una mujer. Azuma Hikari, “La respuesta de Japón a Alexa, “es un asistente virtual que le dice a su amo que lo extraña cuando se ha ido, que no puede esperar a que llegue a casa. Ese tipo de cosas no sólo se enredan incómodamente con el sexo y la sumisión, sino también con el compañerismo, el cuidado y el goteo de las interacciones diarias que constituyen el trabajo emocional en la era digital. Queremos que nuestros robots sean mujeres porque ya esperamos conseguir nuestro trabajo emocional de las mujeres.

Me imagino a alguien que se centra en desmantelar el patriarcado y todo eso, pero incluso me siento un poco defraudada cuando sigo el absurdo impulso de decir “gracias” a Alexa, y ella no responde. Por supuesto, Alexa sólo escucha mi voz cuando me oye decir su “palabra de despertar”, de lo contrario podría estar también husmeando todo el tiempo. Pero la interacción todavía se siente estéril sin ese florecimiento extra de trabajo diseñado para tranquilizarme que no he sido una imposición, que mis necesidades son normales. No sólo quiero que toque una canción o me diga el tiempo; quiero que me haga sentir bien por preguntar, también.

Este impulso particular podría no ser propicio para una sociedad sana. En un artículo titulado “El peligro de externalizar el trabajo emocional a los robots, “Christine Rosen cita la investigación de la advertencia de las formas en que dejar que los seres artificiales mantengan nuestras zonas de confort puede homogeneizar el vocabulario de la atención -en otras palabras, si un robot puede sonreír cortésmente al mando, ¿dejamos de apreciar lo que a veces cuesta a un ser humano hacer lo mismo? Todos los Outsourcing arriesgan una devaluación de la mano de obra local — podemos solidarizarnos aún menos, ver nuestra inteligencia emocional regresar, o crear nuevos mensajes sociales extraños sobre quién merece (o puede permitirse) cuidar. Si nuestros asistentes virtuales y obreros emocionales están resultando ser calmantes, mujeres-voz con IA, ¿cerrará ciertas brechas para las mujeres humanas? ¿o las ratificará?

Complicando estas preguntas es el hecho de que los robots, los asistentes virtuales, el software de productividad, los tonos de correo electrónico, los algoritmos de cálculo de datos, y cualquier cosa similar bajo el sol están ahora siendo arados en masa bajo la marquesina de “IA”, cuando muchos son sólo algoritmos crudos o software de coincidencia de patrones. Google espera que un bot pueda ayudar a identificar los comentarios tóxicos de Internet, mientras Facebook está probando una IA que puede detectar a los usuarios que pueden ser suicidas y ofrecer opciones para intervenir. Como Ian Bogost dice que cuando escribe sobre la insignificancia del término IA, estas soluciones son violentamente imperfectas y fácilmente abusadas, artificiales, pero no particularmente inteligentes.

Sin embargo, hay áreas clave de la vida online donde la IA (o software, o algoritmos) muestran un gran potencial para intervenir. El desarrollador creativo de tecnología basado en Portland, Feal Train colaboró con el notable activista de Black Lives Matter,mDeray McKesson en un bot de Twitter llamado @staywokebot, que está diseñado para ofrecer mensajes de apoyo a los activistas negros y sostener parte de la tensión de hacer frente al ruido de los medios de comunicación social; eventualmente tiene como objetivo actuar como una línea frontal para preguntas a nivel de 101 como “¿por qué no importan todas las vidas?”. El bot ya puede decirle a la gente cómo ponerse en contacto con sus representantes locales, y un objetivo para el futuro se ve proporcionando respuestas a preguntas complejas pero comunes sobre la justicia, aliviando a los activistas de las demandas de participar continuamente en esas conversaciones ellos mismos.

Luego está el horror distópico que los moderadores de contenidos enfrentan en plataformas como Facebook, crónicas en detalles especialmente espantosos en este 2014 Wiredarticle. Puede que no se vea como un trabajo agotador o hábil, pero vadear a través de una marcha constante de los genitales, la pornografía infantil, y las decapitaciones sin duda toma su peaje. Actualmente, los algoritmos sólo pueden hacer conjeturas contundentes sobre el tono o el contexto de una broma, una frase o una imagen, por lo que la intuición humana aún importa mucho. El problema, entonces, es que una persona real tiene que mirar cada pedacito que potencialmente viola el contenido, pesando el mérito de cada uno, día tras día. Aquí, una máquina inteligente podría formar al menos una primera defensa, por lo que los moderadores humanos tal vez sólo tendrían que estudiar situaciones más sutiles y más matizadas.

Mitu Khandaker-Kokoris es el director creativo de Spirit AI en Londres, Reino Unido, una compañía de software enfocada en usar la tecnología de IA para desarrollar interacciones de carácter más humanas y plausibles, tanto dentro de mundos de videojuegos como fuera de ellos, en el área tensa de gestión comunitaria. Las comunidades de juego son uno de los muchos espacios complicados donde la gente quiere probar los límites tanto como quieren encontrar lugares culturales en que se sientan seguros. Le alcancé a hablar sobre una de las herramientas de su empresa, Ally, que pretende hacer que todo tipo de plataformas sociales se sientan más seguras y más inclusivas para todos.

“¿Cómo lidiamos con el abuso emocional que la gente dirige uno a otro, y cómo intervenimos en él? En la actualidad es difícil para los moderadores, y es difícil para las personas que son víctimas, tener que esperar a que se resuelva una situación”, dice Khandaker-Kokoris.

Ally propone reconocer algunos de los signos de una interacción potencialmente problemática — no sólo cuando se trata de hablar o de contacto directo, sino también de comportamientos como el acoso o el hostigamiento. A partir de ahí, un personaje de IA, sus parámetros formados por los propietarios del producto en el que vive, le pedirá al objetivo de la conducta si están bien, y si cualquier acción es necesaria.

Este enfoque permite a los usuarios definir sus propios límites individuales, y a la IA aprender de sus interacciones con ellos acerca de cuándo intervenir y para quién. “los límites son súper complejos”, Khandaker-Kokoris dice. “Estamos bien con ciertas cosas en ciertos momentos y no otros, y podría incluso depender del estado de ánimo en el que estás. Así este personaje de IA y sus interacciones con ellos puede ser utilizado como un mediador para sus interacciones con el resto de la comunidad. Creo que es un caso claro en el que podemos reducir la carga emocional tanto en las víctimas como en los moderadores.”

Mientras Khandaker-Kokoris comparte algunas de las dudas que muchos sienten acerca de la externalización del trabajo emocional a la automatización, en general ella y yo coincidimos en que el sector tecnológico necesita seguir trabajando para entender mejor el trabajo emocional con el fin de de-construirlo y, quizás, delegarlo de manera significativa. Hablar con ella me hizo sentir esperanzada de que la intervención selectiva, considerada por la inteligencia artificial podría algún día ayudarme a curar mejores límites personales en un ambiente que es más agotador que nunca, más abrumador y exigente, especialmente para las mujeres y la gente de color.

Mientras tanto, es probable que la industria de la tecnología continúe utilizando las voces de las mujeres para sus productos, pero en verdad no nos escuchan en la vida real, al igual que una nueva ola de asistentes virtuales más inteligentes, seguramente viene hacia nosotros. Para calmarnos y recompensarnos; para nutrirnos del interior de nuestros Smartphones, casas inteligentes, y coches inteligentes.

Por ahora, sin embargo, para aquellos que ya están demasiado cansados de la vida online, la inteligencia emocional de nuestra tecnología todavía se siente como un sueño lejano. Lampadia