1

Familias violentas… niñez anémica

Fernando Cillóniz B.
CILLONIZ.PE
Ica, 18 de enero de 2019
Para Lampadia

¡Qué terrible! En nuestro país, el 44% de niños menores de 3 años padece de anemia. (La anemia se define como una cantidad disminuida de glóbulos rojos, causada por la deficiencia de hierro en la sangre) La cifra penosa – de más de 40% – se ha mantenido inalterable durante la última década. Lo dice la Encuesta Demográfica y de Salud Familiar (ENDES). ¡Un fracaso!

Otro dato. La pobreza en el Perú afecta al 22% de la población. En los últimos 10 años la pobreza se redujo de 55% a 22%. Eso quiere decir que la pobreza se redujo 50%. Lo dice el Instituto Nacional de Estadística e Informática (INEI). ¡Un éxito!

Pregunta: ¿qué relación hay entre anemia y pobreza? Estadísticamente… ninguna. Como ingeniero de la UNI que soy… lo afirmo. Un país puede reducir la pobreza – ¡50% en 10 años! – y no mejorar ni una pizca la salud de su niñez. Ese país se llama Perú.

Segunda pregunta: ¿por qué se suele responsabilizar al Estado por el alto índice de anemia en nuestra niñez? Respuesta: Porque sí. “Yo nunca tengo la culpa de nada”. “El Estado es el culpable de todos mis males”. Así piensan muchos compatriotas. ¡Qué equivocados están!

A ese respecto, sería bueno que aprendamos a asumir nuestras responsabilidades. Por ejemplo… criar bien a nuestros hijos. Me refiero a alimentarlos bien… y amarlos también. Digo esto porque uno de los delitos más denunciados en nuestras comisarías es “violencia familiar”. O sea, violencia física y psicológica, abuso sexual, insulto, abandono… y todo lo demás. ¿Qué tiene que ver el Estado en esta materia? Obviamente… nada.

Los hogares del Perú – y lamentablemente los de Ica también – se han convertido en espacios muy agresivos e inseguros para muchas mujeres y niños indefensos. Entonces las cosas claras y el chocolate espeso. Los culpables – en estos casos – son los padres de familia… no el Estado.

Pregunto ¿no tendrá esto algo que ver con la anemia? Repito… la anemia se mide en niños menores de 3 años. ¿Dónde están los niños a esa edad… si no es en sus hogares?

Sigamos. ¿Qué dice la “bio-descodificación” al respecto? (La “bio-descodificación” es un término terapéutico que conecta las emociones con las enfermedades físicas) Pues bien… según algunos “bio-descodificadores”, la anemia por falta de hierro en la sangre está relacionada con el siguiente conflicto emocional: “No recibo el afecto suficiente de mi padre o de mi madre. No me siento amado. Mi familia me ahoga, no me apoya. La atmósfera en la que vivo es tóxica, no respiro bien. La anemia por falta de hierro en la sangre está relacionada con una falta de motivación o reconocimiento familiar. En mi hogar no hay apoyo ni amor.”

Es verdad… hay personas que no creen en la “bio-descodificación”. En ese sentido, habrá que respetarlas. Pero lo que no se puede negar es que estamos viviendo una severa “crisis de familia”. Y la “violencia familiar” es – tan solo – una manifestación de ello.

Conclusión. Está bien que les demos alimentos y suplementos ricos en hierro a nuestros niños. Pero más importante aún, es darles amor y cariño. ¡No a la violencia familiar! Entre otros motivos, porque – según los “bio-descodificadores” – así curaríamos la anemia en nuestra niñez. Lampadia




Inteligencia emocional artificial: el futuro de la IA

Inteligencia emocional artificial: el futuro de la IA

Hoy en día, aproximadamente el 52% de los consumidores en todo el mundo utilizan tecnología impulsada por IA. Sin embargo, incluso las tecnologías de inteligencia artificial más sofisticadas carecen de factores esenciales como la inteligencia emocional y la capacidad de contextualizar información como seres humanos. Esta es la única razón por la que IA no ha logrado hacerse cargo de un aspecto importante de nuestras carreras y vidas.

Al integrar la inteligencia emocional con la inteligencia artificial existente, la IA podría dar un paso en la dirección correcta para convertirse en una tecnología transformadora. Por lo tanto, infundir emociones, empatía y moralidad en la IA es el siguiente hito que los tecnólogos desean lograr y se está poniendo una gran cantidad de esfuerzo en el proceso.

Pero, ¿qué es la inteligencia emocional artificial? Es una combinación de inteligencia emocional y artificial. La inteligencia emocional es la capacidad de reconocer las emociones de uno mismo y de los demás, la capacidad de regular y distinguir varios sentimientos y una guía de nuestro proceso de pensamiento y comportamiento. Es el factor más esencial que nos hace verdaderamente humanos. La inteligencia artificial, aunque es una tecnología creada para ayudar a los humanos y ayudarlos a realizar mejor las tareas, todavía carece de un cierto cociente cognitivo.

La IA, en varios aspectos de nuestras vidas, ha hecho nuestras tareas mucho más fáciles y sencillas. Las máquinas y los robots ya se están utilizando en fábricas y en la producción de varias empresas. Sin embargo, la integración de la Inteligencia Emocional con la IA haría que se pueda utilizar en temas de ventas y servicio al cliente de las empresas.

Debido a que los requisitos de los clientes cambian contentamente, sería muy útil que los ‘chatbox’ y las apps móviles puedan reconocer y responder de manera efectiva a las respuestas emocionales de personas como la ira, la frustración y la irritación, lo que mejora la experiencia del cliente.

En los próximos cinco años, se proyecta que la inteligencia emocional artificial se convierta en una industria multimillonaria, que transforme por completo las industrias, la investigación de mercado, la innovación y el desarrollo de nuevos productos. En un intento por aprovechar el aspecto humano de IA, Amazon, Microsoft y Google ya están en el proceso de contratar comediantes y guionistas para incorporar personalidad y empatía a sus tecnologías.

Los beneficios serán incalculables. Sin embargo, todavía estamos un poco lejos de lograrlo. Por eso, compartimos con nuestros lectores un artículo líneas abajo sobre los beneficios y obstáculos de incorporar la inteligencia emocional en el futuro de la Inteligencia Artificial:

Los límites de la inteligencia artificial emocional

Mar 31, 2017
Leigh Alexander
Medium

Escribo sobre la intersección de la tecnología, la cultura popular y las vidas que hemos vivido dentro de las máquinas. ¡También soy un diseñador narrativo!

Imagen Crédito: Darren Garret

Me han dicho que debo prepararme para el día que una inteligencia artificial tome mi trabajo. Esto me dejará bien indigente y desarraigada o abrumada por una plenitud de tiempo y terror existencial, dependiendo de a quién pidas. Al parecer, es hora de considerar qué tipo de trabajo sólo pueden hacer los humanos, y desesperadamente reorientarnos hacia esos roles, para que no nos quedemos de pie indefensos, como al final de algún juego de sillas musicales robóticas.

El trabajo emocional es una forma de ocupación que se considera con menos frecuencia en estas proyecciones futuras automatizadas. Tal vez esto se debe a que el trabajo que se necesita para sonreír a un cliente grosero o para manejar su angustia es intangible, difícil de cuantificar y monetizar. En no menor medida, los actos de apoyo pasan desapercibidos de la misma manera que una gran cantidad del “trabajo de mujeres” lo hace -aunque en los últimos años se habla que los costos ocultos han ganado ímpetu, en conversaciones sobre la desigualdad laboral.

Gracias a las maravillosas herramientas de la sociedad digital, teóricamente somos capaces de dar y recibir más apoyo que nunca. Las plataformas de medios sociales nos permiten aprender más acerca de uno al otro y mantenernos en contacto constante, por lo que tendemos a asumir que este conocimiento promueve la empatía y la conexión. Nos sentimos más educados sobre los problemas estructurales de desigualdad y sobre las cuestiones humanitarias mundiales. Sin embargo, ¿quién está haciendo el trabajo real de enseñanza?

Para muchas personas, yo incluida, la tecnología moderna y la infraestructura de los medios sociales en realidad no ha hecho la vida más fácil. De hecho, se ha facilitado la demanda de más trabajo emocional sin ningún dinero extra en nuestros cheques de pago. Y como es el caso de casi todo el trabajo, termina siendo la gente menos privilegiada que está haciendo el levantamiento pesado. En Twitter, es sobre todo las mujeres de color, arriesgando el acoso cada vez que hablan, quienes están ofreciendo regularmente lecciones sobre raza, interseccionalidad, o Política. Si te has “despertado” como resultado de pasar tiempo en los medios sociales, fue debido a la labor desagradecida de los voluntarios que servían este contenido, usualmente bajo estrés (y para el beneficio de las plataformas que usan).

Yo también trato de hacer este trabajo, cuando es apropiado. Pero el trabajo emocional también puede ser íntimo, abarcando la energía que las mujeres socializan desproporcionadamente para mejorar los conflictos interpersonales. En la era de Facebook, los desafíos diarios de todas las vidas de mis amigos siempre están justo delante de mí. Se hace difícil fingir que no he visto una llamada de ayuda o apoyo, incluso varias, en el medio de mi día de trabajo real, cuyos límites están comenzando a disolverse. De alguna manera puedo perder horas en diálogo de apoyo con alguien que no es un amigo particularmente íntimo, o en argumentos de Internet para defender mis valores contra extraños que nunca conoceré.

“Paso demasiado tiempo en los medios sociales” es una queja privilegiada en el gran esquema, para estar seguro. Pero en general, mis amigos y yo estamos terminando cada vez más nuestros días conectados y ansiosos, cansado como si hubiéramos trabajado por dinero, pero sintiéndonos más vacío. El porcentaje de mujeres que optan por omitir la maternidad se ha duplicado desde la década de 1970, y aunque hay todo tipo de factores generacionales y económicos involucrados, me pregunto: ¿Qué pasa si las mujeres de hoy sólo sienten que estamos todos sin amor?

En los años sesenta, Joseph Weizenbaum creó un Chatbot terapeutica llamado Eliza en el laboratorio de inteligencia artificial del MIT. Aunque nunca quiso diseñar un terapeuta de inteligencia artificial (IA) “real”, Weizenbaum se sorprendió al ver a su secretaria cada vez mas pegada a Eliza voluntariamente porque la IA ofrecía a los “pacientes” indicaciones suaves sobre sus condiciones, o repetía sus respuestas de nuevo. Lo que se había previsto como una sátira del humo y los espejos detrás de este simulacro de empatía (y, en cierta medida, ciertas técnicas terapéuticas) se convirtió en una carretera de investigación en la psique humana.

Weizenbaum no podría haber predicho que tanta gente mantendría un interés en Eliza, que sentirían un vínculo con ella, que pasarían las próximas décadas escribiendo sus secretos en una pantalla brillante. Ese apego inesperado proporciona una pista importante acerca de nuestras esperanzas para la IA — que queremos mucho, recurrir a ella para el trabajo emocional, y que estamos dispuestos a hacerlo sin importar cuán mal te corresponda.

Durante mucho tiempo hemos estado pensando en cómo la IA podría ser capaz de apoderarse de parte de este trabajo, ya sea atendiendo a los misterios del corazón humano o a las cargas existenciales diarias de una sociedad injusta. Los terapeutas robots, mayordomos, sirvientas, enfermeras y muñecas sexuales son componentes familiares de la fantasía tecno-utópica del futuro, donde las máquinas obedientes realizan todas nuestras tareas indeseables, mientras disfrutamos de vidas de ocio. Pero estas dinámicas familiares en realidad pueden ser sobre la crianza y el cuidado tanto, y tal vez incluso más, de lo que son sobre el servicio o la mano de obra.

En 1985 vi mi primer juguete robótico. Era un osito de peluche llamado Teddy. Ruxpin, que leía en voz alta a los niños gracias a los libros sobre cassettes insertados en su vientre. En los anuncios televisivos, Teddy salía con los niños después de la escuela, mientras que sus padres, presumiblemente, subían las escaleras y los rascacielos de la época; o les leía amorosamente o les cantaba para dormir por la noche, su mandíbula borrosa cliqueando en el tiempo. En ese mismo año, presentada la cuarta película Rocky, en la que el boxeador Sylvester Stallone -ahora rico- infamemente regala a su viejo amigo Paulie un mayordomo robot parlante. Era en los 1980s, esta idea que la plenitud económica podría crear una escalera directamente al futuro de la tecnología y el ocio. El robot real que apareció en la película, Sico, fue creado para ayudar a los niños autistas con la comunicación antes de que cayera presa de la atracción de Hollywood. En la película, Paulie de alguna manera readapta la funcionalmente compleja voz masculina del siervo de en un compañero social de voz femenina, de la que finalmente se encariña (”She Loves Me”, exclama).

Tal vez para el cuidado de los niños, un oso de juguete suave en overoles, puede no tener género. Cuando se trata del mundo de los adultos, seguimos por defecto a la hora de ver tanto el servicio como la crianza como áreas predominantemente femeninas. El porqué la IA de hoy con frecuencia emplea la voz de una mujer es el tema de muchas investigaciones, discusiones y especulación. Se ha dicho que asociamos servicio o sumisión con las mujeres, que un consumidor de tecnología predominantemente masculino consume productos de lujo con el sexo, o que todo el mundo supuestamente sólo responde mejor al sonido de una voz que considera de una mujer. Azuma Hikari, “La respuesta de Japón a Alexa, “es un asistente virtual que le dice a su amo que lo extraña cuando se ha ido, que no puede esperar a que llegue a casa. Ese tipo de cosas no sólo se enredan incómodamente con el sexo y la sumisión, sino también con el compañerismo, el cuidado y el goteo de las interacciones diarias que constituyen el trabajo emocional en la era digital. Queremos que nuestros robots sean mujeres porque ya esperamos conseguir nuestro trabajo emocional de las mujeres.

Me imagino a alguien que se centra en desmantelar el patriarcado y todo eso, pero incluso me siento un poco defraudada cuando sigo el absurdo impulso de decir “gracias” a Alexa, y ella no responde. Por supuesto, Alexa sólo escucha mi voz cuando me oye decir su “palabra de despertar”, de lo contrario podría estar también husmeando todo el tiempo. Pero la interacción todavía se siente estéril sin ese florecimiento extra de trabajo diseñado para tranquilizarme que no he sido una imposición, que mis necesidades son normales. No sólo quiero que toque una canción o me diga el tiempo; quiero que me haga sentir bien por preguntar, también.

Este impulso particular podría no ser propicio para una sociedad sana. En un artículo titulado “El peligro de externalizar el trabajo emocional a los robots, “Christine Rosen cita la investigación de la advertencia de las formas en que dejar que los seres artificiales mantengan nuestras zonas de confort puede homogeneizar el vocabulario de la atención -en otras palabras, si un robot puede sonreír cortésmente al mando, ¿dejamos de apreciar lo que a veces cuesta a un ser humano hacer lo mismo? Todos los Outsourcing arriesgan una devaluación de la mano de obra local — podemos solidarizarnos aún menos, ver nuestra inteligencia emocional regresar, o crear nuevos mensajes sociales extraños sobre quién merece (o puede permitirse) cuidar. Si nuestros asistentes virtuales y obreros emocionales están resultando ser calmantes, mujeres-voz con IA, ¿cerrará ciertas brechas para las mujeres humanas? ¿o las ratificará?

Complicando estas preguntas es el hecho de que los robots, los asistentes virtuales, el software de productividad, los tonos de correo electrónico, los algoritmos de cálculo de datos, y cualquier cosa similar bajo el sol están ahora siendo arados en masa bajo la marquesina de “IA”, cuando muchos son sólo algoritmos crudos o software de coincidencia de patrones. Google espera que un bot pueda ayudar a identificar los comentarios tóxicos de Internet, mientras Facebook está probando una IA que puede detectar a los usuarios que pueden ser suicidas y ofrecer opciones para intervenir. Como Ian Bogost dice que cuando escribe sobre la insignificancia del término IA, estas soluciones son violentamente imperfectas y fácilmente abusadas, artificiales, pero no particularmente inteligentes.

Sin embargo, hay áreas clave de la vida online donde la IA (o software, o algoritmos) muestran un gran potencial para intervenir. El desarrollador creativo de tecnología basado en Portland, Feal Train colaboró con el notable activista de Black Lives Matter,mDeray McKesson en un bot de Twitter llamado @staywokebot, que está diseñado para ofrecer mensajes de apoyo a los activistas negros y sostener parte de la tensión de hacer frente al ruido de los medios de comunicación social; eventualmente tiene como objetivo actuar como una línea frontal para preguntas a nivel de 101 como “¿por qué no importan todas las vidas?”. El bot ya puede decirle a la gente cómo ponerse en contacto con sus representantes locales, y un objetivo para el futuro se ve proporcionando respuestas a preguntas complejas pero comunes sobre la justicia, aliviando a los activistas de las demandas de participar continuamente en esas conversaciones ellos mismos.

Luego está el horror distópico que los moderadores de contenidos enfrentan en plataformas como Facebook, crónicas en detalles especialmente espantosos en este 2014 Wiredarticle. Puede que no se vea como un trabajo agotador o hábil, pero vadear a través de una marcha constante de los genitales, la pornografía infantil, y las decapitaciones sin duda toma su peaje. Actualmente, los algoritmos sólo pueden hacer conjeturas contundentes sobre el tono o el contexto de una broma, una frase o una imagen, por lo que la intuición humana aún importa mucho. El problema, entonces, es que una persona real tiene que mirar cada pedacito que potencialmente viola el contenido, pesando el mérito de cada uno, día tras día. Aquí, una máquina inteligente podría formar al menos una primera defensa, por lo que los moderadores humanos tal vez sólo tendrían que estudiar situaciones más sutiles y más matizadas.

Mitu Khandaker-Kokoris es el director creativo de Spirit AI en Londres, Reino Unido, una compañía de software enfocada en usar la tecnología de IA para desarrollar interacciones de carácter más humanas y plausibles, tanto dentro de mundos de videojuegos como fuera de ellos, en el área tensa de gestión comunitaria. Las comunidades de juego son uno de los muchos espacios complicados donde la gente quiere probar los límites tanto como quieren encontrar lugares culturales en que se sientan seguros. Le alcancé a hablar sobre una de las herramientas de su empresa, Ally, que pretende hacer que todo tipo de plataformas sociales se sientan más seguras y más inclusivas para todos.

“¿Cómo lidiamos con el abuso emocional que la gente dirige uno a otro, y cómo intervenimos en él? En la actualidad es difícil para los moderadores, y es difícil para las personas que son víctimas, tener que esperar a que se resuelva una situación”, dice Khandaker-Kokoris.

Ally propone reconocer algunos de los signos de una interacción potencialmente problemática — no sólo cuando se trata de hablar o de contacto directo, sino también de comportamientos como el acoso o el hostigamiento. A partir de ahí, un personaje de IA, sus parámetros formados por los propietarios del producto en el que vive, le pedirá al objetivo de la conducta si están bien, y si cualquier acción es necesaria.

Este enfoque permite a los usuarios definir sus propios límites individuales, y a la IA aprender de sus interacciones con ellos acerca de cuándo intervenir y para quién. “los límites son súper complejos”, Khandaker-Kokoris dice. “Estamos bien con ciertas cosas en ciertos momentos y no otros, y podría incluso depender del estado de ánimo en el que estás. Así este personaje de IA y sus interacciones con ellos puede ser utilizado como un mediador para sus interacciones con el resto de la comunidad. Creo que es un caso claro en el que podemos reducir la carga emocional tanto en las víctimas como en los moderadores.”

Mientras Khandaker-Kokoris comparte algunas de las dudas que muchos sienten acerca de la externalización del trabajo emocional a la automatización, en general ella y yo coincidimos en que el sector tecnológico necesita seguir trabajando para entender mejor el trabajo emocional con el fin de de-construirlo y, quizás, delegarlo de manera significativa. Hablar con ella me hizo sentir esperanzada de que la intervención selectiva, considerada por la inteligencia artificial podría algún día ayudarme a curar mejores límites personales en un ambiente que es más agotador que nunca, más abrumador y exigente, especialmente para las mujeres y la gente de color.

Mientras tanto, es probable que la industria de la tecnología continúe utilizando las voces de las mujeres para sus productos, pero en verdad no nos escuchan en la vida real, al igual que una nueva ola de asistentes virtuales más inteligentes, seguramente viene hacia nosotros. Para calmarnos y recompensarnos; para nutrirnos del interior de nuestros Smartphones, casas inteligentes, y coches inteligentes.

Por ahora, sin embargo, para aquellos que ya están demasiado cansados de la vida online, la inteligencia emocional de nuestra tecnología todavía se siente como un sueño lejano. Lampadia




No permitamos que el miedo distorsione la política

Mucho de la política termina expresándose con el manejo de emociones. Una y otra vez, podemos ver como los pueblos votan por dirigentes que no conocen, o que una vez en el poder, caminan por sendas inesperadas. Una de las emociones más transitada es el miedo, como se explica en el video que compartimos líneas abajo. Por ello, siempre hay que alertar al ciudadano común, a tomar mayor conciencia de la realidad y a tener mejores consideraciones al momento, irreparable, del ejercicio del voto. 

A veces, las políticas de un país son dirigidas por miedos. Esta es la crítica central al liderazgo de la gobernanza en EEUU que hace David Rothkopf en una charla de TED publicada por la revista Foreign Policy. En ella, explica cómo la respuesta reaccionaria basada en el miedo al 11 de septiembre llevó a respuestas exageradas que generaron guerras, más terrorismo y pérdida de la libertad individual. Esto ha terminado afectando nuestros derechos fundamentales, a originado ataques a la ciencia por parte del gobierno estadounidense, reemplazando la razón por las emociones en la toma de decisiones.

Fuente: Segerios.com

La incapacidad de responder eficazmente a las amenazas de seguridad modernas, ha traído enormes costos a la sociedad, en su mayor parte por estar distraídos por el miedo y no haciendo caso a las cuestiones verdaderamente críticas que enfrentamos.

Como afirma Rothkopf, “Pero tenemos un gobierno que no quiere escuchar, que no tiene la gente del más alto nivel que entiende esto. En la era nuclear, cuando había gente en empleos de seguridad nacional de alto nivel, se esperaba poner peso en eso. Se esperaba que supieran la jerga, el vocabulario. Si van al más alto nivel del gobierno de EEUU ahora y dicen: “Háblenme de cibernética, de neurociencia, de las cosas que cambiarán el mundo de mañana”, obtendrían una mirada en blanco. (…) Entretanto, en el lado de la tecnología, tenemos mucha gente maravillosa que crea cosas maravillosas, que comienzan en garajes y no necesitaban del gobierno no quieren al gobierno. Muchos de ellos tienen una visión política entre libertaria y anárquica: Déjenme respirar. Pero el mundo se derrumba. Repentinamente, habrá cambios regulatorios masivos y temas masivos asociados con el conflicto y temas masivos asociados con la seguridad y la privacidad.”

“¿Dónde están los filósofos? ¿Dónde está el diálogo? Y eso me lleva a la razón por la que hoy estoy aquí. Yo vivo en Washington. El diálogo no está sucediendo allí. Estos grandes temas que van a cambiar el mundo, la seguridad nacional, la economía, crearán esperanza, crearán amenazas, solo se pueden resolver cuando se reúnan grupos de personas que entienden de ciencia y tecnología con el gobierno. Ambas partes se necesitan mutuamente. Y si no reactivamos esta conexión. Entonces creceremos cada vez de forma más vulnerable.”

“Los riesgos asociados con el 9/11 no se medirán en términos de vidas perdidas por ataques terroristas o edificios destruidos o miles de millones de dólares gastados. Se medirán en función de los costos de no poner atención en temas críticos y nuestra incapacidad para reunir científicos, tecnólogos, líderes del gobierno, en un momento de transformación afín al comienzo del Renacimiento, afín al comienzo de la principal era transformacional que han sucedido en la Tierra, y empezar a encontrar las respuestas correctas, o por lo menos las preguntas correctas.”

Rothkopf es profesor de Comercio Exterior y Relaciones Internacionales, científico político, periodista y director ejecutivo Grupo FP (que publica la Revista Foreign Policy).

Ver video de Ted con subtítulos en español:

 

Lampadia