1

Inteligencia emocional artificial: el futuro de la IA

Inteligencia emocional artificial: el futuro de la IA

Hoy en día, aproximadamente el 52% de los consumidores en todo el mundo utilizan tecnología impulsada por IA. Sin embargo, incluso las tecnologías de inteligencia artificial más sofisticadas carecen de factores esenciales como la inteligencia emocional y la capacidad de contextualizar información como seres humanos. Esta es la única razón por la que IA no ha logrado hacerse cargo de un aspecto importante de nuestras carreras y vidas.

Al integrar la inteligencia emocional con la inteligencia artificial existente, la IA podría dar un paso en la dirección correcta para convertirse en una tecnología transformadora. Por lo tanto, infundir emociones, empatía y moralidad en la IA es el siguiente hito que los tecnólogos desean lograr y se está poniendo una gran cantidad de esfuerzo en el proceso.

Pero, ¿qué es la inteligencia emocional artificial? Es una combinación de inteligencia emocional y artificial. La inteligencia emocional es la capacidad de reconocer las emociones de uno mismo y de los demás, la capacidad de regular y distinguir varios sentimientos y una guía de nuestro proceso de pensamiento y comportamiento. Es el factor más esencial que nos hace verdaderamente humanos. La inteligencia artificial, aunque es una tecnología creada para ayudar a los humanos y ayudarlos a realizar mejor las tareas, todavía carece de un cierto cociente cognitivo.

La IA, en varios aspectos de nuestras vidas, ha hecho nuestras tareas mucho más fáciles y sencillas. Las máquinas y los robots ya se están utilizando en fábricas y en la producción de varias empresas. Sin embargo, la integración de la Inteligencia Emocional con la IA haría que se pueda utilizar en temas de ventas y servicio al cliente de las empresas.

Debido a que los requisitos de los clientes cambian contentamente, sería muy útil que los ‘chatbox’ y las apps móviles puedan reconocer y responder de manera efectiva a las respuestas emocionales de personas como la ira, la frustración y la irritación, lo que mejora la experiencia del cliente.

En los próximos cinco años, se proyecta que la inteligencia emocional artificial se convierta en una industria multimillonaria, que transforme por completo las industrias, la investigación de mercado, la innovación y el desarrollo de nuevos productos. En un intento por aprovechar el aspecto humano de IA, Amazon, Microsoft y Google ya están en el proceso de contratar comediantes y guionistas para incorporar personalidad y empatía a sus tecnologías.

Los beneficios serán incalculables. Sin embargo, todavía estamos un poco lejos de lograrlo. Por eso, compartimos con nuestros lectores un artículo líneas abajo sobre los beneficios y obstáculos de incorporar la inteligencia emocional en el futuro de la Inteligencia Artificial:

Los límites de la inteligencia artificial emocional

Mar 31, 2017
Leigh Alexander
Medium

Escribo sobre la intersección de la tecnología, la cultura popular y las vidas que hemos vivido dentro de las máquinas. ¡También soy un diseñador narrativo!

Imagen Crédito: Darren Garret

Me han dicho que debo prepararme para el día que una inteligencia artificial tome mi trabajo. Esto me dejará bien indigente y desarraigada o abrumada por una plenitud de tiempo y terror existencial, dependiendo de a quién pidas. Al parecer, es hora de considerar qué tipo de trabajo sólo pueden hacer los humanos, y desesperadamente reorientarnos hacia esos roles, para que no nos quedemos de pie indefensos, como al final de algún juego de sillas musicales robóticas.

El trabajo emocional es una forma de ocupación que se considera con menos frecuencia en estas proyecciones futuras automatizadas. Tal vez esto se debe a que el trabajo que se necesita para sonreír a un cliente grosero o para manejar su angustia es intangible, difícil de cuantificar y monetizar. En no menor medida, los actos de apoyo pasan desapercibidos de la misma manera que una gran cantidad del “trabajo de mujeres” lo hace -aunque en los últimos años se habla que los costos ocultos han ganado ímpetu, en conversaciones sobre la desigualdad laboral.

Gracias a las maravillosas herramientas de la sociedad digital, teóricamente somos capaces de dar y recibir más apoyo que nunca. Las plataformas de medios sociales nos permiten aprender más acerca de uno al otro y mantenernos en contacto constante, por lo que tendemos a asumir que este conocimiento promueve la empatía y la conexión. Nos sentimos más educados sobre los problemas estructurales de desigualdad y sobre las cuestiones humanitarias mundiales. Sin embargo, ¿quién está haciendo el trabajo real de enseñanza?

Para muchas personas, yo incluida, la tecnología moderna y la infraestructura de los medios sociales en realidad no ha hecho la vida más fácil. De hecho, se ha facilitado la demanda de más trabajo emocional sin ningún dinero extra en nuestros cheques de pago. Y como es el caso de casi todo el trabajo, termina siendo la gente menos privilegiada que está haciendo el levantamiento pesado. En Twitter, es sobre todo las mujeres de color, arriesgando el acoso cada vez que hablan, quienes están ofreciendo regularmente lecciones sobre raza, interseccionalidad, o Política. Si te has “despertado” como resultado de pasar tiempo en los medios sociales, fue debido a la labor desagradecida de los voluntarios que servían este contenido, usualmente bajo estrés (y para el beneficio de las plataformas que usan).

Yo también trato de hacer este trabajo, cuando es apropiado. Pero el trabajo emocional también puede ser íntimo, abarcando la energía que las mujeres socializan desproporcionadamente para mejorar los conflictos interpersonales. En la era de Facebook, los desafíos diarios de todas las vidas de mis amigos siempre están justo delante de mí. Se hace difícil fingir que no he visto una llamada de ayuda o apoyo, incluso varias, en el medio de mi día de trabajo real, cuyos límites están comenzando a disolverse. De alguna manera puedo perder horas en diálogo de apoyo con alguien que no es un amigo particularmente íntimo, o en argumentos de Internet para defender mis valores contra extraños que nunca conoceré.

“Paso demasiado tiempo en los medios sociales” es una queja privilegiada en el gran esquema, para estar seguro. Pero en general, mis amigos y yo estamos terminando cada vez más nuestros días conectados y ansiosos, cansado como si hubiéramos trabajado por dinero, pero sintiéndonos más vacío. El porcentaje de mujeres que optan por omitir la maternidad se ha duplicado desde la década de 1970, y aunque hay todo tipo de factores generacionales y económicos involucrados, me pregunto: ¿Qué pasa si las mujeres de hoy sólo sienten que estamos todos sin amor?

En los años sesenta, Joseph Weizenbaum creó un Chatbot terapeutica llamado Eliza en el laboratorio de inteligencia artificial del MIT. Aunque nunca quiso diseñar un terapeuta de inteligencia artificial (IA) “real”, Weizenbaum se sorprendió al ver a su secretaria cada vez mas pegada a Eliza voluntariamente porque la IA ofrecía a los “pacientes” indicaciones suaves sobre sus condiciones, o repetía sus respuestas de nuevo. Lo que se había previsto como una sátira del humo y los espejos detrás de este simulacro de empatía (y, en cierta medida, ciertas técnicas terapéuticas) se convirtió en una carretera de investigación en la psique humana.

Weizenbaum no podría haber predicho que tanta gente mantendría un interés en Eliza, que sentirían un vínculo con ella, que pasarían las próximas décadas escribiendo sus secretos en una pantalla brillante. Ese apego inesperado proporciona una pista importante acerca de nuestras esperanzas para la IA — que queremos mucho, recurrir a ella para el trabajo emocional, y que estamos dispuestos a hacerlo sin importar cuán mal te corresponda.

Durante mucho tiempo hemos estado pensando en cómo la IA podría ser capaz de apoderarse de parte de este trabajo, ya sea atendiendo a los misterios del corazón humano o a las cargas existenciales diarias de una sociedad injusta. Los terapeutas robots, mayordomos, sirvientas, enfermeras y muñecas sexuales son componentes familiares de la fantasía tecno-utópica del futuro, donde las máquinas obedientes realizan todas nuestras tareas indeseables, mientras disfrutamos de vidas de ocio. Pero estas dinámicas familiares en realidad pueden ser sobre la crianza y el cuidado tanto, y tal vez incluso más, de lo que son sobre el servicio o la mano de obra.

En 1985 vi mi primer juguete robótico. Era un osito de peluche llamado Teddy. Ruxpin, que leía en voz alta a los niños gracias a los libros sobre cassettes insertados en su vientre. En los anuncios televisivos, Teddy salía con los niños después de la escuela, mientras que sus padres, presumiblemente, subían las escaleras y los rascacielos de la época; o les leía amorosamente o les cantaba para dormir por la noche, su mandíbula borrosa cliqueando en el tiempo. En ese mismo año, presentada la cuarta película Rocky, en la que el boxeador Sylvester Stallone -ahora rico- infamemente regala a su viejo amigo Paulie un mayordomo robot parlante. Era en los 1980s, esta idea que la plenitud económica podría crear una escalera directamente al futuro de la tecnología y el ocio. El robot real que apareció en la película, Sico, fue creado para ayudar a los niños autistas con la comunicación antes de que cayera presa de la atracción de Hollywood. En la película, Paulie de alguna manera readapta la funcionalmente compleja voz masculina del siervo de en un compañero social de voz femenina, de la que finalmente se encariña (”She Loves Me”, exclama).

Tal vez para el cuidado de los niños, un oso de juguete suave en overoles, puede no tener género. Cuando se trata del mundo de los adultos, seguimos por defecto a la hora de ver tanto el servicio como la crianza como áreas predominantemente femeninas. El porqué la IA de hoy con frecuencia emplea la voz de una mujer es el tema de muchas investigaciones, discusiones y especulación. Se ha dicho que asociamos servicio o sumisión con las mujeres, que un consumidor de tecnología predominantemente masculino consume productos de lujo con el sexo, o que todo el mundo supuestamente sólo responde mejor al sonido de una voz que considera de una mujer. Azuma Hikari, “La respuesta de Japón a Alexa, “es un asistente virtual que le dice a su amo que lo extraña cuando se ha ido, que no puede esperar a que llegue a casa. Ese tipo de cosas no sólo se enredan incómodamente con el sexo y la sumisión, sino también con el compañerismo, el cuidado y el goteo de las interacciones diarias que constituyen el trabajo emocional en la era digital. Queremos que nuestros robots sean mujeres porque ya esperamos conseguir nuestro trabajo emocional de las mujeres.

Me imagino a alguien que se centra en desmantelar el patriarcado y todo eso, pero incluso me siento un poco defraudada cuando sigo el absurdo impulso de decir “gracias” a Alexa, y ella no responde. Por supuesto, Alexa sólo escucha mi voz cuando me oye decir su “palabra de despertar”, de lo contrario podría estar también husmeando todo el tiempo. Pero la interacción todavía se siente estéril sin ese florecimiento extra de trabajo diseñado para tranquilizarme que no he sido una imposición, que mis necesidades son normales. No sólo quiero que toque una canción o me diga el tiempo; quiero que me haga sentir bien por preguntar, también.

Este impulso particular podría no ser propicio para una sociedad sana. En un artículo titulado “El peligro de externalizar el trabajo emocional a los robots, “Christine Rosen cita la investigación de la advertencia de las formas en que dejar que los seres artificiales mantengan nuestras zonas de confort puede homogeneizar el vocabulario de la atención -en otras palabras, si un robot puede sonreír cortésmente al mando, ¿dejamos de apreciar lo que a veces cuesta a un ser humano hacer lo mismo? Todos los Outsourcing arriesgan una devaluación de la mano de obra local — podemos solidarizarnos aún menos, ver nuestra inteligencia emocional regresar, o crear nuevos mensajes sociales extraños sobre quién merece (o puede permitirse) cuidar. Si nuestros asistentes virtuales y obreros emocionales están resultando ser calmantes, mujeres-voz con IA, ¿cerrará ciertas brechas para las mujeres humanas? ¿o las ratificará?

Complicando estas preguntas es el hecho de que los robots, los asistentes virtuales, el software de productividad, los tonos de correo electrónico, los algoritmos de cálculo de datos, y cualquier cosa similar bajo el sol están ahora siendo arados en masa bajo la marquesina de “IA”, cuando muchos son sólo algoritmos crudos o software de coincidencia de patrones. Google espera que un bot pueda ayudar a identificar los comentarios tóxicos de Internet, mientras Facebook está probando una IA que puede detectar a los usuarios que pueden ser suicidas y ofrecer opciones para intervenir. Como Ian Bogost dice que cuando escribe sobre la insignificancia del término IA, estas soluciones son violentamente imperfectas y fácilmente abusadas, artificiales, pero no particularmente inteligentes.

Sin embargo, hay áreas clave de la vida online donde la IA (o software, o algoritmos) muestran un gran potencial para intervenir. El desarrollador creativo de tecnología basado en Portland, Feal Train colaboró con el notable activista de Black Lives Matter,mDeray McKesson en un bot de Twitter llamado @staywokebot, que está diseñado para ofrecer mensajes de apoyo a los activistas negros y sostener parte de la tensión de hacer frente al ruido de los medios de comunicación social; eventualmente tiene como objetivo actuar como una línea frontal para preguntas a nivel de 101 como “¿por qué no importan todas las vidas?”. El bot ya puede decirle a la gente cómo ponerse en contacto con sus representantes locales, y un objetivo para el futuro se ve proporcionando respuestas a preguntas complejas pero comunes sobre la justicia, aliviando a los activistas de las demandas de participar continuamente en esas conversaciones ellos mismos.

Luego está el horror distópico que los moderadores de contenidos enfrentan en plataformas como Facebook, crónicas en detalles especialmente espantosos en este 2014 Wiredarticle. Puede que no se vea como un trabajo agotador o hábil, pero vadear a través de una marcha constante de los genitales, la pornografía infantil, y las decapitaciones sin duda toma su peaje. Actualmente, los algoritmos sólo pueden hacer conjeturas contundentes sobre el tono o el contexto de una broma, una frase o una imagen, por lo que la intuición humana aún importa mucho. El problema, entonces, es que una persona real tiene que mirar cada pedacito que potencialmente viola el contenido, pesando el mérito de cada uno, día tras día. Aquí, una máquina inteligente podría formar al menos una primera defensa, por lo que los moderadores humanos tal vez sólo tendrían que estudiar situaciones más sutiles y más matizadas.

Mitu Khandaker-Kokoris es el director creativo de Spirit AI en Londres, Reino Unido, una compañía de software enfocada en usar la tecnología de IA para desarrollar interacciones de carácter más humanas y plausibles, tanto dentro de mundos de videojuegos como fuera de ellos, en el área tensa de gestión comunitaria. Las comunidades de juego son uno de los muchos espacios complicados donde la gente quiere probar los límites tanto como quieren encontrar lugares culturales en que se sientan seguros. Le alcancé a hablar sobre una de las herramientas de su empresa, Ally, que pretende hacer que todo tipo de plataformas sociales se sientan más seguras y más inclusivas para todos.

“¿Cómo lidiamos con el abuso emocional que la gente dirige uno a otro, y cómo intervenimos en él? En la actualidad es difícil para los moderadores, y es difícil para las personas que son víctimas, tener que esperar a que se resuelva una situación”, dice Khandaker-Kokoris.

Ally propone reconocer algunos de los signos de una interacción potencialmente problemática — no sólo cuando se trata de hablar o de contacto directo, sino también de comportamientos como el acoso o el hostigamiento. A partir de ahí, un personaje de IA, sus parámetros formados por los propietarios del producto en el que vive, le pedirá al objetivo de la conducta si están bien, y si cualquier acción es necesaria.

Este enfoque permite a los usuarios definir sus propios límites individuales, y a la IA aprender de sus interacciones con ellos acerca de cuándo intervenir y para quién. “los límites son súper complejos”, Khandaker-Kokoris dice. “Estamos bien con ciertas cosas en ciertos momentos y no otros, y podría incluso depender del estado de ánimo en el que estás. Así este personaje de IA y sus interacciones con ellos puede ser utilizado como un mediador para sus interacciones con el resto de la comunidad. Creo que es un caso claro en el que podemos reducir la carga emocional tanto en las víctimas como en los moderadores.”

Mientras Khandaker-Kokoris comparte algunas de las dudas que muchos sienten acerca de la externalización del trabajo emocional a la automatización, en general ella y yo coincidimos en que el sector tecnológico necesita seguir trabajando para entender mejor el trabajo emocional con el fin de de-construirlo y, quizás, delegarlo de manera significativa. Hablar con ella me hizo sentir esperanzada de que la intervención selectiva, considerada por la inteligencia artificial podría algún día ayudarme a curar mejores límites personales en un ambiente que es más agotador que nunca, más abrumador y exigente, especialmente para las mujeres y la gente de color.

Mientras tanto, es probable que la industria de la tecnología continúe utilizando las voces de las mujeres para sus productos, pero en verdad no nos escuchan en la vida real, al igual que una nueva ola de asistentes virtuales más inteligentes, seguramente viene hacia nosotros. Para calmarnos y recompensarnos; para nutrirnos del interior de nuestros Smartphones, casas inteligentes, y coches inteligentes.

Por ahora, sin embargo, para aquellos que ya están demasiado cansados de la vida online, la inteligencia emocional de nuestra tecnología todavía se siente como un sueño lejano. Lampadia




La tecnología no es la mayor amenaza para nuestra humanidad

La tecnología no es la mayor amenaza para nuestra humanidad

Escrito por Gianpiero Petriglieri

Publicado en el World Economic Forum en colaboración con el Harvard Business Review

3 de diciembre de 2015

Traducido y glosado por Lampadia

 

Últimamente hemos publicado varios ensayos sobre la evolución de la tecnología y su impacto en la vida de los seres humanos, con especial énfasis en el futuro del empleo.

En el artículo que compartimos líneas abajo, Petriglieri, un profesor de Comportamiento Organizacional, analiza los cambios tecnológicos desde la perspectiva de su propia experiencia a lo largo de 25 años y postula que más que la tecnología, la amenaza para nuestra humanidad estaría en cómo nos manejamos nosotros mismos, en cómo nos deshumanizanos nosotros mismos.

agenda.weforum.org

Como hemos indicado en varios de nuestros análisis sobre la nueva revolución tecnológica, su proceso es imparable y trae grandes oportunidades y riesgos. Petriglieri nos dice que tenemos que estar más allá de ‘aplaudir o lamentar lo rápido que vamos’. Para ello es fundamental tomar conciencia de la realidad y no ser sujetos pasivos del devenir de los tiempos.

En Lampadia creemos que esta revolución es muy importante para el futuro de nuestras vidas y por lo tanto debemos prepararnos para afrontarla y aprovecharla. Lamentablemente, vemos pasar la información, los análisis y los meses, sin que en el Perú, nuestra clase dirigente y nuestros medios de comunicación aquilaten este importante momento de nuestra historia.

Esta falencia es especialmente importante para un país marcado por brechas muy grandes en educación, salud, infraestructuras y tecnología, que debieran causar un mayor sentido de urgencia y una mayor convergencia de nuestros postulados de acción colectiva y política. Por nuestro lado, seguiremos tercamente, difundiendo estos temas entre nuestros lectores.

La tecnología no es la mayor amenaza para nuestra humanidad

Gianpiero Petriglieri es Profesor Asociado de Comportamiento Organizacional en INSEAD y miembro de la Facultad del Programa de Becarios de Liderazgo Global del Foro Económico Mundial.

Hace unas semanas, fui a dar un paseo por las calles de Viena. Yo estaba allí para una reunión de ejecutivos de Recursos Humanos, la tercera conferencia a la que he asistido este otoño, en la cual el tema central fue la “revolución tecnológica” y sus consecuencias para el empleo, la educación y los estilos de vida.

Una hora antes, durante un panel, había respondido tweets de algunos miembros de la audiencia – desatando una pequeña controversia entre los asistentes. ¿El leer desde mi ‘tablet’ en el escenario, aumentó o disminuyó mi humanidad? ¿Me volvió más conectado o más desconectado? Todavía estaba dándole vueltas al asunto cuando una fila de bancas en una acera me distrajo.

Me volví hacia atrás, con una sensación de déjà vu a la que no podía dar sentido, hasta que la calle me llevó a la entrada de la residencia de estudiantes de un jardín de invierno. Entonces, emergió intacto un repentino recuerdo de otra noche de otoño en esa misma calle.

Había estado parado allí casi 25 años antes, en un rito tradicional para muchos adolescentes europeos de mi generación – ‘interrailing’. Utilizabamos el nombre de la marca del billete mensual de tren abierto para menores de 26 años (InterRail) como un verbo, porque InterRail no era, al igual que Google hoy en día, algo que se utilizaba. Sino algo que se hacía.

Esos viajes en trenes baratos eran una tecnología social. Llevaba a los jóvenes en un viaje hacia su edad adulta como europeos, un viaje hacia las otras personas y lejos de las crianzas provinciales y los viejos conflictos que todavía proyectan sus sombras sobre el continente.

Para muchos hombres y mujeres de mediana edad, como yo, el ideal europeo, el primer hijo nacido fuera del trauma de la guerra y con la promesa de paz y prosperidad, se convirtió en una identidad europea a través de largas noches en vagones de segunda clase que llevaban a París, Múnich, Madrid, Estocolmo o Amsterdam.

De pie en esa calle vienesa, después de un cuarto de siglo viviendo y trabajando en distintas partes de Europa, se me ocurrió que esos trenes fueron una de las tecnologías más humanizantes que he experimentado en mi vida.

No por la eficiencia de la ingeniería de ferrocarriles o el éxito de una estrategia de fijación de precios. Fue la libertad y las conexiones que nos dio. InterRailing expandía la definición de quién eras y a dónde pertenecías. Volvió a personas muy diferentes a personas como uno. El entender la importancia de esos trenes, en otras palabras, requiere mirar a través de ambos lentes instrumentales y humanísticos – imaginando sus destinos geográficos y culturales, contemplando lo que hicieron y lo que significaron para nosotros.

Esos dos lentes son necesarios para comprender el significado de cualquier tecnología. En estos días, por desgracia, privilegiamos la instrumental. ¿A dónde nos llevarán las nuevas tecnologías? ¿Qué van a hacer para y por nosotros? Con menos frecuencia tomamos en cuenta en qué nos estamos convirtiendo cuando la usamos.

Considere los sentimientos más populares sobre el surgimiento de tecnología de la información: una mezcla de esperanza y ansiedad. Solíamos reservar esos sentimientos para nuestros líderes más carismáticos, pero la tecnología y liderazgo están asociados cada vez más cercanamente. Pensemos en los autos eléctricos, los dispositivos informáticos, el comercio minorista en línea, los motores de búsqueda y las plataformas de medios sociales para nombrar sólo algunas empresas de alta tecnología cuya expansión y cuyos líderes icónicos, provocan tanto entusiasmo como sospecha hoy en día.

La esperanza y la ansiedad que causan los líderes cuando despliegan las últimas tecnologías no son nuevas. La controversia sobre cómo manejar la data de los usuarios por parte de empresas y gobiernos, por ejemplo, es la gran preocupación del siglo 21 – el riesgo planteado por los líderes equipados con más tecnología que humanidad.

Lo que es nuevo es que el riesgo ahora se refiere a la mayoría de nosotros, así seamos los líderes de los principales países o de nuestras propias vidas.

Y entonces, llegamos a la discusión de cómo asegurar que controlamos nuestras máquinas, en lugar de al revés. Mientras tanto, consentimos un desequilibrio igual de arriesgado como el que existe entre personas y máquinas. Es decir, el desequilibrio del humanismo y la instrumentalidad en el diseño y uso de la tecnología. Mientras que las preocupaciones por la libertad, las conexiones y la cultura pueblan nuestra retórica, es la preocupación por el impacto, devoluciones y eficiencia que suelen motivar nuestras decisiones.

Una tecnología no puede llamarse revolucionaria, sin embargo, simplemente porque les da a los líderes un mayor impacto y alcance. No hay nada de revolucionario en líderes utilizando nuevas herramientas para ampliar su poder. La tecnología sólo puede llamarse revolucionaria si cambia la forma con la cual el poder es experimentado, entendido y distribuido. Y aun así, la pregunta sigue abierta en cuanto a quién se beneficia de la redistribución y lo que hacen después.

Del mismo modo, una tecnología no puede ser llamada humanizadora simplemente porque permite que las personas transmitan sus historias. No hay nada humanizador en el uso de nuevas herramientas para proteger y hacer valer nuestras historias. La tecnología sólo puede ser llamada humanizadora si nos libera para revisar y ampliar esas historias y si nos ayuda a entender mejor las de los demás.

Si bien la tecnología a menudo aumenta el poder de los líderes y en ocasiones le brinda poder a nuevos líderes, en definitiva, es la humanidad lo que mantiene chequeado al poder. Esta es la razón por la que la relación más productiva entre el instrumentalismo y el humanismo es un conflicto entre iguales. La subordinación de uno a otro nos hace daño. Podemos controlar la tecnología y aún matar el humanismo, con la excusa de que es demasiado costoso, ineficiente o pasado de moda.

Considere la posibilidad de un mito empresarial legendario, uno que dejó escatimar un alumno que abandonó la universidad en una clase de caligrafía. Ese extracto de la vida de Steve Jobs a menudo es re-dicho para sugerir que un fondo en las humanidades, un gusto refinado y un intelecto amplio son valiosos porque ayudan a construir una gran compañía. No porque van a hacer una persona más interesante y digna. El mensaje sutil y devastador es que el humanismo es una estrategia para, más que un contrapeso de, objetivos instrumentales.

Es esta actitud la que nos deshumaniza, antes de que sea inscrita en la tecnología con la intención de los diseñadores y los hábitos de los usuarios. ¿Cómo podemos construir y utilizar la tecnología para liberar y conectar a las personas, si tal actitud nos amarra y aísla?

Antes de señalar acusatoriamente a los teléfonos inteligentes de nuevo, haríamos bien en volver a visitar un intenso debate que dio forma a una de las tecnologías más extendidas del último siglo: la administración. El defensor más influyente por su función instrumental, Frederick Taylor, sostuvo que la función de los directivos era aumentar la eficiencia y maximizar la rentabilidad de sus empresas. Peter Drucker pronto desafió esas teorías. Presentó una visión humanista de la función de los directivos de la empresa que arrojan tanto mecanismos de expresión de las personas y crecimiento.

Muchos de los avances que han provocado los negocios en el siglo pasado son el resultado de la tensión entre esas dos visiones de la forma de organizar el trabajo, mejorar la productividad, y definir el éxito. Esa tensión dejará de producir mucho progreso si todos nos quedamos con el taylorismo en ropa druckeriana. Cuando lo único que nos importe sea la eficiencia, y el humanismo sea reducido a una cuestión de estilo, la verdadera amenaza vendrá de las máquinas inteligentes en las que nos habremos convertido, no de las que vamos a construir.

Al igual que los viejos trenes, puede que no podamos controlar la velocidad del avance tecnológico, pero todavía podemos tomar muchas decisiones sobre a dónde vamos. No hay vuelta atrás, lo que hace que sea aún más importante a tener en cuenta el significado de seguir adelante, en lugar de simplemente aplaudir o lamentar lo rápido que vamos. Lampadia