1

Las oficinas siguen reinventándose

Las oficinas corporativas en el mundo desarrollado se encuentran en plena transformación ante las nuevas tendencias del mundo laboral – suscitada por la aparición de las tecnologías de la 4ta Revolución Industrial (4IR) -como la automatización de las ocupaciones y el teletrabajo (ver Lampadia: Automatización demandará nuevos empleos y habilidades).

Sin embargo, como The Economist señaló en un reciente artículo que compartimos líneas abajo, esta fase de cambio aún se encuentra en un proceso mancebo. Las organizaciones todavía se encuentran probando diferentes distribuciones de sus espacios físicos para menguar el aburrimiento de los trabajadores que se ven sometidos día a día muchas veces a la misma rutina en las oficinas.

Pero más importante aún, es que a los grandes directivos les está faltando pensar fuera de la caja, puesto que aún no se encuentran explotando plenamente las herramientas provistas por el Internet tanto actual como futuro, que prometen explorar esquemas de contratación laborales que no impliquen concentrar al personal en los grandes ámbitos urbanos. Ello posibilitaría no solo descentralizar la toma de decisiones mejorando la productividad, sino también reducir sustancialmente los costos fijos arraigados al uso de espacios físicos en las compañías (mantenimiento de oficinas, gastos de servicios, capacitaciones presenciales a trabajadores, entre otras).

Además, con la llegada del 5G y el Internet de las Cosas (IoT), cualquier dispositivo físico podrá estar conectado en el mundo a velocidades de descarga 10 a 20 veces más rápidas que las que tenemos con la actual tecnología 4G, mediante la incrustación de chips (ver Lampadia: Los avances del Internet de las cosas, ¿Cómo impulsará el 5G a nuestras vidas?). Ello impulsará las relaciones laborales fuera de los centros empresariales, pudiendo trabajar desde prácticamente cualquier parte del mundo.

En este sentido, predecimos buenos visos para el futuro de las oficinas y esperamos que las empresas en Occidente así como el mundo emergente, del cual el Perú es parte, puedan adecuarse con facilidad a estos nuevos procesos del mundo interconectado. Lampadia

El futuro de la oficina
Incluso si WeWork está en problemas, la oficina aún se reinventa

Podría conducir a un sistema de dos niveles

The Economist
28 de setiembre, 2019
Traducido y glosado por Lampadia

“De nueve a cinco, tengo que pasar mi tiempo en el trabajo”, gritó Martha y los Muffins en 1980. “Mi trabajo es muy aburrido, soy empleado de oficina”. Muchos de los cientos de millones de personas que viajan para entrar a una oficina se sentirá tan abatido ante la perspectiva como lo hizo Martha. La oficina necesita una renovación. Pero la crisis en WeWork, una moderna firma de alquiler de oficinas cuyo jefe, Adam Neumann, renunció esta semana después de que su intento de flotar sus acciones se convirtiera en una debacle, muestra que las empresas todavía están luchando por encontrar un nuevo formato.

La gran oficina, como la fábrica, es un invento de los últimos dos siglos. La fábrica surgió debido a la maquinaria eléctrica, que requería que los trabajadores se reunieran en un solo lugar. Las grandes oficinas surgieron de la necesidad de procesar mucho papeleo y de que los gerentes instruyeran a los empleados sobre qué hacer. Pero ahora, Internet, la informática personal y los dispositivos portátiles significan que las transacciones se pueden tratar en pantalla y los gerentes pueden comunicarse instantáneamente con sus trabajadores, estén donde estén. La necesidad de que el personal esté en un solo lugar se ha reducido drásticamente.

Puede surgir un nuevo modelo: la energía eléctrica se utilizó por primera vez en la década de 1880, pero no fue hasta la década de 1920 que las fábricas cambiaron su diseño para aprovecharla al máximo. El nuevo modelo tendrá que equilibrar tres factores: el deseo de muchos trabajadores de un horario flexible; el alto costo para las empresas de mantener espacio de oficina; y el deseo compensatorio de reunir trabajadores calificados en un solo lugar, con la esperanza de que esto mejore la colaboración.

Las personas que trabajan en casa o en un Starbucks no necesitan desplazamientos estresantes y pueden ajustar sus horarios para adaptarse a su estilo de vida. A su vez, esa flexibilidad permite a las empresas reducir el espacio. Nuestro análisis de 75 grandes empresas de servicios cotizados en EEUU y Gran Bretaña muestra que los costos anuales de alquiler por empleado han disminuido en un 15% en los últimos 15 años, a US$ 5,000. Muchas empresas operan un sistema hot-desking donde los trabajadores encuentran un nuevo asiento todos los días. En las oficinas londinenses de Deloitte, una consultora, 12,500 personas tienen acceso al edificio, pero solo hay 5,500 escritorios disponibles.

Pero el hot-desking puede ser alienante. Todas las noches, los trabajadores deben borrar todo rastro de su existencia, ocultando sus posesiones. Cuando se apiñan en escritorios ubicados juntos, los trabajadores usan auriculares para callar a los vecinos ruidosos. Los estudios sugieren que esto lleva a más correos electrónicos y menos comunicación cara a cara. Demasiado para la colaboración y la camaradería.

Los trabajadores altamente calificados pueden ser repelidos por estas condiciones. Por lo tanto, la unidad de hot-desking ha estado acompañada de una tendencia compensatoria, en la que esta élite obtiene mejores instalaciones. Los que necesitan concentrarse tienen espacios tranquilos. Una mejor iluminación y aire acondicionado apuntan a mantener saludables a los empleados. La nueva sede de Apple tiene parques, un prado y un auditorio para 1,000 personas. La esperanza es que cuando los trabajadores se mezclan o se relajan, eso generará ideas.

Todo esto parece un cambio hacia un mundo de trabajo al estilo de una aerolínea, con asientos económicos para los drones y lujo de clase ejecutiva para trabajadores calificados, que disfrutan de algunos de los beneficios que una vez estuvieron reservados para los altos ejecutivos. Pero esta es una compensación difícil de lograr. WeWork ofrece un servicio de “economía premium” en el que una gama más amplia de trabajadores puede obtener algunas ventajas. Pero los temores de que sus ingresos por alquiler puedan ser insuficientes para compensar sus US$ 47,000 millones de pasivos por arrendamiento fueron una de las razones por las que su IPO se retrasó.

La oficina está obligada a cambiar aún más. Algunas empresas pueden preguntar si tiene sentido tener oficinas en los centros de las ciudades. En una era de colaboración remota, el software y los documentos se encuentran en la nube y las oficinas podrían dispersarse a lugares más baratos. El plan de negocios de Neumann está hecho jirones. Pero una de sus ideas seguramente es correcta: la oficina de mediados del siglo XXI será tan diferente de la actual como la fábrica de alta tecnología de la fábrica victoriana. Lampadia




Los datos: uno de los activos más valiosos de la empresa

Los datos: uno de los activos más valiosos de la empresa

Conforme la informática y la analítica – entendida esta última como el conjunto de técnicas que buscan e identifican patrones significativos en grandes cantidades de información – han ido avanzando a pasos agigantados en los últimos años gracias a las nuevas tecnologías provistas por la Cuarta Revolución Industrial (4IR) (ver Lampadia: La Industria 4.0: Lo que se necesita saber), el manejo y administración de bases de datos de índole comercial y financiera se ha convertido en un aspecto crucial en la toma de decisiones empresariales.

En el mundo corporativo, tal tarea ahora está tomando forma, ya no como un proceso aislado en un área determinada de la empresa, sino como parte del día a día de los trabajadores que interactúan con datos en sus respectivas unidades de negocio. Esta es una de las principales ideas que se desprenden de una reciente entrevista realizada y publicada por McKinsey al CEO de Informatica, Anil Chakravarthy (ver artículo líneas abajo).

Como dejan entrever las declaraciones de Chakravarthy, “Lo que distingue a las empresas más exitosas es que han desarrollado la capacidad de administrar datos como un activo en toda la organización”. Este argumento se sustenta, según el entrevistado, en 3 atributos que provee la gestión de datos de manera descentralizada:

  • Gracias al ambiente propiciado por el IoT (“Internet de las cosas”) ahora es posible contar con data en tiempo real de variables asociadas a la productividad, factor indispensable que permite mejorar sustancialmente la competitividad en las empresas.
  • El análisis de los datos también es un pilar fundamental para la transformación digital de la empresa ya que permite encontrar oportunidades en los mercados que ayudarían a apuntalar tal transformación.
  • El hecho que la gestión de datos sea manejada descentralizadamente permite a las empresas tener una mejor idea respecto a la calidad y pertinencia de dichos datos, puesto que se conoce el contexto en el que estos han sido producidos, antes de ser almacenados.

Conforme se sigan desarrollando nuevas herramientas que permitan un uso más eficiente y eficaz del manejo de datos dentro de las organizaciones, consideramos que dicha herramienta será adoptada por un espectro más grande de empresas del sector privado. Esperamos que las empresas peruanas, sobre todo las micro y pequeñas empresas, no se queden en el coche y eventualmente puedan implementar estrategias en torno a esta tendencia, cuya importancia no es un tema menor. Lampadia

Gestionar los datos como un activo: Una entrevista con el CEO de Informatica

McKinsey & Company
mayo, 2019
Traducido y glosado por Lampadia

Anil Chakravarthy se basa en su experiencia liderando un negocio de gestión de datos para discutir nuevos enfoques técnicos y organizativos que ayudan a las empresas a crear valor con sus datos.

Como CEO de Informatica – uno de los proveedores más grandes del mundo de servicios basados en la nube para administrar datos en múltiples entornos, respaldar programas analíticos y cumplir con las regulaciones de datos – Anil Chakravarthy ve cómo las empresas en cada industria utilizan los datos para tomar mejores decisiones de negocios. Lo que distingue a las empresas más exitosas, en su opinión, es que han desarrollado la capacidad de administrar datos como un activo en toda la organización. Esa capacidad depende de ciertos elementos de apoyo: una sólida base técnica, mecanismos para dominar el manejo de datos y la responsabilidad de los empleados para administrar bien los datos. En esta entrevista con Roger Roberts, socio de McKinsey, Chakravarthy explica por qué estos elementos son importantes y ofrece ejemplos de cómo han ayudado a las empresas a usar los datos para respaldar sus objetivos comerciales. A continuación una versión editada de sus comentarios.

Ver video resumen de la entrevista:

McKinsey: Según su experiencia en el manejo de una empresa de gestión de datos, ¿cómo usan las empresas los datos para crear valor de manera consistente?

Cómo las empresas usan los datos para crear valor

Anil Chakravarthy: El mayor valor proviene de poder recopilar y correlacionar información de diferentes tipos de sistemas.

Ahora, a través del IoT (Internet of Things), tienen muchos más datos sobre la productividad real en términos de cosas como el rendimiento y el estado del mantenimiento. Y están correlacionando esos datos. Entonces pueden tomar decisiones en tiempo real.

Vemos esto en industria tras industria. Es poder tomar los datos que tradicionalmente tenía una empresa, que se ocupaban de aspectos como la rentabilidad, los costos, los gastos, etc., y combinarlos con más datos basados en IoT sobre eficiencia, mantenimiento, estado, etc.

McKinsey: ¿Cuáles son los principales desafíos que enfrentan las empresas al integrar datos de diferentes sistemas?

Anil Chakravarthy: Lo que está causando el mayor dolor en este momento es cómo hacer esto a una escala de toda la empresa. Fundamentalmente, la forma en que se diseñan, recopilan y almacenan los datos no ha cambiado con respecto a la forma en que se realizaba hace diez, 20 o 30 años. Los datos se desarrollan en el contexto de una iniciativa empresarial específica o una aplicación específica. Las empresas aún optimizan las formas en que recopilan y diseñan los datos para una sola iniciativa empresarial.

Pero supongamos que quieres hacer otra cosa con los mismos datos. En un banco, los datos podrían haberse recopilado para un sistema de solicitud de hipoteca que se construyó hace 25 años. Pero ahora quieren usar esos datos en un contexto diferente, por lo que tienen que recopilar los datos, limpiarlos y gobernarlos de manera diferente. Una vez que entreguen mis datos a otra unidad de negocios, ¿qué van a hacer con ellos? ¿Van a empezar a llamar a mis clientes? ¿Qué pasa entonces? Las personas se vuelven posesivas con sus datos y no están motivadas para compartirlos. Esa es una barrera organizacional básica que debe ser superada.

También tienes muchas barreras técnicas. ¿En qué formato están esos datos? ¿Qué base de datos usé? ¿Fueron los datos encriptados o no encriptados? Además, la aplicación original o el sistema empresarial que estaba usando los datos podría tener una cierta lógica incorporada. Si le proporciono los datos sin la lógica de negocios, ¿seguirán siendo útiles los datos y tendrán sentido en un nuevo contexto?

McKinsey: ¿Cómo están cambiando las compañías su enfoque hacia la gestión de datos para que funcione de manera efectiva en toda la empresa?

Anil Chakravarthy: En el pasado, cada función empresarial, cada aplicación creaba su propio modelo de datos y su propio repositorio de datos. Eso llevó a esta enorme proliferación de datos. Ahora hay tantas cosas que se están haciendo para dar sentido a los datos después del hecho. El gran cambio ahora es: ¿Cómo diseñas esa capacidad desde el principio?

Es mucho más eficiente y efectivo reparar los defectos cerca del punto de producción o diseño. Eso es exactamente lo que estamos viendo ahora en el mundo de los datos.

Un nuevo enfoque para la gestión de datos

Por ejemplo, imagine que desea crear un nuevo repositorio de datos de clientes para obtener experiencia, compromiso, etc. En lugar de adoptar un enfoque en el que traiga todos los datos de donde sea que esté, mezcle y lance algo, las empresas están dando un paso atrás y diciendo: “No, primero hagamos un catálogo de datos: identifiquemos qué datos tenemos, qué datos son de mayor calidad en comparación con los de menor calidad, qué datos son sensibles en comparación con aquellos que no, qué datos provienen de un sistema de registro frente a otras fuentes, etc.”. Una vez que tenga ese mapa, puede diseñar y construir una nueva plataforma que sea extensible y que admita múltiples iniciativas y casos de uso para datos de clientes.

Esa es la gran diferencia que estamos viendo: están dando un paso atrás, comprendiendo cómo se deben recopilar y gestionar los datos y diseñándolos en el sistema desde el principio.

McKinsey: ¿Cómo encaja un esfuerzo como ese en un programa de transformación digital más amplio?

Anil Chakravarthy: Los datos deben apoyar las muchas iniciativas que normalmente forman parte de la transformación digital. Por ejemplo, la transformación digital generalmente implica el uso de plataformas de análisis de próxima generación. ¿Cómo puedo hacer que la analítica esté disponible para todas las personas clave dentro de la empresa, para que puedan desarrollar perspectivas predictivas y demás? Si desea tener disponible ese tipo de análisis generalizado de próxima generación, necesita una plataforma de datos que pueda admitirlo.

Por eso necesita una plataforma de datos: para apoyar las iniciativas típicas asociadas con las transformaciones digitales. En última instancia, los datos se convierten en el combustible que ayuda a impulsar múltiples casos de uso u oportunidades que la empresa tal vez quiera aprovechar como parte de la transformación. Y, entonces, tienes que hacer una transformación de datos para habilitar esa transformación digital.

McKinsey: ¿Qué implica la transformación de datos a nivel técnico?

Anil Chakravarthy: Para la mayoría de las empresas, el enfoque tradicional para administrar TI ha sido crear un presupuesto para grandes proyectos de aplicaciones. La mayoría de los clientes se están dando cuenta de que necesitan ir a un modelo más ágil, donde las aplicaciones que desarrollan son modulares; son más pequeñas. Ese movimiento hacia un modelo ágil es realmente ayudado por tener una plataforma de datos que pueda soportar diferentes aplicaciones. Una vez que construye una plataforma de datos independiente, puede hacer que el desarrollo de aplicaciones sea mucho más ágil.

McKinsey: ¿Cuáles son algunos otros aspectos organizativos de este enfoque transformado para trabajar con datos?

Alentar a las personas a tratar los datos como un activo

Anil Chakravarthy: Creo que las mejores empresas están tratando los datos como un activo estratégico que todos tienen que gestionar bien. La gente está reconociendo que no son sus datos. Son los datos de la empresa. Así que comienza con la construcción de esa mentalidad, comenzando con el tono en los altos niveles de la organización.

Una vez que obtiene la cultura adecuada, la empresa puede comenzar a pensar en cómo gestiona los datos, de modo que las personas puedan hacer su trabajo y optimizar sus prioridades mientras, al mismo tiempo, equilibran las necesidades de la empresa para el futuro.

McKinsey: ¿Cómo cambia eso la forma en que los empleados administran los datos diariamente?

Anil Chakravarthy: Hay un gran cambio de mentalidad desde un centralizado enfoque de gobierno y calidad de datos a posteriori, a un enfoque colaborativo en el que intentas hacerlo desde el principio.

En el pasado, construirías un almacén de datos. Usted colocaría todos los datos en el almacén y configuraría un equipo de expertos en gobierno de datos o personas dedicadas a la calidad de datos para muestrear y verificar los registros y determinar si la información es completa y consistente. Ese enfoque simplemente no se escala, especialmente cuando estamos hablando de los tipos de volúmenes de datos que tenemos ahora.

El enfoque actual es hacer que el gobierno y la calidad de los datos sean una pequeña parte del trabajo de las muchas personas de la compañía que están más cerca de los datos y lo entienden en el contexto del negocio. Se realiza antes de que los datos se recopilen y procesen. También se implementa un proceso en el que, si aún tiene datos que no son de la mejor calidad, estos se limpian de forma iterativa y constante en lugar de hacerlo después del hecho.

McKinsey: ¿Ve un rol para la inteligencia artificial (IA) en asegurar la calidad de los datos?

Anil Chakravarthy: Absolutamente, y ya está sucediendo. Hay nuevas técnicas en torno a, por ejemplo, la identificación de datos sensibles. El Reglamento General de Protección de Datos (GDPR) dice que, si tienes datos relacionados con clientes europeos o empleados europeos, dichos datos deben manejarse de cierta manera. Debe saber dónde almacena los datos relacionados con los clientes europeos e identificar las bases de datos donde se guardan esos datos.

Se están utilizando muchas técnicas de IA y de machine learning (ML) para abordar este tipo de problemas.

Es difícil hacer todo el trabajo con la gente porque estas tareas son extremadamente repetitivas. Así que creo que es una tarea que un robot de software hace mucho mejor, para automatizar la mayor parte de este trabajo tedioso posible, con humanos para manejar las excepciones que requieren más juicio. Lampadia




Crece la competencia en la computación cuántica

Crece la competencia en la computación cuántica

Las computadoras han cambiado radicalmente la sociedad. Poco después del final de la Segunda Guerra Mundial, los científicos usaban computadoras para resolver todo tipo de problemas. El progreso fue increíblemente rápido. Sin embargo, a pesar de todo ese progreso, algunos problemas siguen siendo realmente difíciles de resolver. No importa cuán buenas sean las computadoras, los desafíos como factorizar grandes cantidades u optimizar las rutas de mensajería siguen siendo difíciles.

Pero los bits no son la única forma de calcular. Estamos en la cúspide de una nueva era de la informática, con Google, IBM y otras compañías tecnológicas que utilizan una teoría creada por Einstein para construir máquinas capaces de resolver tareas aparentemente imposibles. La mecánica cuántica, las reglas que rigen el mundo de los átomos y las moléculas, se puede usar para hacer cálculos. Y esos cálculos tendrán la capacidad de ayudarnos a resolver problemas aún más complejos.

A pesar de darnos la ola más espectacular de innovación tecnológica en la historia de la humanidad, hay ciertos problemas de cómputo que la revolución digital parece no poder resolver. Algunos de estos problemas podrían estar reteniendo avances científicos clave. Aunque las computadoras convencionales se han duplicado en potencia y velocidad de procesamiento casi dos años durante décadas, todavía no parecen estar más cerca de resolver muchos problemas complejos.

¿Por qué? Porque las computadoras digitales y convencionales actuales se basan en un modelo de computación clásico y limitado. A largo plazo, para resolver de manera eficiente los problemas informáticos más persistentes del mundo, tendremos que recurrir a una máquina completamente nueva y más capaz: la computadora cuántica.

La diferencia entre una computadora clásica y una computadora cuántica no es como la diferencia entre un carro viejo y uno nuevo. Más bien, es como la diferencia entre un caballo y un ave: mientras uno puede correr, el otro puede volar. Las computadoras clásicas y las computadoras cuánticas son realmente muy diferentes.

¿Cómo funciona? Una computadora clásica funciona a través del sistema binario (o es 0, o es 1); el hardware de una computadora cuántica funciona con ambos al mismo tiempo, lo que le permite estar en dos estados simultaneamente.

Gigantes como Google y Microsoft vienen invirtiendo grandes cantidades de dinero en lo que será la computadora del futuro, aquella que permitirá realizar operaciones de forma simultánea y navegar a una velocidad inimaginable. “La computación cuántica nos permitirá almacenar más información en espacios más pequeños. El despliegue de esta tecnología será un momento clave en la revolución publicitaria bajando aún más los costos de la industria”, afirma el CEO de Google.

En Lampadia nos parece interesante difundir este tipo de información que muestra los impactos positivos para la humanidad que se pueden generar con las nuevas tecnologías. Anteriormente compartimos el ejemplo de IBM: Impactos positivos de nuevas tecnologías.

Líneas abajo compartimos un importante informe de The Economist, al respecto:

Arrancó la carrera para dominar la computación cuántica

Pero esta tecnología puede pasar un invierno antes de entrar al verano

Las computadoras cuánticas están en la mira de todos, ya que tanto los gigantes tecnológicos como las startups
están trabajando para impulsar la próxima revolución informática. Fuente: Getty Images

The Economist
18 de agosto, 2018
Traducido y glosado por Lampadia

Probablemente, la computació  siempre estuvo destinada a ser electrónica. Sin embargo, incluso en la década de 1930, esto no estaba del todo claro. A principios de esa década, Vannevar Bush, un ingeniero estadounidense, construyó una computadora mecánica con engranajes, poleas y ejes girados por motores eléctricos. Su “Analizador Diferencial”, que ocupaba el espacio de una habitación pequeña, podía resolver ecuaciones con hasta 18 variables.

La computación cuántica, que tiene la promesa de superar incluso a los supercomputadores más rápidos del mundo, al menos para ciertos tipos de problemas, se encuentra ahora en una etapa similar de desarrollo. Los prototipos funcionan, pero no está claro qué forma tomarán las máquinas. Una gran pregunta, por ejemplo, es si los “qubits”, que son el equivalente cuántico de los transistores, vivirán en pequeños bucles de alambre enfriado a temperaturas ultrabajas, serán iones atrapados en campos magnéticos o dependerán de alguna otra tecnología.

Incluso mientras las computadoras cuánticas mejoran lentamente, está surgiendo un ecosistema de nuevas empresas de software. Las grandes corporaciones, los capitalistas de riesgo y los gobiernos nacionales están invirtiendo, proporcionando el dinero para un número creciente de nuevas empresas. “The Quantum Computing Report”, un sitio web, recientemente enumeró más de 70 empresas, muchas de las cuales buscan escribir software para las nuevas computadoras cuánticas (más de un tercio de ellas tienen nombres que comienzan con Q).

Esta incipiente industria está viendo el comienzo de una batalla entre gigantes tecnológicos como Google, IBM y Microsoft, que compiten entre sí para atraer a los desarrolladores a sus respectivas plataformas cuánticas. Algunos expertos ya han comenzado a advertir que el sector se está adelantando a un futuro incierto, prediciendo un “invierno cuántico” provocado por una promesa incumplida.

Sería fácil descartar la emoción sobre la computación cuántica como el inicio de otra burbuja creada por la exageración. Pero esta tecnología tiene un enorme potencial, por lo que debe tomarse en serio.

  • Las computadoras clásicas piensan en “bits”, que pueden tener un valor de 0 o 1.
  • Los Qubits tienen la capacidad para la “superposición”, lo que significa que pueden estar en ambos “estados” al mismo tiempo.
  • Otro concepto cuántico clave es la ‘alambrada’ (entanglement). Los Qubits se pueden conectar, de modo que operar en uno tiene un impacto en los ‘alambrados’, lo que permite que su potencia de procesamiento se aproveche en paralelo.

La primera característica hace que las computadoras tengan una gran memoria. La superposición significa que la capacidad de almacenar datos se duplica con cada qubit. Una computadora de 64 qubits tiene suficiente memoria para 18 quintillones de números. La alambrada permite operaciones a la velocidad del rayo. Los Qubits se configuran según un algoritmo adecuado para un problema elegido; el sistema aplica las reglas de la mecánica cuántica hasta que alcanza un estado que representa la respuesta.

Alcanzar este punto será diabólicamente difícil. Aunque los investigadores han dominado el arte de establecer qubits, conseguir que funcionen sin problemas sigue siendo un problema sin resolver. Dado que cualquier influencia externa, como la vibración o el calor, puede hacer que estas delicadas bestias pierdan su mundo de binomios de 1 y 0s, tienen que mantenerse en completo aislamiento (de ahí las temperaturas ultrabajas, que ralentiza el movimiento de los átomos).

Los errores también necesitan ser detectados y corregidos con la ayuda de muchos otros qubits. Dado que grandes cantidades de qubits parecen inalcanzables durante al menos una década, la cuestión de cómo las computadoras cuánticas podrían ponerse en práctica no había estado en la mente de los investigadores hasta hace poco. Esto comenzó a cambiar hace un par de años, cuando los fabricantes de hardware lograron construir máquinas con más de un par de qubits.

Saltando la Q

IBM lideró el camino en 2016 con una computadora de 5 qubits y luego una de 20 qubits en 2017 (en la foto de arriba). Su última “unidad de procesamiento cuántico” (QPU), que se anunció en noviembre pasado, tiene 50, un qubit más que Intel. Ambos fueron superados en marzo por Bristlecone de Google, con 72 qubits. Rigetti, una startup, dijo recientemente que está construyendo un sistema de 128 qubits (aunque más no significa necesariamente mejor: algunos qubits son más propensos a errores que otros y no existen puntos de referencia comúnmente aceptados para medir su calidad). Mientras tanto, las computadoras clásicas han mejorado en la simulación de las cuánticas (de hasta alrededor de 50 qubits), por lo que es más fácil probar algoritmos y aplicaciones.

Este ritmo de desarrollo ganó recientemente la bendición de una luminaria del campo cuántico, John Preskill del Instituto de Tecnología de California. “Las computadoras cuánticas con 50-100 qubits pueden realizar tareas que superan las capacidades de las computadoras digitales clásicas de hoy en día”, escribió en un artículo, llamando a tales dispositivos “quantums ruidosos de escala intermedia” (o NISQ, se les dice “ruidosos” porque los qubits seguirán siendo propensos a errores por un tiempo).

Las grandes firmas están tratando de descubrir lo que la informática cuántica podría significar para ellos, dice Michael Brett de QxBranch, una startup. Los gigantes químicos como BASF y DowDuPont quieren entender si la tecnología podría ayudarlos a “calcular” las estructuras de nuevos materiales útiles, como los catalizadores para reducir la energía utilizada para producir fertilizantes. Los bancos, incluidos Barclays y JPMorgan Chase, esperan usarlos para tareas tales como el ajuste del riesgo de la cartera. Los fabricantes de juegos también están interesados ​​en utilizar la computación cuántica para hacer que los videojuegos se comporten más como el mundo real.

Dado que el talento cuántico es muy escaso, las empresas suelen contratar la ayuda de nuevas empresas, que desempeñan el papel de consultoras. Esto aporta dinero para las nuevas empresas y también les permite adquirir la propiedad intelectual para desarrollar software real más adelante.

Cosecha cuántica

El campo ha sido bien financiado por capitalistas de riesgo, con entradas de capital que llegaron a casi US$ 250 millones el año pasado. Las empresas tecnológicas también están poniendo recursos. IBM ha estado trabajando en el área por más tiempo. Arvind Krishna, director global de su división de investigación, compara sus esfuerzos con la forma en que IBM creó un mercado para computadoras mainframe en la década de 1960. Comenzó la investigación cuántica en la década de 1970; en 2016 colocó su computadora cuántica de 5 qubits online para que otros pudieran usarla y comenzar a escribir programas (algo que llama Q Experience). Desde entonces, ha diseñado herramientas para programadores, ha ayudado al MIT a desarrollar clases cuánticas en línea y ha creado una red de empresas y otras universidades para explorar aplicaciones prácticas.

La competencia no se queda atrás. El mes pasado, Google lanzó Cirq, un kit de herramientas de software. Rigetti ha puesto en línea una máquina con una QPU de 16 qubits. IonQ, otra startup de hardware, ha construido una máquina de iones que es más fácil de programar. Y luego está Microsoft. Al igual que IBM, quiere construir un “sistema de extremo a extremo”, en palabras de Todd Holmdahl, jefe de su área cuántica. De nuevo, como IBM, ofrece un “kit de desarrollo cuántico” e incluso un lenguaje de programación especial llamado Q#. Pero cualquier código escrito en él tendrá que ejecutarse en un software de simulación durante años. La computadora cuántica de Microsoft todavía es un trabajo en progreso, ya que la firma está apostando por un qubit “topológico” que no ha sido probado, pero que podría mucho menos propenso a errores.

IBM, Google y Microsoft están gastando mucho para atraer desarrolladores y aplicaciones a sus respectivas plataformas. IBM enfatiza el uso intensivo de Q Experience: ahora cuenta con más de 90,000 usuarios, que han ejecutado 5 millones de experimentos y publicado 110 artículos. Hartmut Neven, quien encabeza los cuantiosos esfuerzos en Google, dice que su kit de herramientas está dirigido a “programadores profesionales”. Insiste en que su equipo pronto alcanzará la “supremacía cuántica”, lo que significa que demostrará que su computadora cuántica es capaz de resolver un problema más rápido que uno clásico (los críticos de una hazaña ya lo llaman un truco, porque es poco probable que sea relevante en la práctica). Microsoft, por su parte, ha integrado estrechamente sus herramientas cuánticas con otro software de programación para que sea más fácil para los desarrolladores clásicos usarlas.

Cualquiera que sea el resultado, ninguno de los equipos terminará en los centros de datos de otras empresas, y mucho menos en los escritorios de las personas, en el futuro cercano. En cambio, las computadoras cuánticas encontrarán un hogar en el cómputo de nubes operadas por Google, IBM y Microsoft (y también por Amazon y Alibaba, que tienen programas cuánticos más pequeños). Dado que las máquinas serán buenas solo en tareas muy específicas durante muchos años, las firmas pretenden utilizarlas principalmente como “aceleradores”, que se harán cargo cuando se necesiten específicamente, al igual que las computadoras con chips súper rápidos de inteligencia artificial (IA) hoy.

Aparte de estas empresas, solo las agencias gubernamentales probablemente tengan sus propias computadoras cuánticas en las próximas décadas. Las fuerzas armadas y los servicios de inteligencia, especialmente los de EEUU y China, han financiado durante mucho tiempo el campo y es probable que continúen haciéndolo. Les preocupa que las máquinas de computación cuántica algún día puedan descifrar la mejor encriptación del mundo, lo que podría darle al país que llega primero la capacidad de descodificar comunicaciones secretas o entrar a bancos.

Al igual que en IA, China tiene la intención de liderar el mundo en tecnología cuántica. El país anunció planes para gastar más de US$ 10,000 millones para construir un laboratorio nacional de ciencia cuántica, que se abrirá en 2020. Esto ha desencadenado esfuerzos en Washington, DC, para crear una “Iniciativa Cuántica Nacional”, que algunos observadores han comparado con el programa nuclear de Estados Unidos de la década de 1940. La Unión Europea lanzó una iniciativa de investigación cuántica en 2016 y la respaldó con más de US$ 1,000 millones.

El flujo de dinero del gobierno ya es tal que algunos capitalistas de riesgo se quejan de que se los ha excluido. Pero la creciente excitación acerca de todas las cosas cuánticas también ha alimentado los temores de que el campo se está sobrevalorando y que, al igual que la IA en los años 70 y 80, después de que no cumplió sus promesas, se dirige hacia un “invierno”; un largo período de financiación e interés reducidos.

Algunas nuevas empresas están seguras de que habrá un retroceso en unos pocos años y están cubriendo sus apuestas. Michael Marthaler, cofundador de Heisenberg Quantum Simulations, espera que su empresa esté lo suficientemente establecida como para poder “hibernar”. Otros observadores de la escena de la computación cuántica advierten que gran parte del software escrito hoy puede quedar obsoleto si la tecnología cuántica toma un giro inesperado.

Pero incluso si la primavera de Quantum se convierte en invierno, las probabilidades de que llegue el verano son altas. Eso ha sucedido con bastante frecuencia en el pasado. Para utilizar un concepto desarrollado por Carlota Pérez, una historiadora económica, las tecnologías revolucionarias siempre pasan por una “edad dorada”, a menudo acompañada de una burbuja de inversión que aparece, antes de entrar en una “edad de oro” de despliegue generalizado. Hay pocas razones para creer que la computación cuántica se desvíe hacia ese camino. Lampadia




La supercomputadora más poderosa e inteligente

La supercomputadora más poderosa e inteligente

La semana pasada, IBM presentó a Summit, la “supercomputadora científica más poderosa e inteligente del mundo”. IBM dice que su nueva computadora procesará 200,000 cuatrillones de cálculos por segundo, afirmando que “para poner esto en perspectiva, si cada persona en la Tierra hiciera un solo cálculo por segundo, tomaría 305 días hacer lo que Summit hace en un solo segundo”.

La máquina, construida por IBM para el Laboratorio Nacional Oak Ridge del Departamento de Energía de EEUU, tiene más del doble de capacidad que el actual líder mundial, el Sunway TaihuLight de China, lo cual haría que por primera vez en cinco años EEUU tenga el título del país con la computadora más poderosa del mundo.

Pero el verdadero significado reside en algo más que su poder de procesamiento en bruto: utiliza una nueva arquitectura de computadoras para manejar grandes cantidades de datos para desarrollos de inteligencia artificial, en lugar de limitarse a modelados a gran escala y simulaciones.

Summit se diseñó teniendo en cuenta Big Data, a una escala aún mayor que los sistemas de datos especializados, utilizados por compañías como Google y Microsoft para manejar los datos necesarios para el entrenamiento de algoritmos de inteligencia artificial (IA). De hecho, ha sido “diseñada para ser el sistema de IA más grande y rápido del mundo”, dijo John Kelly, jefe de soluciones cognitivas e investigación en IBM. “Será capaz de asumir algunos de los mayores desafíos de IA que tiene el mundo”.

Thomas Zacharia, director de Oak Ridge, dijo que el sistema, que cuesta unos 200 millones de dólares, ya se ha utilizado para realizar un cálculo que habría llevado 30 años en una computadora promedio, mientras que a Summit le tomó tan solo una hora.

Pero Summit es más que solo una computadora. Las supercomputadoras ya están siendo utilizados en la industria para todo: desde el diseño de nuevos aviones, hasta la creación de nuevos materiales. Otras son utilizadas por los militares para diseñar armas nucleares y por científicos para llevar a cabo investigaciones con impacto en la ciencia y la salud.

IA en la Copa Mundial de Futbol

La inteligencia artificial está presente hasta en temas más corrientes, como en la Copa Mundial de la FIFA Rusia 2018, que será el evento deportivo con el mayor despliegue tecnológico de la historia. Y entre las más destacadas innovaciones está la “World Cup Highlight Machine”, en la que Fox Sports se ha asociado con IBM para utilizar la inteligencia artificial de Watson para crear un centro de videos que permite crear clips a pedido (on-demand) de los mejores momentos de todos los partidos de la Copa FIFA que datan desde el año 1958.

Tableros de control para videos a demanda desde 1958
Video Brasil – Escocia 1998. Minuto 19, Jim Leighton salva un tiro de Ronaldo

El usuario podrá personalizar sus opciones como mejor le parezca basándose en sus intereses o preferencias. La cadena de televisión dice que existen 300 partidos archivados que Watson es capaz de analizar, los cuales pueden ser filtrados basándote en el año del torneo que uno quiera ver, el equipo, jugador, partido, o cualquier combinación de estos. Ver: Fox Sports’ World Cup Highlight Machine is powered by IBM’s Watson

Más allá del futbol

Las supercomputadoras como Summit también ayudarán en desarrollar avances en proyectos como el cambio climático. Patrick Brown, del Carnegie Institution for Science de la Universidad de Stanford, señala que uno de los mayores desafíos es modelar el comportamiento de las nubes, que tienen una influencia significativa en el calentamiento. Con más poder de cómputo, dice, será más fácil modelar lo que le está sucediendo a las nubes con mucho mayor detalle y en horizontes de tiempo más largos. Eso podría ayudar a resolver la relación entre los resultados de diferentes modelos climáticos.

Summit es también un paso importante hacia el próximo gran premio en informática: máquinas capaces de un exaflop, o un billón de cálculos por segundo. Ya existe una carrera internacional para llegar a este hito, y Estados Unidos y China son considerados los dos favoritos. Estados Unidos busca construir varias de estas máquinas, que podrían costar entre US$ 400 millones y US$ 600 millones cada una, y ha contratado a Nvidia, IBM y otras compañías como Intel para ayudar. El objetivo es poner en funcionamiento una o más de estas computadoras “exascale” entre 2021 y 2023.

Jack Wells, de Oak Ridge, dice que la experiencia de construir Summit, que ocupa un área del tamaño de dos canchas de tenis y transporta 4,000 galones de agua por minuto a través de su sistema de enfriamiento para bajar cerca de 13 megavatios de calor, ayudará a desarrollar el trabajo en máquinas exescale, lo que requerirá una infraestructura aún más impresionante.

Gracias a estos y otros avances, Summit ayudará a alcanzar picos de potencia informática aún más impresionantes. Veamos la presentación oficial de Summit:

Sistemas IBM

Llegar a la cima: la supercomputadora más inteligente del mundo

La supercomputadora Summit construida por IBM es la
máquina de inteligencia artificial más inteligente y más
potente del mundo. Con 4600 nodos individuales, ocuparía el
equivalente de dos canchas de tenis.

8 de junio de 2018
Dr. John E. Kelly, III

Hoy se alcanza un gran hito para la humanidad, y es un día de orgullo para IBM. 

Con la presentación por parte del gobierno estadounidense de “Summit” — la supercomputadora de inteligencia artificial más potente e inteligente del mundo — se ha alcanzado un gran hito de la computación. Es el resultado de años de dedicación e innovación por parte de IBMístas de todo el mundo.

Summit cambia el juego.

Es capaz de realizar 200 mil billones de cálculos por segundo – 200 petaflops – por lo cual es la más veloz del mundo.

Pero este sistema no solo ofrece velocidad.

Summit también está optimizado para inteligencia artificial en un mundo intensivo en datos. Diseñamos una nueva arquitectura heterogénea completa que integra el robusto análisis de datos de las potentes CPU de IBM Power con las capacidades de aprendizaje profundo de las unidades de procesamiento gráfico (GPU). El resultado es un desempeño inigualable en nuevas aplicaciones cruciales.

Entonces, ¿qué podemos hacer con este tipo de potencia?

Este proyecto siempre tuvo como misión extender los límites de la innovación y la tecnología para resolver lo que antes era irresoluble. Por ejemplo, con este sistema, podemos hacer conexiones y predicciones que nos ayudan a promover la investigación del cáncer, entender los factores genéticos que contribuyen a la adicción a opioides, simular interacciones atómicas para desarrollar materiales más fuertes y con mayor eficiencia energética, y comprender mejor las supernovas para explorar los orígenes del universo.

Esto es IBM en su máxima expresión.

Con estas supercomputadoras, reunimos nuestras tecnologías más avanzadas, arquitecturas e ideas en un lugar, en forma muy focalizada. Para IBM, cuando asumimos estas grandes apuestas (como hicimos en 2014 con este contrato para el Departamento de Energía de los EE.UU.), sabemos que son oportunidades para dar un gran salto adelante.  

Esta no es la primera vez que impulsamos hacia adelante el mundo entero de la tecnología en supercomputación.

De Deep Blue a Blue Gene, las supercomputadoras de IBM han sido pioneras en el procesamiento paralelo masivo y han quebrado la barrera del petaflop, lo cual permitió innovaciones en todo, desde pronósticos meteorológicos hasta exploración petrolera. Es emocionante considerar lo que nuestra última supercomputadora –que combina computación de alto desempeño e inteligencia artificial – podría ofrecer en términos de respuestas a las preguntas más difíciles del mundo.

Y por primera vez, estamos haciendo que la misma arquitectura que sustenta a Summit esté disponible en forma comercial. Los clientes ya están usando la misma arquitectura híbrida en nuestra línea de productos de negocio con el sistema IBM Power System AC922 y la familia de nuevos servidores basados en IBM POWER9. El resultado: computación empresarial que puede ayudar a cada sector de industria (como banca, salud, comercio minorista y transporte, entre otros) a promover sus productos y servicios.

La tecnología y las herramientas que construimos con ella siempre han tenido el potencial de cambiar el futuro.

El lanzamiento de Summit hoy demuestra una vez más que IBM está ayudando a liderar el camino.

Para ver imágenes de Summit, visite IBM Image Gallery.

Lampadia




Robert Noyce, el creador de la “era de la informática”

Robert Noyce, el creador de la “era de la informática”

Los nombres de Gates, Jobs, Zuckerberg, Brin y Page, son ampliamente reconocidos. En cambio, el de Robert Noyce, no. Un error. Fue Noyce, creador y comercializador del microchip, el que engendró la era informática. Sin su invento, ninguno de los antes mencionados podría haber existido. Noyce, no solo creó la tecnología, sino que configuró la forma de administración y trabajo de la nueva industria. Por si fuera poco, fue uno de los primeros vecinos del hoy famoso Silicon Valley. Su historia sirve para reafirmar el papel del empresario como creador y generador de empleo, y su multiplicación en manos de los que reconocieron el valor de su desarrollo, sobre todo en estos días en que pareciera que algunos pierden de vista el vital papel de la contribución de los empresarios a la sociedad y la economía.  

Grinnell, Iowa es un pequeño pueblo del Medio Oeste Norteamericano. A mediados del siglo XX, como muchos de pueblos similares de la región, contaba con apenas siete mil habitantes y estaban todavía fuertemente impregnados por los valores y costumbres que impusieron sus fundadores: los duros, tozudos y voluntariosos protestantes que colonizaron el lugar en la segunda mitad del XIX. Grinnell, con su pequeña universidad, sería sin proponérselo, como señala Tom Wolfe, “el punto de partida de una revolución que habría de crear la red electrónica que constituiría el sustrato de la vida en el 2000 y los años posteriores”.

En ese pueblito y en esa universidad se formó Robert Noyce. En 1959, creó un circuito integrado de silicio altamente eficiente que se convirtió en un prototipo industrial. Ese circuito, fue rápidamente bautizado como microchip. Las posibilidades eran inmensas, podía aplicarse a todos “los campos de la ingeniería imaginables, desde los viajes a la Luna, la creación de robots y en otros que nadie había imaginado como la terapia sicológica por Internet. Su potencial era tan amplio que era imposible definirlo en una sola frase. ‘La segunda revolución industrial’,’ la era de la informática’, ‘el universo del microchip’, ‘la red electrónica’… ninguna de estas expresiones, ni siquiera el práctico neologismo de ‘la alta tecnología’ engloba todas sus repercusiones”, asegura Wolfe.

Noyce y la empresa Fairchild Semiconductor que había formado años antes con otros dos ingenieros se convirtió casi de la noche a la mañana en una de las compañías más populares del mundo. Luego de que la NASA decidiera usar los microchips para su programa espacial, los pedidos llegaron en masa. “En diez años las ventas de Fairchild pasaron de unos cuantos miles de dólares a ciento treinta millones [de esa época], y la plantilla, que en un principio se reducía al pequeño grupo inicial [una decena de colaboradores], ahora estaba compuesta por doce mil empleados”, indica Wolfe. 

Fairchild no solo creó el semiente a partir del cual toda la era electrónica emergería, sino una nueva forma de gerenciar una empresa de alta tecnología. Todo era muy horizontal, con pocas diferencias entre empleados y jefes. Toda la plantilla hacía suyas las metas de la empresa y tenía (hasta cierto punto) capacidad de iniciativa. Las decisiones no se tomaban siguiendo cadenas de mando, sino en reuniones donde todos participaban. Además, se convirtió en una escuela e impulsora de nuevas empresas, sin quererlo. Posteriormente, trabajadores de Fairchild fundaron más de cincuenta empresas dedicadas a la rama tecnológica. Estas empresas a las que se bautizó como “fairchildren” fueron las que le dieron al Valle de Santa Clara la configuración de lo que hoy todo el mundo conoce como Silicon Valley. La filosofía y forma de trabajo de Noyce inició una nueva era y una industria pujante que hoy emplea y sirve con sus productos a millones de personas en el mundo.

En 1968, Noyce fundaría Intel, el gigante informático que elabora los procesadores de casi todas las computadoras, tablets y dispositivos electrónicos que se comercializan en el mundo actual.

Luego de Noyce vendría, Bill Gates creador de Microsoft, Steve Jobs fundador de Apple, Jeff Bezos de Amazon, Mark Zuckerberg creador de Facebook, Sergei Brin y Larry Page de Google, Reed Hastings y Marc Randolph, administradores de Netflix, y el chino Ren Zhengfei creador de Huawei Jobs.

Esta revolución tecnológica no solo ha transformado a la humanidad, sino que ha creado una inmensa riqueza, ha elevado la productividad y la capacidad humana, desde la astrofísica hasta la medicina, pasando por la educación y el ocio. Además ha desarrollado empleo. En un estudio realizado en Estados Unidos por  Enrico Monetti (The New Geography of Jobs, 2012), en el cual se emplearon datos de 11 millones de trabajadores estadounidenses en 320 zonas metropolitanas, se estimó que por cada empleo generado en el sector de alta tecnología, otros cinco empleos adicionales se crean en la economía en el largo plazo. De ellos, dos empleos profesionales (como médicos o abogados), mientras que el resto son no-profesionales. Este es el caso de Apple. El autor señala que “en Cupertino [el pueblo donde se ubica Apple] emplea a 12 mil trabajadores directamente, pero genera 60 mil empleos adicionales, de los cuales 36 mil son no calificados y 24 mil calificados. Increíblemente esto significa que el mayor impacto de Apple en el empleo de la región lo hace en sectores que no son de alta tecnología”.

El mundo actual, no podría entenderse sin los empresarios como los arriba citados. Todos ellos, no solo crearon un producto que satisface una necesidad in existente antes de su creación, sino que fueron más allá. Sus creaciones se convirtieron en necesidades para hombres y mujeres. Sus aplicaciones generan riqueza, empleo y bienestar para millones de personas en todo el orbe.

Pero esto no es nuevo, así fueron las contribuciones de Benjamín Franklin, Edison, Ford, y miles de empresarios que con sus creaciones permitieron el desarrollo de mercados y no al revés como se mal informa en la columna editorial de Portafolio de El Comercio publicada el 17 de febrero último bajo el título de: “Quien genera empleo no es el empresario”

Como señalaba Shumpeter, es el empresario el que determina el aumento y la disminución de la prosperidad. Crea valor en la sociedad, impulsa la generación de riqueza. Por tanto el crecimiento de una nación y del empleo depende de él. A mayor capacidad de generar empresa que se tenga, mayores posibilidades de que se cree empleo. Sin empresarios y no burócratas, como se ha demostrado fehacientemente con todos los experimentos socialistas, no hay prosperidad posible. Quien genera empleo es el empresario. Lampadia