1

Combatiendo la desinformación

Combatiendo la desinformación

La explosión de las redes sociales, que vino acompañada del uso casi universal de los smarthphones, supuso el acceso de millones de usuarios en  el mundo emergente a portales de noticias con relevancia nacional e internacional. Este es un fenómeno que era casi impensable hace un par de décadas atrás, cuando el internet concentraba su uso en unos pocos usuarios del primer mundo, como porcentaje de la población global.

Sin embargo, si bien este proceso de descentralización del acceso a la información resultó útil para mejorar la toma de decisiones de personas y empresas en un contexto político y económico cambiante, también conllevo consigo sus propios peligros si los medios encargados de dicha difusión, sesgados o mandados por ciertos gobiernos, inducían a la desinformación y a la calumnia.

Este es el caso, por ejemplo, de Letonia, Lituania y Estonia, países ex integrantes de la Unión Soviética, que hasta el día de hoy siguen siendo acosados por la autocracia rusa a través de diversas plataformas digitales con noticias falsas, con el objetivo de generales antipatía hacia el proyecto de la UE, al cual pertenecen y a Occidente, en general.

Afortundamante, y como explica The Economist en un reciente artículo que compartimos líneas abajo, diversos organismos de la sociedad civil lituana se han organizado para diseñar un sistema informático que, basado en diversos algoritmos bien diseñados, detecte y censure toda información sospechosa procedente de medios rusos en las redes.

Creemos que este tipo de iniciativas son sumamente interesantes y podrían aplicarse en países como el Perú para vigilar los contenidos de una prensa, que, además de estar altamente concentrada, tiene entre sus principales fuentes de ingresos al Estado.

No es coincidencia pues que constantemente adjudique los grandes males del país – como la mala salud, la mala educación, la desbordante inseguridad, entre otras – que comete la administración de turno, a otros poderes del Estado, como el ahora disuelto Congreso de la República, cuyas funciones no compete tales tareas. Lampadia

Desinformación
Los lituanos están utilizando software para luchar contra las noticias falsas

El país está asediado por la propaganda rusa

The Economist
26 de octubre, 2019
Traducido y glosado por Lampadia

“Paciente cero” es un término médico que comenzó como un malentendido. Una de las primeras víctimas norteamericanas de SIDA fue anonimizada en algunos documentos como “Paciente O”. Se pensaba que el individuo en cuestión, Gaëtan Dugas, una azafata canadiense, había sido el punto de origen de la epidemia de sida de América del Norte. La lectura errónea de O (para “Fuera de California”) como 0 (es decir, cero), aunque accidental al principio, parecía propicio. De hecho, Dugas no fue el único punto del origen de esa epidemia. Pero el término se quedó y se ha extendido. De hecho, se ha extendido más allá de la medicina para abarcar otro tipo de plaga: la desinformación.

Demaskuok, que significa “desacreditar” en lituano, es un software que busca los ceros de las noticias falsas. Fue desarrollado por Delfi, un grupo de medios con sede en la capital de Lituania, Vilna, en conjunto con Google, una gran empresa estadounidense de tecnología de la información. Funciona analizando montones de verborrea en línea en lituano, ruso e inglés, anotando elementos por la probabilidad de que sean desinformación. Luego, al rastrear el historial en línea de informes que parecen sospechosos, intenta precisar el punto de origen de una campaña de desinformación: su paciente cero.

Jugando al ping-pong con el Kremlin

Demaskuok identifica a sus sospechosos de muchas maneras. Una es buscar una redacción que recuerde los temas que los propagandistas suelen explotar. Estos incluyen pobreza, violación, degradación ambiental, deficiencias militares, juegos de guerra, grietas sociales, virus y otros problemas de salud, errores políticos, mala gobernanza e, irónicamente, el descubrimiento del engaño. Y debido a que la desinformación efectiva despierta las emociones, el software mide la capacidad de un texto para hacer eso también. Los elementos con términos como “déficit de cuenta corriente” tienen menos probabilidades de ser falsos que los que mencionan niños, inmigrantes, sexo, etnias, animales, héroes nacionales e injusticias. El chisme y el escándalo son avisos adicionales. Es menos probable que la palabrería sobre los deportes y el clima provoque indignación, por lo que el software califica los elementos sobre esos temas como menos sospechosos.

Otra pista es que la desinformación está diseñada para ser compartida. Por lo tanto, Demaskuok mide la “viralidad”: la cantidad de veces que los lectores comparten o escriben sobre un artículo. La reputación de los sitios web que alojan un elemento o proporcionan un enlace a este proporciona información adicional. El software incluso considera el momento de la aparición de una historia. Las noticias falsas se publican desproporcionadamente los viernes por la noche cuando muchas personas, incluidos los desacreditadores, salen a tomar algo.

Los desinformadores también pueden ser descuidados. Por lo tanto, Demaskuok recuerda los nombres de las personas citadas en noticias falsas, ya que a veces surgen de nuevo. También ejecuta búsquedas de imágenes para encontrar otros lugares donde se ha publicado una imagen. Resulta que algunos aparecieron por primera vez antes de los eventos que supuestamente documentan. Otros también aparecen en sitios web con reputación de desinformación, como RT y Sputnik, ambos medios de comunicación respaldados por el gobierno de Rusia.

Este tipo de desinformación patrocinada por Rusia es una pesadilla en todas partes, pero es particularmente frecuente en Estonia, Letonia y Lituania, los tres países que, en 1990, fueron los primeros en declarar su independencia de la Unión Soviética, catalizando la desintegración de esa unión. Los estados bálticos, como a menudo se los conoce colectivamente, exacerbaron su ofensiva al unirse a la OTAN y la Unión Europea. Rusia, el titiritero de la Unión Soviética, no ha perdonado ni olvidado. Una consecuencia es que los estados bálticos son objetivos particulares de falsedades destinadas a confundir y desestabilizar.

Demaskuok es parte de la lucha. Ha mejorado desde que los periodistas de Delfi comenzaron a usarlo hace un año. Ahora puede marcar no solo fabricaciones totales, sino también trucos más astutos que funcionan por exageración u omisión. Viktoras Dauksas, que dirige Debunk Eu, una organización benéfica en Vilnius que se creó en junio para desarrollar aún más la tecnología, dice que ahora a veces incluso puede detectar “espejos rotos”. Este es su término para desinformación en la que los hechos son técnicamente precisos, pero se presentan selectivamente para engañar. La desinformación rusa, dice, se ha vuelto cada vez más traicionera, con elementos veraces “retorcidos en una forma de socavar la democracia”.

Demaskuok es bastante bueno. Aproximadamente la mitad de los elementos que marca demuestran, bajo el escrutinio humano, ser desinformación. Sin embargo, ese escrutinio es una parte importante del proceso.

Parte de ella proviene de los usuarios de Demaskuok. Además de Delfi, estos incluyen el Ministerio de Relaciones Exteriores de Lituania y una gran cantidad de medios de comunicación, centros de estudios, universidades y otras organizaciones. Después de estudiar un elemento que el software considera desinformación, las personas de estas organizaciones le dicen al sistema si estaba dentro o fuera de la marca. Eso mejora el rendimiento futuro.

Las autoridades dicen que la desacreditación abundante ha cultivado un escepticismo saludable en la mayoría de los Balts. Pero Eitvydas Bajarunas, del Ministerio de Relaciones Exteriores de Lituania, se preocupa por los efectos de la desinformación en los países más al oeste, donde menos personas temen la agresión rusa. Señala un informe falso el 25 de septiembre que afirmaba falsamente que 22 soldados alemanes habían profanado un cementerio judío en Kaunas, una ciudad a 100 km al oeste de Vilna. El descuido de cortar tal podredumbre de raíz, dice, y el apoyo político en Alemania para mantener tropas en Lituania podría fallar.

Además, a algunos les preocupa que incluso el éxito de Demaskuok pueda jugar en manos de Rusia. Rob Procter, profesor de informática social en la Universidad de Warwick, en Gran Bretaña, ofrece un pensamiento aleccionador. El objetivo del Kremlin, sugiere, no es tanto convencer a los occidentales de que ciertas falsedades son la verdad. Más bien, quiere que sus adversarios duden de que se pueda confiar en algo como verdadero. Si este es el objetivo, el software que aumenta el número de informes de noticias que se desacreditan puede, paradójicamente, tener el efecto contrario al previsto. Lampadia




Apple supera el 1’000,000’000,000 de dólares

Apple supera el 1’000,000’000,000 de dólares

Apple acaba de convertirse en la primera empresa estadounidense transada en bolsa que cruza la marca de un billón de dólares (un trillón en la nomenclatura de EEUU). El fabricante de iPhone, diez años después del lanzamiento del primer smartphone por Steve Jobs, logró ese significativo número el jueves pasado, cuando la acción superó los US$ 207.04 por acción. La acción de Apple ha subido más del 20% este año, superando sus propias proyecciones y las estimaciones de los analistas, mientras que también hace un pronóstico fuerte para sus próximas ganancias para el resto del año.

Técnicamente, no es la primera empresa en alcanzar el US$ 1 billón. PetroChina, la empresa estatal china, alcanzó brevemente esa marca en 2007, aunque la acción pronto cayó por debajo de la marca. Sin embargo, para todos los efectos, Apple es la primera compañía privada (y, por ahora, la única) valorizada en un billón de dólares en el mercado. Sin embargo, probablemente no estará sola por mucho tiempo: Amazon también está a punto de alcanzar el billón de dólares después de sus propios resultados positivos en el tercer trimestre.

La última cotización de las tech-Companies ha sido:

  • Apple:                              US$ 1’021,610’000,000
  • Amazon:                          US$    899,850’000,000
  • Alphabet (Google):        US$    861,020’000,000
  • Microsoft:                       US$    830,110’000,000

¿Cuál es su secreto?

Desde su creación en 1976, Apple ha rediseñado constantemente lo que puede ser una computadora y ha definido cómo los humanos interactúan con los dispositivos y el software. La computadora de escritorio iMac, el iPod, el iPhone y el iPad fueron grandes éxitos, mientras que las fallas comerciales como la de Newton y Lisa todavía se consideran pioneras.

“La visión de Steve Jobs se basó en la sinergia entre productos de hardware, servicios de software y aplicaciones y medios de terceros para garantizar que cualquier cliente tenga todo lo que necesita sin abandonar el ecosistema de Apple”, dijo Tony Fadell, que trabajó estrechamente con Jobs para crear el reproductor de música digital del iPod.

“Este modelo de negocio se basa en una innovación de productos sin igual, excelencia en marketing, combinado con una experiencia de venta retail innegable”, agregó Fadell. “No hay otra compañía que se ejecute al nivel de detalle de Apple, en su forma física. Esta trinidad estableció la visión de Steve y creó la Apple que conocemos hoy”.

Cuando Jobs presentó el iPhone a principios de 2007, su pantalla táctil, su reproductor de música incorporado, su navegador web y sus capacidades de correo electrónico iniciaron la revolución de los Smartphone y dejaron a competidores como Motorola y BlackBerry en el atraso digital. El iPhone superó casi todas las expectativas iniciales y vendió más de 1,300 millones de unidades. Dio lugar a la economía de las aplicaciones, donde un ejército global de desarrolladores independientes se gana la vida con sus creaciones de software a la vez que aumenta la utilidad del dispositivo.

 En los años 1980 y 1990, Apple era una compañía muy diferente. Jobs se fue en 1985 después de desacuerdos con el entonces CEO John Sculley y el directorio. En 1997, la compañía estaba cerca de la bancarrota. Jobs regresó y, con líderes clave como el jefe de diseño Jony Ive y el jefe de operaciones Tim Cook, salvó a Apple y lo convirtió en el gigante que es hoy.

Apple enfrentó otra crisis cuando Jobs murió en 2011 y los inversionistas se preocuparon de que la compañía no pudiera prosperar sin su liderazgo y práctico en el diseño de productos. Sin embargo, Cook ha supervisado el desarrollo de nuevos productos clave, como el iPhone X y Apple Watch, nuevos servicios como Apple Music y la investigación de nuevas categorías potenciales, como los autos sin conductor y los anteojos de realidad virtual (o realidad aumentada).

El legado de Steve Jobs

Lo que hizo Apple para llevar a los teléfonos inteligentes a una dimensión superior, sólo se logró al entender que la innovación no estaba en el hardware o la fabricación de teléfonos más pequeños. Se trataba de cambiar la cultura y la forma en que la gente pensaba, interactuaba y cómo entendía el dispositivo en su bolsillo. Llenaron un vacío antes de que nosotros, como consumidores, supiéramos que incluso había uno.

La competencia: Amazon

Otra empresa que está a punto de llegar a la cima es Amazon, que ha disfrutado de un 55 % de ganancias este año.

Las dos principales líneas de negocios de la compañía, el retail y la tecnología de la información, representan US$ 20 mil millones y US$ 2 mil millones de gasto anual, respectivamente. Amazon captura una pequeña porción de cada categoría, y si se las arregla para tomar una participación más grande, entonces está sentado en una mina de oro.

Amazon.com dijo que los consumidores a través de Internet compraron más de 100 millones de productos en todo el mundo durante su venta Prime Day, siendo el streaming Fire TV Stick y el altavoz inteligente Echo los dispositivos más vendidos.

En conjunto, los líderes de la industria tecnológica van a seguir empujando los límites lo que es posible. Todavía no está claro cómo evolucionarán más adelante, pero lo que es seguro, sin embargo, es que hay mucho más por venir. Lampadia




Inteligencia Artificial en Medicina

Inteligencia Artificial en Medicina

Los algoritmos de inteligencia artificial no solo hacen que nuestros autos sean más seguros y las compras sean más fáciles, sino que diagnostican cada vez mejor a los pacientes y ayudan a tomar las mejores decisiones para su salud.

La inteligencia artificial (AI) está siendo adoptada por los hospitales y otras organizaciones de atención médica, que están utilizando la tecnología para hacer de todo, desde interpretar imágenes de tomografías y resonancias hasta predecir qué pacientes son más propensos a sufrir caídas debilitantes mientras reciben tratamiento. Los registros médicos electrónicos se revisan y procesan mediante algoritmos diseñados para ayudar a los médicos a elegir los mejores tratamientos contra el cáncer basados ​​en las mutaciones en los tumores de los pacientes, por ejemplo, o predecir su probabilidad de responder bien a un tratamiento basado en experiencias pasadas de pacientes similares, sobre bases de datos globales.

Desde start-ups hasta grandes corporaciones, las empresas se adelantan desarrollando soluciones basadas en inteligencia artificial que ya ha traído muchas transformaciones al sistema de salud. Ayuda a los médicos a reunir, analizar y organizar datos clínicos, realizar diagnósticos, planificar tratamientos y encontrar mejores soluciones para los pacientes. El diagnóstico de cáncer, insuficiencia cardíaca, diabetes y reacciones adversas a los medicamentos son solo algunos de los sectores de salud en los que las grandes empresas de TI han invertido como resultado de los avances en la inteligencia artificial.

Google lanzó el proyecto DeepMind Health. DeepMind puede procesar millones de datos de información médica en solo unos minutos, lo que acelera muchos procedimientos clínicos y de salud, como la presentación de registros médicos o diagnósticos. Los investigadores de DeepMind también están desarrollando modelos que emulan la capacidad de imaginar las consecuencias de una acción antes de llevarla a cabo en un esfuerzo por comprender qué es la inteligencia y la imaginación y convertirla en un algoritmo. Incluso Verily, la división de ciencias de la vida de Google, está trabajando en un proyecto llamado Baseline Study, que incluye recopilar datos genéticos con el objetivo de adoptar algunos de los algoritmos de Google para analizar lo qué permite a cada persona disfrutar de buena salud. Para este proyecto, los investigadores usan tecnología para monitorear enfermedades, por ejemplo, lentes de contacto inteligentes que pueden medir los niveles de azúcar en la sangre.

IBM también está activo en el campo de la atención médica con el sistema Watson, que es capaz de diagnosticar la insuficiencia cardíaca dos años antes que los métodos más tradicionales. El algoritmo se basa en los datos recopilados durante las visitas al hospital. Jianying Hu, uno de los investigadores involucrados, explica: “Hemos descubierto que el diagnóstico de otras enfermedades, medicamentos recetados y registros médicos de hospitalizaciones, en este orden, pueden proporcionar signos capaces de predecir la enfermedad”.

El uso de IA en la medicina promete beneficiar a muchos. Los avances en la investigación también dependen de cuán rápido se puedan adaptar las estructuras de los servicios de salud y de poner en marcha plataformas a nivel nacional para la detección y prevención de las enfermedades.

Si bien se están desarrollando tratamientos de punta que por ahora conllevan costos muy altos, solo accesibles para un segemento pequeño de pacientes; también es cierto, que muchísimas soluciones aportadas por la IA, reducen los costos a niveles que hacen posible su uso de tratamientos mejorados para toda la población, democratizando el acceso a los estándares de salud modernos.

En teoría, el uso de IA en medicina será disruptivo en la profesión médica, sustituyendo muchas funciones de seres humanos, desde enfermeros, técnicos y médicos, aparentemente, con la excepción de los mejores especialistas. Pero, hay dos servicios en los que, más allá de la tecnología, tal como lo prueban una serie de estudios y el sentido común, el contacto con seres humanos es fundamental, la edución y la salud. Por lo tanto, se puede estimar que por un lado los seres humanos serán sustituidos por máquinas inteligentes, y por otro, se crearán más oportunidades para servicios de salud mejorados en los que el contacto humano hará la diferencia.   

La humanidad es responsable del uso inteligente de la inteligencia artificial, tanto desde el punto de vista científico como moral, sin olvidar los aspectos éticos de las relaciones con los pacientes. Lampadia

La inteligencia artificial mejorará los tratamientos médicos
De A&E a IA

No dejará sin trabajo a los médicos expertos, en el corto plazo

The Economist
7 de junio, 2018
Traducido y glosado por Lampadia

Cuatro años atrás, una mujer de unos 30 años fue atropellada por un automóvil en Londres. Ella necesitaba una cirugía de emergencia para reducir la presión en el cerebro. Su cirujano, Chris Mansi, recuerda que la operación fue un éxito, pero ella murió. Mansi quería saber por qué. Descubrió que el problema había sido un retraso de cuatro horas a la hora de sacarla de la unidad de accidentes y emergencias del hospital donde la trajeron por primera vez al quirófano de su propio hospital. Eso, a su vez, fue el resultado de un retraso en la identificación, de exámenes médicos, de que tenía un gran coágulo de sangre en el cerebro y necesitaba tratamiento inmediato. Para evitar repeticiones de este tipo de retraso, Mansi ayudó a establecer una empresa llamada Viz.ai, con el propósito de utilizar el aprendizaje de las máqinas, una forma de inteligencia artificial (IA), para identificar a los pacientes que necesitan atención urgente de aquellos que pueden esperar, mediante el análisis de los escáneres realizados al momento de la admisión.

Esa idea es uno de los miles de proyectos en marcha para utilizar el aprendizaje de las máquinas para transformar la manera en que los médicos atienden a los pacientes. Aunque diversos, estos proyectos tienen un objetivo común: llevar el paciente correcto al médico correcto en el momento correcto.

En febrero, Viz.ai recibió la aprobación de los reguladores de los EEUU para vender su software de detección, a partir de escáneres cerebrales, de accidentes cerebrovasculares causados ​​por un bloqueo en un vaso sanguíneo grande. La tecnología se está implementwando en hospitales del “cinturón de accidentes cerebrovasculares” de EEUU, en el sureste, en la que los accidentes cerebrovasculares son inusualmente comunes. Erlanger Health System, en Tennessee, utilizará su sistema Viz.ai a partir de la próxima semana.

Los beneficios potenciales son impresionantes. Como observa Tom Devlin, neurólogo de derrames cerebrales en Erlanger, “sabemos que perdemos 2 millones de células cerebrales cada minuto que el coágulo está allí”. Sin embargo, las dos terapias que pueden transformar los resultados (fármacos anticoagulantes y una operación llamada trombectomía) rara vez usada porque, cuando se diagnostica un derrame cerebral y se ensambla un equipo quirúrgico, una gran parte del cerebro del paciente ha muerto. La tecnología de Viz.ai debería mejorar los resultados identificando casos urgentes, alertando a los especialistas de guardia y enviándoles los escaneos directamente.

La IA lo tiene

Otra área importante para la asistencia de IA es la oncología. En febrero de 2017, Andre Esteva de la Universidad de Stanford y sus colegas utilizaron un conjunto de casi 130,000 imágenes para entrenar un software de inteligencia artificial a clasificar las lesiones de la piel. Así fue capacitado y probado con las opiniones de 21 dermatólogos calificados, el software podía identificar tanto el tipo más común de cáncer de piel (carcinoma de queratinocitos) como el tipo más letal (melanoma maligno), con tanto éxito como los profesionales. Eso fue impresionante. Pero ahora, como se describió el mes pasado en un artículo publicado en Annals of Oncology, hay un sistema de detección de cáncer de piel con IA que puede funcionar mejor que la mayoría de los dermatólogos. Holger Haenssle de la Universidad de Heidelberg, en Alemania, se enfrentó a un sistema de IA contra 58 dermatólogos. Los humanos pudieron identificar el 86.6% de los cánceres de piel. La computadora encontró 95%. También diagnosticó erróneamente menos lunares benignos como tumores malignos.

También ha habido avances en la detección del cáncer de mama. El mes pasado, Kheiron Medical Technologies, una empresa de Londres, recibió noticias de un estudio donde el software excedía el estándar de rendimiento requerido oficialmente para los radiólogos que realizaban el chequeo de la enfermedad. La firma dice que presentará este estudio para su publicación cuando haya recibido la aprobación europea para usar la IA, que espera que suceda pronto.

Este desarrollo parece importante. La detección de mamas ha salvado muchas vidas, pero deja mucho que desear. El sobrediagnóstico y el sobretratamiento son comunes. Por el contrario, los tumores a veces se pierden. En muchos países, tales problemas han llevado a que un segundo radiólogo revise rutinariamente las exploraciones, lo que mejora la precisión, pero aumenta la carga de trabajo. Como mínimo, el sistema de Kheiron parece útil para una segunda opinión. A medida que mejora, puede calificar a las mujeres según sus riesgos de cáncer de mama y decidir el mejor momento para su próxima mamografía.

Los esfuerzos para utilizar la IA para mejorar los diagnósticos también están en marcha en otras partes de la medicina. En la enfermedad ocular, DeepMind, una subsidiaria con sede en Londres de Alphabet, la empresa matriz de Google, tiene una IA que analiza imágenes de la retina para detectar enfermedades como el glaucoma, la retinopatía diabética y la degeneración macular relacionada con la edad. La firma también está trabajando en mamografías.

Las enfermedades cardíacas son otro campo de interés. Investigadores de la Universidad de Oxford han estado desarrollando IAs para interpretar los ecocardiogramas, que son exploraciones ultrasónicas del corazón. Los cardiólogos que examinan estos exámenes buscan signos de enfermedad cardíaca, pero pueden perderlos el 20% de las veces. Eso significa que los pacientes serán enviados a casa y luego pueden tener un ataque al corazón. La IA, sin embargo, puede detectar cambios invisibles al ojo y mejorar la precisión del diagnóstico. Ultromics, una firma en Oxford, está tratando de comercializar la tecnología y podría utilizarse este año en Gran Bretaña.

También hay esfuerzos para detectar arritmias cardíacas, particularmente fibrilación auricular, que aumentan el riesgo de insuficiencia cardíaca y accidentes cerebrovasculares. Investigadores de la Universidad de Stanford, dirigidos por Andrew Ng, han demostrado que el software de IA puede identificar las arritmias de un electrocardiograma (ECG) mejor que un experto. El grupo ha unido fuerzas con una firma que fabrica dispositivos portátiles de ECG y está ayudando a Apple a estudiar si se pueden detectar arritmias en los datos de frecuencia cardíaca recogidos por sus relojes smart. Mientras tanto, en París, una empresa llamada Cardiologs también está tratando de diseñar una IA destinada a leer ECG.

Viendo hacia adelante

Eric Topol, cardiólogo e investigador de medicina digital en el Instituto de Investigación Scripps, en San Diego, dice que la precisión de los médicos y de los algoritmos son comparables en algunas áreas, pero las computadoras tienen la ventaja de la velocidad. Esta combinación de rasgos llevará a una mayor precisión y productividad en la atención médica.

La inteligencia artificial también podría hacer que la medicina sea más específica, al ser capaz de establecer distinciones que eluden a los observadores humanos. Puede clasificar cánceres o instancias de enfermedad cardíaca de acuerdo con sus riesgos, por ejemplo, distinguiendo aquellos cánceres de próstata que matarán rápidamente, y por lo tanto necesitarán tratamiento, de aquellos que no lo harán, y probablemente no puedan ser tratados.

Lo que la IA médica no hará, al menos no por mucho tiempo, es que los expertos humanos sean redundantes en los campos que invade. Los sistemas de aprendizaje de las máquinas funcionan en una estrecha gama de tareas y necesitarán una estrecha supervisión en los próximos años. Son “cajas negras”, ya que los médicos no saben exactamente cómo llegan a sus decisiones. Sin embargo, quitarán gran parte de la dificultad y el error del diagnóstico.

También ayudarán a garantizar que los pacientes, ya sea que se les haga un examen de detección de cáncer o que se los saque de la escena de un accidente automovilístico, sean tratados a tiempo para salvarse. Lampadia




Inteligencia Artificial en Medicina

Inteligencia Artificial en Medicina

Los algoritmos de inteligencia artificial no solo hacen que nuestros autos sean más seguros y las compras sean más fáciles, sino que diagnostican cada vez mejor a los pacientes y ayudan a tomar las mejores decisiones para su salud.

La inteligencia artificial (AI) está siendo adoptada por los hospitales y otras organizaciones de atención médica, que están utilizando la tecnología para hacer de todo, desde interpretar imágenes de tomografías y resonancias hasta predecir qué pacientes son más propensos a sufrir caídas debilitantes mientras reciben tratamiento. Los registros médicos electrónicos se revisan y procesan mediante algoritmos diseñados para ayudar a los médicos a elegir los mejores tratamientos contra el cáncer basados ​​en las mutaciones en los tumores de los pacientes, por ejemplo, o predecir su probabilidad de responder bien a un tratamiento basado en experiencias pasadas de pacientes similares, sobre bases de datos globales.

Desde start-ups hasta grandes corporaciones, las empresas se adelantan desarrollando soluciones basadas en inteligencia artificial que ya ha traído muchas transformaciones al sistema de salud. Ayuda a los médicos a reunir, analizar y organizar datos clínicos, realizar diagnósticos, planificar tratamientos y encontrar mejores soluciones para los pacientes. El diagnóstico de cáncer, insuficiencia cardíaca, diabetes y reacciones adversas a los medicamentos son solo algunos de los sectores de salud en los que las grandes empresas de TI han invertido como resultado de los avances en la inteligencia artificial.

Google lanzó el proyecto DeepMind Health. DeepMind puede procesar millones de datos de información médica en solo unos minutos, lo que acelera muchos procedimientos clínicos y de salud, como la presentación de registros médicos o diagnósticos. Los investigadores de DeepMind también están desarrollando modelos que emulan la capacidad de imaginar las consecuencias de una acción antes de llevarla a cabo en un esfuerzo por comprender qué es la inteligencia y la imaginación y convertirla en un algoritmo. Incluso Verily, la división de ciencias de la vida de Google, está trabajando en un proyecto llamado Baseline Study, que incluye recopilar datos genéticos con el objetivo de adoptar algunos de los algoritmos de Google para analizar lo qué permite a cada persona disfrutar de buena salud. Para este proyecto, los investigadores usan tecnología para monitorear enfermedades, por ejemplo, lentes de contacto inteligentes que pueden medir los niveles de azúcar en la sangre.

IBM también está activo en el campo de la atención médica con el sistema Watson, que es capaz de diagnosticar la insuficiencia cardíaca dos años antes que los métodos más tradicionales. El algoritmo se basa en los datos recopilados durante las visitas al hospital. Jianying Hu, uno de los investigadores involucrados, explica: “Hemos descubierto que el diagnóstico de otras enfermedades, medicamentos recetados y registros médicos de hospitalizaciones, en este orden, pueden proporcionar signos capaces de predecir la enfermedad”.

El uso de IA en la medicina promete beneficiar a muchos. Los avances en la investigación también dependen de cuán rápido se puedan adaptar las estructuras de los servicios de salud y de poner en marcha plataformas a nivel nacional para la detección y prevención de las enfermedades.

Si bien se están desarrollando tratamientos de punta que por ahora conllevan costos muy altos, solo accesibles para un segemento pequeño de pacientes; también es cierto, que muchísimas soluciones aportadas por la IA, reducen los costos a niveles que hacen posible su uso de tratamientos mejorados para toda la población, democratizando el acceso a los estándares de salud modernos.

En teoría, el uso de IA en medicina será disruptivo en la profesión médica, sustituyendo muchas funciones de seres humanos, desde enfermeros, técnicos y médicos, aparentemente, con la excepción de los mejores especialistas. Pero, hay dos servicios en los que, más allá de la tecnología, tal como lo prueban una serie de estudios y el sentido común, el contacto con seres humanos es fundamental, la edución y la salud. Por lo tanto, se puede estimar que por un lado los seres humanos serán sustituidos por máquinas inteligentes, y por otro, se crearán más oportunidades para servicios de salud mejorados en los que el contacto humano hará la diferencia.   

La humanidad es responsable del uso inteligente de la inteligencia artificial, tanto desde el punto de vista científico como moral, sin olvidar los aspectos éticos de las relaciones con los pacientes. Lampadia

La inteligencia artificial mejorará los tratamientos médicos
De A&E a IA

No dejará sin trabajo a los médicos expertos, en el corto plazo

The Economist
7 de junio, 2018
Traducido y glosado por Lampadia

Cuatro años atrás, una mujer de unos 30 años fue atropellada por un automóvil en Londres. Ella necesitaba una cirugía de emergencia para reducir la presión en el cerebro. Su cirujano, Chris Mansi, recuerda que la operación fue un éxito, pero ella murió. Mansi quería saber por qué. Descubrió que el problema había sido un retraso de cuatro horas a la hora de sacarla de la unidad de accidentes y emergencias del hospital donde la trajeron por primera vez al quirófano de su propio hospital. Eso, a su vez, fue el resultado de un retraso en la identificación, de exámenes médicos, de que tenía un gran coágulo de sangre en el cerebro y necesitaba tratamiento inmediato. Para evitar repeticiones de este tipo de retraso, Mansi ayudó a establecer una empresa llamada Viz.ai, con el propósito de utilizar el aprendizaje de las máqinas, una forma de inteligencia artificial (IA), para identificar a los pacientes que necesitan atención urgente de aquellos que pueden esperar, mediante el análisis de los escáneres realizados al momento de la admisión.

Esa idea es uno de los miles de proyectos en marcha para utilizar el aprendizaje de las máquinas para transformar la manera en que los médicos atienden a los pacientes. Aunque diversos, estos proyectos tienen un objetivo común: llevar el paciente correcto al médico correcto en el momento correcto.

En febrero, Viz.ai recibió la aprobación de los reguladores de los EEUU para vender su software de detección, a partir de escáneres cerebrales, de accidentes cerebrovasculares causados ​​por un bloqueo en un vaso sanguíneo grande. La tecnología se está implementwando en hospitales del “cinturón de accidentes cerebrovasculares” de EEUU, en el sureste, en la que los accidentes cerebrovasculares son inusualmente comunes. Erlanger Health System, en Tennessee, utilizará su sistema Viz.ai a partir de la próxima semana.

Los beneficios potenciales son impresionantes. Como observa Tom Devlin, neurólogo de derrames cerebrales en Erlanger, “sabemos que perdemos 2 millones de células cerebrales cada minuto que el coágulo está allí”. Sin embargo, las dos terapias que pueden transformar los resultados (fármacos anticoagulantes y una operación llamada trombectomía) rara vez usada porque, cuando se diagnostica un derrame cerebral y se ensambla un equipo quirúrgico, una gran parte del cerebro del paciente ha muerto. La tecnología de Viz.ai debería mejorar los resultados identificando casos urgentes, alertando a los especialistas de guardia y enviándoles los escaneos directamente.

La IA lo tiene

Otra área importante para la asistencia de IA es la oncología. En febrero de 2017, Andre Esteva de la Universidad de Stanford y sus colegas utilizaron un conjunto de casi 130,000 imágenes para entrenar un software de inteligencia artificial a clasificar las lesiones de la piel. Así fue capacitado y probado con las opiniones de 21 dermatólogos calificados, el software podía identificar tanto el tipo más común de cáncer de piel (carcinoma de queratinocitos) como el tipo más letal (melanoma maligno), con tanto éxito como los profesionales. Eso fue impresionante. Pero ahora, como se describió el mes pasado en un artículo publicado en Annals of Oncology, hay un sistema de detección de cáncer de piel con IA que puede funcionar mejor que la mayoría de los dermatólogos. Holger Haenssle de la Universidad de Heidelberg, en Alemania, se enfrentó a un sistema de IA contra 58 dermatólogos. Los humanos pudieron identificar el 86.6% de los cánceres de piel. La computadora encontró 95%. También diagnosticó erróneamente menos lunares benignos como tumores malignos.

También ha habido avances en la detección del cáncer de mama. El mes pasado, Kheiron Medical Technologies, una empresa de Londres, recibió noticias de un estudio donde el software excedía el estándar de rendimiento requerido oficialmente para los radiólogos que realizaban el chequeo de la enfermedad. La firma dice que presentará este estudio para su publicación cuando haya recibido la aprobación europea para usar la IA, que espera que suceda pronto.

Este desarrollo parece importante. La detección de mamas ha salvado muchas vidas, pero deja mucho que desear. El sobrediagnóstico y el sobretratamiento son comunes. Por el contrario, los tumores a veces se pierden. En muchos países, tales problemas han llevado a que un segundo radiólogo revise rutinariamente las exploraciones, lo que mejora la precisión, pero aumenta la carga de trabajo. Como mínimo, el sistema de Kheiron parece útil para una segunda opinión. A medida que mejora, puede calificar a las mujeres según sus riesgos de cáncer de mama y decidir el mejor momento para su próxima mamografía.

Los esfuerzos para utilizar la IA para mejorar los diagnósticos también están en marcha en otras partes de la medicina. En la enfermedad ocular, DeepMind, una subsidiaria con sede en Londres de Alphabet, la empresa matriz de Google, tiene una IA que analiza imágenes de la retina para detectar enfermedades como el glaucoma, la retinopatía diabética y la degeneración macular relacionada con la edad. La firma también está trabajando en mamografías.

Las enfermedades cardíacas son otro campo de interés. Investigadores de la Universidad de Oxford han estado desarrollando IAs para interpretar los ecocardiogramas, que son exploraciones ultrasónicas del corazón. Los cardiólogos que examinan estos exámenes buscan signos de enfermedad cardíaca, pero pueden perderlos el 20% de las veces. Eso significa que los pacientes serán enviados a casa y luego pueden tener un ataque al corazón. La IA, sin embargo, puede detectar cambios invisibles al ojo y mejorar la precisión del diagnóstico. Ultromics, una firma en Oxford, está tratando de comercializar la tecnología y podría utilizarse este año en Gran Bretaña.

También hay esfuerzos para detectar arritmias cardíacas, particularmente fibrilación auricular, que aumentan el riesgo de insuficiencia cardíaca y accidentes cerebrovasculares. Investigadores de la Universidad de Stanford, dirigidos por Andrew Ng, han demostrado que el software de IA puede identificar las arritmias de un electrocardiograma (ECG) mejor que un experto. El grupo ha unido fuerzas con una firma que fabrica dispositivos portátiles de ECG y está ayudando a Apple a estudiar si se pueden detectar arritmias en los datos de frecuencia cardíaca recogidos por sus relojes smart. Mientras tanto, en París, una empresa llamada Cardiologs también está tratando de diseñar una IA destinada a leer ECG.

Viendo hacia adelante

Eric Topol, cardiólogo e investigador de medicina digital en el Instituto de Investigación Scripps, en San Diego, dice que la precisión de los médicos y de los algoritmos son comparables en algunas áreas, pero las computadoras tienen la ventaja de la velocidad. Esta combinación de rasgos llevará a una mayor precisión y productividad en la atención médica.

La inteligencia artificial también podría hacer que la medicina sea más específica, al ser capaz de establecer distinciones que eluden a los observadores humanos. Puede clasificar cánceres o instancias de enfermedad cardíaca de acuerdo con sus riesgos, por ejemplo, distinguiendo aquellos cánceres de próstata que matarán rápidamente, y por lo tanto necesitarán tratamiento, de aquellos que no lo harán, y probablemente no puedan ser tratados.

Lo que la IA médica no hará, al menos no por mucho tiempo, es que los expertos humanos sean redundantes en los campos que invade. Los sistemas de aprendizaje de las máquinas funcionan en una estrecha gama de tareas y necesitarán una estrecha supervisión en los próximos años. Son “cajas negras”, ya que los médicos no saben exactamente cómo llegan a sus decisiones. Sin embargo, quitarán gran parte de la dificultad y el error del diagnóstico.

También ayudarán a garantizar que los pacientes, ya sea que se les haga un examen de detección de cáncer o que se los saque de la escena de un accidente automovilístico, sean tratados a tiempo para salvarse. Lampadia




La prevalencia de los algoritmos en nuestras vidas

La prevalencia de los algoritmos en nuestras vidas

Cada vez que hacemos una búsqueda en Google, el motor de búsqueda analiza millones de páginas web para obtener el contenido que se está buscando en una fracción de segundo. Esto es posible por el uso de algoritmos, un simple conjunto de reglas, o instrucciones de códigos matemáticos predeterminados en el software.

De hecho, cada vez que uno accede a un cajero automático, reserva un pasaje de avión o tren o compra algo en línea, está utilizando algoritmos. Suena un poco complicado, pero los algoritmos no son cosas mágicas que viven en nuestras computadoras y dictan nuestras vidas digitales. Son creados por personas e implementados para servir a un propósito. “Un algoritmo, escrito en código, hace todo su trabajo de forma invisible”, explicó un desarrollador de software. “La implementación de un algoritmo se oculta de la vista. En algunos casos, esto es muy complejo”.

Fuente: laopinion.com

Con el fin de entender cómo estas herramientas que usamos afectan nuestras vidas y comportamiento, es útil aprender un poco sobre los bloques de construcción: cómo funciona ese misterioso mundo digital. La gente asocia algoritmos con tecnología y matemáticas. El software y el hardware que usamos todos los días hacen uso de algoritmos, ya estén distribuyendo anuncios y resultados en Google o ejecutando actividad en nuestros procesadores.

Fuente: Video Youtube ¿Qué es un ALGORITMO?

Un algoritmo es un conjunto de reglas utilizadas para ejecutar una tarea. Como señala un artículo de The Economist líneas abajo, los algoritmos son los que modifican nuestros ‘feeds’ de noticias (selección automática de posts afines), deciden qué Uber utilizaremos y reconocen patrones de información para filtrar spam, pero todo se reduce a un procedimiento que acepta entradas y distribuye salidas.

Fuente: jmramirez.pro

Si los algoritmos son sólo métodos para resolver problemas, ¿por qué, entonces, son tan importantes para nuestra vida cotidiana? Analizándolo holísticamente, el estudio de los algoritmos es importante porque la comprensión de los algoritmos en detalle permite que uno realmente pueda planificar y construir soluciones a algunos de los problemas más importantes de negocios y tecnología que existen hoy en día. De hecho, sin comprender la naturaleza los algoritmos, no se pueden enfrentar los problemas que se discuten en los mundos de “Big Data”, “Sistemas Inteligentes” o “Internet de las Cosas”. Para entender más sobre cómo estos complejos programas informáticos determinan gran parte de nuestra vida diaria, ver el siguiente video de TED:

¿Por qué? Porque los algoritmos nos permiten entender y optimizar el tiempo y el espacio. En términos prácticos, los algoritmos dan a los equipos tecnológicos la capacidad de ahorrar una gran cantidad de tiempo desde una perspectiva computacional. Estos ahorros de tiempo permiten a las empresas hacer tareas utilizando computadoras que de otro modo serían imposibles.

Es importante destacar que en un mundo de dispositivos conectados donde millones de objetos y puntos de datos pueden ser recogidos en tiempo casi real, el uso de algoritmos eficientes puede hacer que los programas y sistemas funcionen millones de veces más rápido de lo que es posible actualmente. Es más, estos ahorros de tiempo no se pueden realizar simplemente gastando más dinero, añadiendo más gente a los equipos de desarrollo o aumentando la cantidad de infraestructuras utilizadas para soportar un problema. Por el contrario, la comprensión de los algoritmos puede permitir que los arquitectos de sistemas construyan soluciones que serían imposibles de otra manera.

En Lampadia consideramos esencial que nuestros lectores entiendan la naturaleza de las herramientas que se usan hoy día para resolver algunos de los problemas más apremiantes que existen hoy en día. Usando algoritmos, estructuras de datos y Big Data, se pueden mover aviones, trenes y automóviles más rápido, mejorar los rendimientos de los recursos, proporcionar energía a millones de personas, mantener redes de comunicaciones globales e inteligencia artificial y sistemas conectados que ya están transformando nuestras vidas, algo que se acelerará en los años y décadas por venirLampadia

The Economist nos explica

¿Qué son los algoritmos?

Aunque son capaces de grandes hazañas, son simplemente listas de instrucciones

The Economist
30 de agosto de 2017
Traducido y glosado por
Lampadia

Los algoritmos están en todas partes. Tienen un rol en el mercado de valores, deciden si un cliente puede obtener una hipoteca y, algún día, podrán conducir autos autónomos. También realizan búsquedas en Internet cuando se les pide, publican anuncios cuidadosamente elegidos en los sitios web que visitan y deciden qué precios mostrar en las tiendas en línea. Como Uber y Waymo saben muy bien, pueden ser sujetos de argumentos legales; también causan preocupaciones regulatorias (a principios de agosto, un grupo de luminarias pidió la prohibición de los robots en campos de batalla ejecutando algoritmos diseñados para matar a las personas). Page Rank -el algoritmo que potencia los resultados de búsqueda de Google- ha hecho que sus inventores sean muy ricos. Los”filterbubbles” (burbujas creadas por filtros) algoritmicamente organizadas pueden incluso afectar la manera el vota de un país. Pero, ¿qué son exactamente los algoritmos y qué los hace tan poderosos?

Un algoritmo es, esencialmente, una manera inteligente de hacer cosas, sin tener un cerebro. Es un conjunto de pasos precisos que no necesitan un gran esfuerzo mental para hacerse, pero que, si se obedecen exactamente y mecánicamente, conducirán al resultado deseado. La división larga y la adición de columnas son ejemplos que todo el mundo conoce. Si se sigue el procedimiento, se garantiza que se obtendrá la respuesta correcta. Así es la estrategia, redescubierta miles de veces cada año por los aburridos escolares con un aprendizaje de algoritmos matemáticos. La falta de cerebro es la clave: cada paso debe ser tan simple y tan libre de ambigüedad como sea posible. Las recetas de cocina y las direcciones de conducción son un tipo de algoritmos. Pero las instrucciones de como “guisar la carne hasta que estén tierna” o “está a pocas millas de camino” son demasiado vagas para seguirlas sin, al menos, alguna interpretación.

Los algoritmos están estrechamente asociados con las computadoras y los códigos de programación. No tiene que ser así. Alan Turing, un pionero matemático británico que hizo un gran trabajo sobre cómo tratar algoritmos con rigor matemático, escribió una vez un algoritmo de ajedrez que era bastante complicado en el papel. Lo probó en un partido contra un amigo, escudriñando la lista de instrucciones con cada movimiento y haciendo lo que sus instrucciones le dijeron. Pero, como admitió el oponente de Turing, los humanos suelen encontrar que un trabajo repetitivo y estúpido es aburrido y frustrante (había tanto papel y aritmética involucrados que, según los informes, tardaba media hora en jugar cada jugada). Las computadoras, sin embargo, sobresalen rápidamente en las tareas aburridas y repetitivas tales como “agregar estos dos números”, “decidir si este número es más grande que ese” y “almacenar la respuesta allá”. Es, de hecho, lo único que son capaces de hacer.                                                                                      

Por esa razón, las computadoras han permitido a los humanos construir y ejecutar construcciones algorítmicas cada vez más grandes y complicadas. Y resulta que, al igual que los ladrillos de Lego, acumulando suficientes instrucciones simples, permite construir cosas mucho más intrincadas e interesantes de lo que parece al principio. Cada programa de computadora, desde ‘Chrome’ a ‘Call of Duty’, o a un modelo climático, es, en su raíz, nada más que una gran pila de algoritmos que se ejecutan a alta velocidad. Irónicamente, algunos de los algoritmos más avanzados no son escritos por humanos, sino por otros algoritmos. El aprendizaje autónomo es una técnica de inteligencia artificial que se utiliza para enseñarle a las computadoras a hacer cosas que las personas pueden hacer, como decodificar el habla o reconocer caras, pero que los humanos no pueden explicar de una manera algorítmica suficientemente mecánica. Así que un algoritmo de aprendizaje hace el trabajo de traducción por ellos. Usa muchos ejemplos del tema en cuestión (ya sea lenguaje hablado, por ejemplo, o imágenes de rostros) que han sido etiquetados por los humanos. Luego produce otro algoritmo que los reconoce eficazmente. El no contar con un cerebro, en otras palabras, no es ningún impedimento para la inteligenciaLampadia

 




¿Computadoras Cerebrales?

¿Computadoras Cerebrales?

El CEO de SpaceX y Tesla, Elon Musk, está financiando una empresa de interfaz cerebro-computadora llamada Neuralink, la cual se centra en la creación de dispositivos que se pueden implantar en el cerebro humano, con el propósito final de ayudar a los seres humanos a fusionarse con el software y mantener el ritmo de los avances en inteligencia artificial. Estos avances podrían mejorar la memoria o permitir una interface más directa con los dispositivos informáticos.

Estos tipos de interfaces cerebro-computadora existen hoy sólo en la ciencia ficción. En el ámbito médico, las matrices de electrodos y otros implantes se han utilizado para ayudar a mejorar los efectos de la enfermedad de Parkinson, la epilepsia y otras enfermedades neurodegenerativas (como explica el artículo de The Economist líneas abajo). Sin embargo, muy pocas personas en el planeta tienen implantes complejos colocados dentro de sus cráneos, mientras que el número de pacientes con dispositivos estimulantes muy básicos llega a las decenas de miles. Esto se debe en parte a que es increíblemente peligroso e invasivo operar en el cerebro humano, y sólo aquellos que han agotado cualquier otra opción médica optan por someterse a dicha cirugía como último recurso.

Fuente: corbis

Esto no ha detenido un aumento del interés de futuristas de la industria de la tecnología en Silicon Valley que están interesados ​​en acelerar el avance de este tipo de ideas. Kernel, una startup creada por Braintree, también está tratando de mejorar la cognición humana. Con más de 100 millones de dólares, el empresario Bryan Johnson vendió Braintree a PayPal por alrededor de 800 millones de dólares en 2013. Kernel y su creciente equipo de neurocientíficos e ingenieros de software están trabajando para revertir los efectos de las enfermedades neurodegenerativas y, eventualmente, lograr que los cerebros sean más inteligentes y más interconectados.

Fuente: Lupus News Today

“Sabemos que si colocamos un chip en el cerebro y liberamos señales eléctricas, podemos mejorar los síntomas del Parkinson”, dijo Johnson en una entrevista. Johnson también confirmó la participación de Musk con Neuralink. “Esto se ha hecho para el dolor de la médula espinal, la obesidad, la anorexia… lo que no se ha hecho es la lectura y escritura del código neural”. Johnson dice que el objetivo de Kernel es “trabajar con el cerebro de la misma manera que trabajamos con otros sistemas biológicos complejos como la biología y la genética”.

La stratup Kernel es bastante transparente, admitiendo que tomará años de investigación médica para comprender mejor el cerebro humano y las nuevas técnicas de cirugía, métodos de software y dispositivos de implante que podrían hacer realidad una interfaz de cerebro-computadora. La verdad es que los obstáculos involucrados en el desarrollo de estos dispositivos son inmensos. Los investigadores de la neurología dicen que tenemos una comprensión muy limitada sobre cómo se comunican las neuronas en el cerebro humano, y nuestros métodos para recopilar datos sobre esas neuronas es rudimentario. Luego está la idea de que las personas se ofrezcan voluntariamente a colocar estos experimentos dentro de sus cabezas.

“La gente sólo va a ser susceptible a la idea [de un implante] si tienen una condición médica muy seria”, afirma Blake Richards, un neuro-científico y profesor asistente de la Universidad de Toronto. “La mayoría de las personas sanas se sienten incómodas con la idea de que un doctor les abra el cráneo”.

Sin embargo, ha habido ciertos #breakthroughs”. El año pasado, científicos de MIT lograron usar luz para activar neuronas de ratones genéticamente modificados e implantarles una memoria falsa en el cerebro. Todavía falta mucho para que podamos hacer lo mismo con los seres humanos, pero podríamos ver una extensión de la tecnología del electroencefalograma que pueda determinar en qué momento el cerebro de cierta persona se encuentra en el estado más receptivo para el aprendizaje.

Fuente: Diario Frontera

Por otro lado, científicos en la Universidad de Princeton han estudiado a parejas tanto con electroencefalogramas como con imágenes cerebrales y han demostrado que cuando dos personas se están comunicando, hablando y entendiéndose mutuamente, sus cerebros se encuentran literalmente en las mismas ondas cerebrales. No sólo eso: los patrones de la onda cerebral del oyente comienzan a preceder los patrones de la onda cerebral de su interlocutor. Uno comienza a anticipar las ondas cerebrales del otro.

Este tipo de información tendrá un impacto profundo en la manera que las personas interactúan. Cuando las personas estemos conectadas con el internet, con las bibliotecas del mundo, con todo tipo de información al alcance de un nanosegundo, las posibilidades son infinitas. Poseer ese tipo de información cambiará todas las dinámica actuales de interactuar y de toma de decisiones. Las oportunidades son infinitas. Lampadia

¿Qué es un una computadora cerebral (brain-computer)?

The Economist explica
Ya hay dispositivos que transmiten señales eléctricas al cerebro. Eso es solo el comienzo.​
 
Fuente: Alamy, The Economist

The Economist
26 de mayo, 2017
Traducido y glosado por Lampadia

Las primeras computadoras eran máquinas grandes que llenaban habitaciones enteras. A medida que se hicieron más baratas y más pequeñas, se mudaron de los sótanos y laboratorios y migraron más cerca de los seres humanos: primero a los escritorios y mochilas, y finalmente en los bolsillos y a los brazos. Por ahora pareciera que se ha detenido en la superficie del cuerpo humano. Pero las computadoras están rompiendo la epidermis, y un día podrán entrar en la cavidad cerebral. ¿Cómo funcionarán las llamadas “computadoras cerebrales”?

El “Computadora Cerebral” es un término genérico para una gama de tecnologías. Las definiciones divergen en términos de dónde se ubica la computadora y sus niveles de potencia de procesamiento. Las computadoras cerebrales de hoy son dispositivos relativamente simples que existen con fines médicos y se basan en conexiones crudas con el cerebro. Son casi siempre dispositivos de baja potencia que se usan en el exterior del cuerpo, y que proporcionan señales no agudas a través de la piel a las regiones pertinentes del cerebro. Cientos de miles de personas ya utilizan estas máquinas para by-pasasear a los sistemas de entrada y salida de hoy en día -como los dedos y la voz o los ojos y los oídos- para comunicarse directamente con el cerebro. En gran parte se utilizan para compensar una función corporal dañada, como la pérdida de la audición.

El tipo más simple de computadora cerebral es un implante coclear (tipo concha). Estos dispositivos transforman las ondas de sonido en señales eléctricas, para estimular el nervio auditivo directamente. La computadora que controla este proceso se encuentra detrás de la oreja, conectado a un micrófono y un paquete de baterías portátil. Transmite energía y ondas sonoras-transformadas en señales electromagnéticas- a un implante justo en el interior del cráneo, junto al oído. Ese implante recibe la señal de forma inalámbrica, la traduce a una corriente eléctrica y la pasa por un hilo, pasando por la maquinaria biológica de la oreja, hasta un electrodo incrustado en el nervio auditivo. Otro tipo de ordenador cerebral existente se denomina neuro-estimulador, utilizado en el tratamiento de la enfermedad de Parkinson. Por lo general se implanta bajo la piel en el pecho o la espalda baja. Envía señales eléctricas a las partes del cerebro llamadas los ganglios basales, que están asociados con el control del movimiento voluntario.

Silicon Valley está emergiendo otra forma de computadora cerebral -aunque por ahora todavía está en un tablero de diseño. Los emprendedores piensan que los dispositivos podrían ir más allá de simplemente reemplazar las funciones perdidas: el cerebro podría conectarse a las computadoras y al Internet para darle funciones completamente nuevas que están más allá de las capacidades de los seres humanos hoy en día. Imagine que las búsquedas de Google envíen su resultado al cerebro antes de que este haga la pregunta conscientemente; o comunicaciones directas de cerebro a cerebro, sin estorbos de  dispositivos.

Elon Musk, (creador y dueño de Tesla), con su nueva compañía Neuralink, y Bryan Johnson, con una compañía un poco más antigua llamada Kernel, están liderando el intento. Por ahora, la función del cerebro no se entiende en suficiente detalle para leer y escribir información en este a nivel de comunicación lingüística. Pero para los optimistas de Silicon Valley, es sólo cuestión de tiempo. Lampadia




Fortaleciendo las capacidades de seguridad cibernética

Fortaleciendo las capacidades de seguridad cibernética

Algunos expertos predicen que para 2020 habrá 200 mil millones de ‘cosas’ conectadas. Automóviles, aviones, casas, ciudades e incluso animales están siendo conectados. El software está integrado en todas partes. Esto está cambiando la forma en que vivimos y cómo nos comportamos e interactuamos con el mundo que nos rodea. A medida que la tecnología se integra más y más profundamente en nuestras vidas, nos volvemos más y más dependientes de ella. Pero esta dependencia nos hace vulnerables a cualquier ataque o falla tecnológica.

Es por esto que presentamos los resultados globales (aplicados a empresas peruanas) de la 19° Encuesta Global de Seguridad de la Información: El camino hacia la resiliencia cibernética, presentada por EY Perú (Ernst & Young). La publicación analiza las respuestas de 1,735 CIOs, CEOs y otros ejecutivos, mostrando las fortalezas de las organizaciones en sus capacidades de seguridad cibernética y en qué pueden mejorar.

Entre los principales hallazgos del estudio tenemos que, a diferencia de lo que podríamos suponer, las amenazas no siempre tienen que venir de fuera, ni ser malintencionadas. De acuerdo a los cuadros presentados, cuando se preguntó a los responsables de las empresas (a nivel global) sobre la fuente más probable de un ataque, la mayoría (55%) sostuvo que se trataría de un colaborador descuidado. Por supuesto, el malware no se queda atrás (51%) ni el phishing (51%), pero es destacable la importancia que ha cobrado el sector interno.

Los resultados de la encuesta indican la necesidad de mejorar la resiliencia en su capacidad de responder y recuperarse de incidentes cibernéticos para que las operaciones seguras y confiables puedan ser restauradas y mantenidas. Según EY Perú (Ernst & Young), “la resiliencia cibernética es un subconjunto de la resiliencia del negocio.” Se centra en la eficacia de las utilidades en la implementación de tres componentes críticos:

1.Sentir
Sentir es la capacidad de las organizaciones para predecir y detectar las amenazas cibernéticas.

2.Resistir
Los mecanismos de resistencia son básicamente los escudos corporativos. Esto inicia con cuánto riesgo una organización está preparada para tomar a través de su ecosistema, seguido por el establecimiento de líneas de defensa.

3.Reaccionar
Si “Sentir” falla (la organización no detectó la amenaza que venía) y hay un desajuste en “Resistir” (las medidas de control no fueron lo suficientemente fuertes), las organizaciones deben estar listas para lidiar con la intrusión, con capacidades de respuesta y listas para gestionar la crisis.

En los últimos años, las organizaciones han mejorado significativamente sus capacidades de ‘Sentir’, utilizando inteligencia cibernética para predecir lo que pueda ocurrir, instalando mecanismos de supervisión continua, identificando y gestionando vulnerabilidades e instalando Defensas Activas.

Según los últimos datos de la encuesta, este año el 50% de las organizaciones considera que es probable que sean capaces de predecir y detectar un ataque cibernético sofisticado, el mayor nivel de confianza que hemos observado desde 2013. Sin embargo, a pesar de estos puntos positivos, aún no son suficientes las organizaciones que están tomando las medidas necesarias para evitar ataques cibernéticos: En el Perú, 97% no tienen Centros Operativos de Seguridad, 90% no tienen un programa de inteligencia contra amenazas y el 97% no tienen una capacidad de identificación de vulnerabilidades formal.

Para EY Perú (Ernst & Young), es importante enfocarse en riesgos cibernéticos, no solamente en seguridad cibernética. Los ataques están tomando formas diferentes constantemente y son cada vez más complejos. Casi la mitad de los encuestados (48%) dicen que sus controles de seguridad desactualizados son un área de alta vulnerabilidad.

Según afirma el informe, “Si bien la naturaleza de los ataques ha cambiado, resistir, defender, mitigar y neutralizar ataques han sido durante mucho tiempo el núcleo necesario de la seguridad cibernética”. Y es que “La capacidad de resistencia requiere un enfoque multifacético. Las defensas se suelen considerar como barreras difíciles, como el cifrado o firewalls que detienen y/o neutralizan un ataque; pero hay otras formas en que las organizaciones pueden minimizar el impacto de un ataque y ayudar a la organización a resistir.”

Entre el 2013 y el 2016, ha habido un incremento en los presupuestos, con un 53% de los encuestados este año diciendo que sus presupuestos aumentaron en los últimos 12 meses. Sin embargo, las organizaciones dicen que se necesita más financiamiento, el 61% citando las limitaciones presupuestarias como un desafío y el 69% de los encuestados diciendo que necesitan hasta un 50% más de presupuesto.

Una vez que la empresa ya ha recibido un ataque, el siguiente paso es ‘Reaccionar’ adecuadamente. La gestión de la continuidad de negocio (Business Continuity Management – BCM por sus siglas en inglés) ha sido la principal habilidad de una organización para reaccionar ante una amenaza, ataque u otra interrupción en sus operaciones durante muchos años.

Aunque las capacidades de ‘Reacción’ se desempeñan bien en las clasificaciones de prioridad, el dinero invertido en esta área es aun relativamente bajo. Quedó claro que ‘Reacción’ es el área donde la mayor parte del trabajo todavía está por hacerse. Cuanto sea más claro que el escudo corporativo no puede resistir a todas las amenazas, más atención recibirá la capacidad de Reacción.

Los problemas de seguridad cibernética y los ataques causan miles de millones de dólares en pérdidas cada año. Está claro que hay problemas crecientes de seguridad cibernética. Y más allá de tener un impacto económico, también tienen un impacto en nuestra vida cotidiana, dado que nuestra dependencia de la tecnología sigue creciendo. En 2017, debemos trabajar juntos para cambiar esta situación antes de que empeore. Lampadia




Voto Electrónico: De ninguna manera

Voto Electrónico: De ninguna manera

Además de los países que han prohibido el uso del voto electrónico, ahora Holanda, a puertas de una elección muy importante, acaba de desechar el uso del software para contabilizar la votación.

Holanda a decidido cuidarse de los hackers, internos y externos (explicitamente de Rusia, que habría manipulado las elecciones estadounidenses). Esto demuestra la vulnerabilidad de los sistemas de software más sofisticados.

Fuente: The Indian Express

Hace 3 años, alertamos al país sobre la inconveniencia de usar el voto electrónico. Nuestra recomendación se basó en las limitaciones técnicas de seguridad y en la eventual manipulación política del voto de poblaciones que reciben apoyo social de manos de funcionarios del Estado, en efectivo y en especie. Ver en Lampadia: No al voto electrónicoEl voto electrónico es inaceptable para el PerúNo más voto electrónico y La peligrosa campaña por el voto electrónico.

Increíblemente, la primera declaración del nuevo jefe de la ONPE, Adolfo Carlo Magno Castillo Meza, fue sobre la universialización del voto electrónico para las próximas elecciones.

Desde estas páginas, hacemos un nuevo llamado al país, especialmente a los parlamentarios, para que no permitan que el Perú cometa tremendo error, qe puede, eventualmente, causar una crisis de legitimidad.

Holanda contará sus votos a mano 

Los ministros no quieren repetir la controversia entre Estados Unidos y Rusia en la encuesta de marzo, en la que el partido de extrema derecha de Geeert Wilders tiene altas posibilidades de llegar al poder.

El líder holandés de extrema derecha Geert Wilders con su contraparte francesa Marine Le Pen.
La elección holandesa en marzo da inicio a un año de elecciones clave en Europa
Fuente: Michael Probst / AP

The Guardian
Agence France-Presse
2 de febrero de 2017
Traducido y glosado por Lampadia

Las autoridades holandesas contarán a mano todos los votos emitidos en las elecciones generales del próximo mes, descartando el uso de software informático “vulnerable” para frustrar cualquier intento de hacking cibernético, dijo un alto ministro.

“No puedo descartar que los actores estatales puedan tratar de beneficiarse de influir en las decisiones políticas y la opinión pública en Holanda”, dijo el ministro del Interior Ronald Plasterk en una carta al Parlamento el miércoles.

El 15 de marzo, Holanda da inicio a un año de elecciones cruciales en Europa, que serán vigiladas de cerca por el surgimiento de partidos de extrema derecha y populistas en el continente.

Fuente: The Guardian

Los funcionarios holandeses ya están en alerta de cualquier señal de posible hacking informático tras las denuncias de agencias de inteligencia estadounidenses de que Rusia podría haber intervenido en las elecciones presidenciales de noviembre en Estados Unidos para ayudar a asegurar la victoria de Donald Trump. 

Plasterk dijo al parlamento que los temores sobre “las vulnerabilidades del software” utilizado por el comité electoral del país “habían planteado dudas sobre si las próximas elecciones podían ser manipuladas”.

Insistió en una carta a los diputados de que “no debería haber ninguna duda sobre los resultados” de las encuestas parlamentarias, que algunos analistas predicen podría dar lugar a una coalición de cinco partidos.

Por lo tanto, el Ministerio del Interior y el comité electoral decidieron “contabilizar los resultados basándose en un recuento manual”.

Plasterk dijo a la emisora ​​RTL que posibles actores externos incluían a Rusia. “Ahora hay indicios de que los rusos podrían estar interesados, para las siguientes elecciones debemos recurrir a los viejos métodos de lapicero y papel”, dijo.

Los holandeses anotarán sus votos en papel, que se contabilizarán a mano localmente. Sin embargo, la clasificación regional y nacional de los votos se realiza electrónicamente.

Unos 12.6 millones de votantes holandeses votarán para inaugurar una nueva cámara baja de parlamento de 150 asientos, con unos 31 partidos que se han registrado hasta ahora para presentar candidatos. El comité electoral decidirá el viernes cuántos a partidos se les permitirá participar.

El diputado de extrema derecha anti-islamista, Geert Wilders, y su Partido de la Libertad (PVV, por sus siglas en holandés) llevan meses liderando las encuestas de opinión, dejando en segundo lugar al Partido Liberal (VVD, por sus siglas en holandés) del primer ministro Mark Rutte.

Un total de sondeos pronosticó el miércoles que Wilders surgirá como el partido más grande con 27-31 escaños, con el partido de Rutte reuniendo sólo 23-27 escaños -ambos muy por debajo de la mayoría de 76 asientos necesaria. Tal resultado presagiaría un período de intensas negociaciones para formar el próximo gobierno. Lampadia




Una explicación integral sobre el desarrollo de la Inteligencia Artificial

Una explicación integral sobre el desarrollo de la Inteligencia Artificial

Una de las tecnologías más disruptivas para el futuro de la humanidad es la Inteligencia Artificial – específicamente, la perspectiva de la creación de la “Súper-Inteligencia Artificial” (ASI, por sus siglas en inglés: Artificial Super Intelligence), que puede llegar a tener una inteligencia miles de veces superior a la de los seres humanos, el Homo Sapiens, la especie dominante del planeta. Como dice el historiador israelita, Noah Yuval Harari en su libro ‘Sapiens’: “Será el diseño inteligente el principio básico de la vida? ¿El Homo Sapiens, será reemplazado por súper-humanos?”. (Ver en Lampadia: Del Homo Sapiens al Súper Humano.)

 A medida que la tecnología digital continúa mejorando exponencialmente en el tiempo, los futuristas y expertos en tecnología creen que la SIA podría ser una realidad mucho antes de lo que pensamos, en solo unas décadas.

La Inteligencia Artificial (IA) puede parecer un tema salido de una novela de ciencia ficción cuando, en realidad, ya vivimos y trabajamos con la IA todos los días. Nuestros celulares, autos, Google y muchas otra aplicaciones tecnológicas de uso cotidiano, son expresiones del desarrollo de la IA. Cuando se menciona casualmente, la IA inmediatamente trae todavía imágenes populares tales como 2001: Odisea del espacio, R2D2 y C3PO de Star Wars, Jarvis y Ultron del Universo Marvel o Robocop. La representación en ficción de la IA ha convencido a mucha gente que no será posible alcanzarla en nuestras vidas. Sin embargo, ahora, más que nunca, estamos al borde de la creación de un ser aún más sofisticado que nosotros mismos.

Muchas personas asocian los robots con IA. Un robot es sólo un contenedor y transportador de la inteligencia artificial. La IA es el cerebro del robot. John McCarthy, editor de un primer estudio de la IA, acuñó el término en 1956 y observa que “tan pronto como funcione, nadie volverá a llamarla IA.” Lo que significa que la gente toma la tecnología de la IA como algo común una vez que se integra en su vida diaria, al igual que las aplicaciones en un teléfono celular. McCarthy define la inteligencia artificial, “Necesitamos el uso de computadoras para entender la inteligencia humana, pero la IA no tiene que limitarse a métodos que son biológicamente observables”.

Un gran artículo del blog ‘Wait but Why?’ llamado: “La Revolución de la IA: El camino a la súper-inteligencia” (traducido y publicado por Lampadia) hace un análisis integral, con una perspectiva de su desarrollo, incluyendo opiniones de muchos expertos y explicando nuestro camino a la súper-inteligencia artificial: Qué es, cómo se está desarrollando y por qué es importante para el futuro de toda la humanidad. En pocas palabras, si/cuando logremos la ASI, ésta va a alterar de forma permanente de nuestra comprensión de lo que significa ser humano. Cualquier persona que se encuentra en la industria de la tecnología debería pensar un poco en las profundas cuestiones, los potenciales peligros y las muy interesantes posibilidades planteadas por la súper-inteligencia artificial. 

Según el artículo indicado, dado que el concepto de IA es tan amplio, los científicos han definido tres grandes categorías de la IA:

1. Inteligencia Artificial Estrecha (ANI, por sus siglas en inglés: Artificial Narrow Intelligence): Especializada en un área específica. Un Smartphone funciona con IA especializada. La IA (Watson de IBM) que puede vencer al campeón mundial de ajedrez o a los campeones de Jeopardy, son inmejorables en su especialidad, pero eso es lo único que saben hacer. Si le preguntas a ‘Watson’, cuál es la mejor manera de almacenar los datos en un disco duro, te mirará sin comprender.

2. Una Inteligencia Artificial General (AGI, por sus siglas en inglés: Artificial General Intelligence): Se refiere a una IA con múltiples capacidades que iguale la inteligencia de un ser humano en todos los ámbitos, una máquina que puede realizar cualquier tarea intelectual de la misma manera que un humano y puede aprender de su propia experiencia.

3. Una Súper Inteligencia Artificial (ASI, por sus siglas en inglés: Artificial Super Intelligence): Un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluyendo la creación científica, la sabiduría general y las habilidades sociales, según lo define Nick Bostrom, filósofo y analista de IA de Oxford.

Los seres humanos ya han conquistado de muchas maberas los desarrollos de menor calibre de ANI. La revolución de la IA es el camino de ANI, a través de AGI, hacia ASI, un camino que podemos o no sobrevivir, pero que, sin lugar a dudas, cambiará todo.

Científicos de todo el mundo están trabajando para pasar la primera etapa (De ANI a AGI). EEUU ha destinado más de 300 millones de dólares a la iniciativa llamada BRAIN (Cerebro, en inglés), que está trabajando en la ingeniería inversa del cerebro humano. Por otro lado, Europa tiene su propio ‘Human Brain Project’ con un presupuesto de mil millones de dólares para lograr el mismo objetivo de “construir un cerebro”.

¿Cómo lo harán? Para lograr la ASI, tendrán que hacerse grandes mejoras de hardware y software, mediante el aumento de velocidad, tamaño, almacenamiento, confiabilidad y durabilidad en cuanto al hardware; y la capacidad de auto-aprendizaje y auto-actualización del software.

Estas pueden parecer metas demasiado ambiciosas de lograr. Sin embargo, la comunidad científica ha hecho más avances en los últimos cincuenta años que en toda la historia humana anterior combinada. Los seres humanos tienen la tendencia a mirar hacia el futuro y extrapolarlo linealmente sobre la base de sus experiencias pasadas, pero la tecnología, como estableció la Ley de Moore, avanza de manera exponencial.

La siguiente ilustración gráfica interactiva muestra como avanza el crecimiento exponencial:

¿Cuánto tiempo pasará hasta que las computadoras tengan la misma

potencia que el cerebro humano?

El volumen del lago Michigan (en onzas) es aproximadamente el mismo que la capacidad de nuestro cerebro (en cálculos por segundo). La potencia de la computación se duplica cada 18 meses. A ese ritmo, se ve muy poco progreso durante mucho tiempo- y, de pronto, todo se terminó.

Como explica el artículo de Wait but Why?, algo que parece como muy lejano, puede estar muy cerca de lograrse, pero no tenemos perspectiva de la curva ascendente. Ver el siguiente gráfico:

La trayectoria de la historia más reciente a menudo cuenta una historia distorsionadaEn primer lugar, incluso una empinada curva exponencial parece lineal cuando sólo se mira a una pequeña porción de la misma, de la misma manera que si nos fijamos en un pequeño segmento de un círculo, se ve casi como una línea recta. En segundo lugar el crecimiento exponencial no es totalmente liso y uniforme. Kurzweil explica que el progreso ocurre en la “curvas S”:

Una S es creada por la ola de progreso cuando un nuevo paradigma se extiende por el mundo. La curva pasa por tres fases:

1. El crecimiento lento (la primera fase de crecimiento exponencial)

2. El crecimiento rápido (el tardío y explosivo crecimiento exponencial)

3. El nivelamiento cuando un paradigma en particular madura

Este fenómeno, llamado la ley de rendimientos acelerados por Kurzweil, es lo que hace que llegar a la ASI sea perfectamente posible en las próximas décadas. Una vez ahí, el avance va a cambiar la estructura misma de nuestra sociedad.

La inteligencia artificial, tan misteriosa y disruptiva, está revolucionando la forma en que conducimos nuestras vidas. Se están desarrollando inmensos esfuerzos en este campo, y no falta mucho para ver los resultados. Viviremos con robots, se habla de que no existirá la mortalidad, o que visitaremos una nueva galaxia virtualmente sin salir de nuestro hogar. Incluso lo que imaginamos en las películas de ciencia ficción se queda corto con lo que deparará el futuro.

Este fenómeno será tan impactante para la vida del ser humano, que no debemos dejar de informarnos sobre su desarrollo. Este artículo resume algunos conceptos y ejemplos del informe ‘Wait but Why?’ y recomendamos leerlo en su integridad.

Lampadia

 

 




Blogs desde Singularity University (Semana 5)

Blogs desde Singularity University (Semana 5)

Nuestros ingenieros peruanos, ganadores de la Competencia de Impacto Global (GIC, por sus siglas en inglés) Perú 2015, blogean desde Singularity University (SU), con sede en el Centro de Investigaciones de la NASA en Silicon Valley, Estados Unidos, contándonos sus experiencias.

Con el self-driving car! “Spared no expense”

Ambos comparten semanalmente, en sus blogs personales, sus experiencias con profesionales de todo el mundo, patrocinados por corporaciones y multinacionales como Google, Cisco, Genentech, Autodesk y 3DSystems entre otros. Ver también Semana 1, Semana 2, Semana 3 y Semana 4.

A continuación, en Lampadia glosamos anotaciones de sus blogs.

Quinta Semana en Singularity University: Panel del Espacio y Watson de IBM

Mónica Abarca

Link: https://medium.com/@monicaabarca92/quinta-semana-en-singularity-university-panel-del-espacio-y-watson-de-ibm-190a878a4edd

La semana empezó con una clase extraordinaria sobre prototipado rápido con Tom Chi. Nos habló sobre la importancia de ejecutar las ideas rápidamente mediante prototipado: “Pensar es una pésima manera de pensar, hacer es la mejor manera de pensar”. Hicimos un workshop de 20 minutos en el que pensamos en un problema, ideamos la solución, la prototipamos y la probamos con personas externas al grupo, ¡todo muy rápido!

Prototipado rápido con Tom Chi

El martes tuvimos un workshop muy divertido del track de Medicina y Neurociencia. Con mi grupo trabajamos alrededor del problema médico de aneurisma cerebral. Luego de debatir sobre las posibles causas, ideamos en grupo una solución muy interesante en tan solo 45 minutos: Ahead.

La solución consiste en hacer un mejor monitoreo mediante un dispositivo que se coloca en el smartphone con electrodos para medir la actividad cerebral y un lente que se coloca en la cámara del smartphone. Cuando uno tiene un fuerte dolor de cabeza, lo cual es síntoma de aneurisma cerebral, se coloca el dispositivo anclado al celular en la zona de la cabeza donde se manifiesta el dolor, de manera que se capte la actividad eléctrica del cerebro (EEG) y luego se toma una foto de los ojos, con nuestra lente especial, para poder determinar la presión intracraneal. Esta información se almacena, se compara con grandes bases de datos y mediante inteligencia artificial, nuestro software determinará si es necesario ir al doctor para una revisión preventiva. 

Ahead: Solución para aneurisma cerebral

El miércoles tuvimos la visita de Katie Weimer de 3DSystems. Katie nos contó sobre cómo se está usando la impresión 3D en temas médicos. Actualmente imprimen yesos personalizados para los pacientes, herramientas especiales para los médicos e incluso imprimen los problemas de los pacientes complicados, como por ejemplo tumores, para que los médicos lo puedan estudiar y puedan practicar antes de operar.

El día siguió mejorando, en la tarde tuvimos la visita de Rob High quien es el CTO de Watson en IBM. Watson es un sistema cognitivo de inteligencia artificial que busca conectar a las personas y las computadoras. Watson observa, interpreta, evalúa y decide según una gran base de datos que maneja y que contiene información desde investigaciones científicas hasta tweets. Tuvimos un workshop en el cual nos explicaron cómo funciona Watson y qué se debe saber para crear una aplicación basada en Watson.

El viernes fue el día límite para la formación de los equipos de trabajo para los proyectos. ¡Pronto les contaremos sobre nuestro proyecto!

Singularity University: Semana 5

Adolfo Valdivieso

Link: https://medium.com/@adolfovaldi/singularity-university-semana-5-f0a967fd46f3

Los puntos más altos de la semana: la visita de Tom Chi (responsable del prototipado del Google Glass), SUinder (la aplicación que hicimos para ayudar con el proceso de formación de equipos), la formación de nuestro equipos.

El lunes tuvimos a Tom Chi, ex-director de producto y experiencia de usuario en Yahoo y parte del equipo que diseño el Google Glass en Google X. Con él exploramos su experiencia en prototipado rápido.

El martes, develamos los resultados de SUinder. SUinder es una aplicación que nació como idea de un taller de ideación en aplicaciones moviles. Es una idea de usar el mismo mecanismo de funcionamiento de Tinder (aplicación para descubrir gente con la que te sientes atraído mutuamente).

Durante el fin de semana, junto con una compañera construimos SUinder. Ella desarrollo el front-end y yo el back-end. Prrimero llenamos un spreadsheet donde cada uno escribía los desafíos, tecnologías en los que nos sentíamos interesados, expectativas acerca del proyecto, el equipo, tu experiencia previa y tus planes para el futuro. Cuando ingresabas a SUinder te mostraba aleatóreamente el perfil de uno de los participantes y aquí puedes elegir YES, si te interesa trabajar con esta persona y NO, si no te interesa trabajar con ella. El martes luego de medianoche recibías un mail con tus coincidencias (los participantes con los que quieres trabajar y que también quieren trabajar contigo).

El resultado fue genial. Muchas personas me agradecieron por haberme tomado el tiempo de construirlo. Y Nick Haan, director de GGC en SU, me pidió una reunión para sentar las bases para utilizar esta herramienta en los siguientes programas.

El viernes era el día final para registrar nuestro equipo. Todo comenzó con una conversación con una compañero brasileño, Francisco Barreto, phd en epistemología. Le mostré Tullpi, el proyecto de juegos matemáticos que combinan elementos tangibles y juegos digitales. Luego de hacerle un demo, quedó fascinado.

Él estuvo trabajando en un piloto para Rio de Janeiro, en donde buscan ayudar a los padres de fabelas a educar mejor a sus niños entre 0 y 3 años. Nuestro interés común en educación temprana nos unió y decidamos tomar esto como base para armar nuestro equipo. Ambos coincidimos que necesitábamos a Samuel Scheer, un chico austrico que corre su propio negocio desde los 20, estudió negocios en Suiza y tiene la mejor memoria que conozco: el primer día de clases fue capaz de recordar 75 nombres de los 80 participantes del programa.

Nuestro último jale fue Samar Samir, ingeniera electrónica de Arabia del Sur.

Nos une la pasión por la educación y su capacidad de transformar la vida de las personas.

Hemos empezado a explorar los problemas en este campo. Les tendré más noticias pronto 🙂