1

Elon Musk haría Twitter más abierto

Elon Musk haría Twitter más abierto

El gran innovador y disruptor sudafricano no quiere que las redes sociales sigan en su modorra controlista. “Mi fuerte sentido intuitivo es que tener una plataforma pública que sea de máxima confianza y ampliamente inclusiva es extremadamente importante para el futuro de la civilización. No me importa la economía en absoluto”.

  • Elon Musk revolucionó la industria del automóvil marcando el camino de la transición a los autos eléctricos, que hoy todos siguen.
  • Reconvirtió la industria aeroespacial haciendo cohetes reusables de bajo costo.
  • Sus agallas lo llevan ahora a apostar por la compra de Twitter (US$ 44,000 millones), sin aparentemente importarle las economías de la operación. Su ambición sería promover la inclusión y la libertad de expresión en el mundo de las redes sociales.

Sus antecedentes hacen que todo el mundo tome muy en serio esta nueva aventura. En primera instancia va a tener que enfrentar a los reguladores, especialmente a los europeos, que van en la dirección contraria a la de Musk, fijar reglas y más reglas. Y a todos los que se han aupado en la vorágine controlista y de lo políticamente correcto.

Por ejemplo, Facebook en el Perú, le ha encargado la supervisión de contenidos de los posts, al diario La República, que está comprometido políticamente, es obtusamente gobiernista y no se distingue precisamente por promover la veracidad, el gato de despensero.

Estamos seguros que el nuevo Twitter marcará la pauta de la libertad de expresión. Alas y buen destino Elon Musk. Lampadia

El tecno-rey de Twitter

Elon Musk quiere rediseñar la “plaza pública”

El ingeniero más conocido del mundo se plantea otro gran problema que resolver

The Economist
30 de abril de 2022

Las llorosas declaraciones sobre el futuro de la humanidad no suelen aparecer en los debates sobre adquisiciones apalancadas. Pero Elon Musk nunca se ha sentido atado por las convenciones. Cuando se le preguntó acerca de sus planes para comprar Twitter y hacerla privada, que fueron aprobados por el directorio de la empresa el 25 de abril, fue directo a la gran idea. “Mi fuerte sentido intuitivo es que tener una plataforma pública que sea de máxima confianza y ampliamente inclusiva es extremadamente importante para el futuro de la civilización. No me importa la economía en absoluto”.

Comparado con sus rivales, Facebook, Instagram y TikTok, Twitter es un pececillo. Pero el trato importa. Una de las razones es que el tamaño de Twitter desmiente su importancia. Como un lugar predilecto de políticos, expertos y expertos, hace mucho para establecer el clima político: una “plaza pública” digital, como lo expresó Musk.

Otra es que Musk hizo su nombre y su fortuna trastornando industrias. Esta vez, se enfrentará a un problema complicado de gran interés para los gobiernos de todo el mundo: cómo regular el discurso en línea. La mayoría prescribe cada vez más reglas. Pero Musk quiere ir por el otro lado, eliminando las restricciones en lugar de imponer otras nuevas. Los operadores de otras grandes redes sociales estarán atentos al experimento.

A primera vista, Musk, mejor conocido por los autos eléctricos y los cohetes reutilizables, parece un improbable magnate de las redes sociales. Pero una mirada más cercana sugiere que su adquisición de Twitter se ajusta a su enfoque empresarial. Musk, un ingeniero apasionado, le gusta tomar tecnologías de bajo rendimiento y mejorarlas. 

Tesla rompió el libro de reglas de la industria automotriz al reemplazar la gasolina con electricidad, deshacerse de los concesionarios y tratar a los automóviles como computadoras. SpaceX demostró que una startup hambrienta, que se mueve rápido y rompe cosas con un presupuesto relativamente reducido podría superar a los gigantes aeroespaciales que se volvieron cautelosos y gordos gracias a los generosos contratos gubernamentales. Ambas firmas fueron despedidas por titulares más grandes, hasta que un día no lo fueron.

Toda esa ingeniería y disrupción está animada por la propia concepción, a veces idiosincrásica, del bien social de Musk. 

El propósito de Tesla es empujar al mundo más rápidamente hacia una economía libre de carbono (un objetivo reivindicado por la velocidad a la que otros fabricantes de automóviles ahora están girando hacia los vehículos eléctricos). La ambición de SpaceX es tan grandiosa que a algunos comentaristas les cuesta creer que Musk sea sincero: establecer una presencia humana en Marte, algo que, si ocurriera una catástrofe en la Tierra, algún día podría resultar ser una póliza de seguro para la civilización.

Supongamos que Musk realmente está dispuesto a gastar miles de millones de dólares de su propio dinero para asegurar el “futuro de la civilización” (aunque tiene una cláusula de ruptura en caso de que se acobarde). La pregunta es si su visión de la libertad de expresión en Twitter es sensata.

Twitter se ajusta al patrón de Tesla y SpaceX, ofreciendo a Musk otro complejo sistema de ingeniería con el que jugar, y una gran razón para hacerlo. Las redes sociales implementan algoritmos para resaltar el contenido “atrayente”, utilizando una maraña de reglas que intentan mitigar los peores efectos secundarios, para vender mejor a los usuarios y a los anunciantes. Es un modelo de negocio lleno de inconsistencias y compensaciones no examinadas que parece listo para la disrupción. Que Musk quiera ser su agente tal vez no sea una sorpresa, ya que se inició como emprendedor en la década de 1990, cuando el tecno libertarismo y la lucha contra la censura eran las ideas que animaban Internet.

El hecho de que Musk sea multimillonario no debería descalificarlo para ser propietario de una importante empresa de medios. Ya ha expuesto algunas ideas para Twitter, muchas de ellas prudentes y sensatas. El alboroto resultante muestra cuán antiliberal se ha vuelto gran parte de la opinión en línea. Quiere menos prohibiciones directas y más suspensiones temporales. Los usuarios deben demostrar que no son bots. En caso de duda, opta por dejar los tweets, no eliminarlos.

Más importante aún, cree que los engranajes y engranajes del algoritmo de recomendación de Twitter, que decide qué tuits ve un usuario, deberían ser públicos. 

Los investigadores podrían examinarlo; otros programadores podrían modificarlo. Una versión menos propensa a promocionar contenido “interesante” (lo que, en la práctica, a menudo significa tuits que enfurecen, son controvertidos o simplemente tontos) podría bajar la temperatura de toda la plataforma, lo que facilitaría el trabajo de moderación y posiblemente llevaría a un debate que es más pensativo. O tal vez Twitter podría convertirse en una plataforma abierta, donde diferentes usuarios pueden elegir uno de los muchos algoritmos de terceros diferentes, o ninguno, según sus gustos. La moderación del contenido es el producto desordenado de las presiones políticas y sociales. Será fascinante ver con qué facilidad sucumbe a la ingeniería.

Musk no tendrá las manos completamente libres. Australia, Gran Bretaña, la UE e India han estado trabajando en la regulación tecnológica. Thierry Breton, un alto funcionario de la UE, señaló que “no son las reglas [del señor Musk] las que se aplicarán aquí”. Los otros inversores de Musk están nerviosos. Cuanto más tiempo dedique a Twitter, menos tendrá para sus otros emprendimientos. Las acciones de Tesla cayeron un 12% después de la noticia del acuerdo de Twitter.

La personalidad de Musk plantea un gran riesgo. Es inteligente, motivado y ferozmente trabajador. También puede ser pueril y vengativo, rasgos que se exhibieron en 2018 cuando acusó a un experto británico en rescate de cuevas, sin pruebas, de ser un “pedófilo”. Tales arrebatos son algo que viene de un usuario de Twitter con muchos seguidores. Pero cuando sea el dueño, surgirán dudas sobre si podrá resistir la tentación de explotar su nueva posición para perseguir sus propias obsesiones y vendettas.

El pájaro y el roble

Este periódico comparte las convicciones de libertad de expresión de Musk. Nadie tiene el monopolio de la sabiduría. Los expertos a veces se equivocan y los fanfarrones a veces tienen razón. Incluso en la era de Internet, la mejor respuesta a un mal argumento es una mejor. La moderación en muchas plataformas se ha vuelto de mano dura y aplicada arbitrariamente. Si el talento de Musk para sacudir las industrias puede ayudar a cortar el nudo gordiano del discurso en línea, todos se beneficiarán.

Pero también estamos interesados ​​en otro principio liberal, que las instituciones deberían ser más grandes que la persona que las dirige. Musk puede establecer nuevas reglas, pero debe verse que no desempeña ningún papel en su aplicación. Si realmente quiere convencer a los usuarios de que será un guardián imparcial de su “plaza pública digital”, podría implementar sus reformas y luego congelar su propia cuenta. Lampadia




No al desarrollo de armas autónomas

No al desarrollo de armas autónomas

El desarrollo de las tecnologías de la ‘Cuarta Revolución Industrial’, como toda revolución tecnológica, ofrece aportes positivos para la humanidad, pero también riesgos. Estos pueden referirse, como muchos temen, a eliminar los empleos tradicionales sin que se consoliden nuevas fuentes de empleo; al desarrollo de robots con IA (inteligencia artificial) que puedan actuar sin supervisión humana y sin el establecimiento de reglas de ética que limiten comportamientos violentos; o, como en el caso que nos ocupa, al desarrollo de armas autónomas que puedan ser utilizadas por líderes desquiciados, terroristas o antisociales.

Líneas abajo compartimos las cartas promovidas por ElonMusk, creador y CEO Tesla, desde el ‘Future of LifeInstitute’ (Instituto de la Vida Futura), acompañadas por las firmas de 3,105 expertos en el desarrollo de Inteligencia Artificial y Robótica y 17,701 líderes globales en distintas disciplinas, como el físico Stephen Hawking, Steve Wozniak, cofundador de Apple, ….., Peter Diamandis, de XPRIZE y SingularityUniversity, entre otras notabilidades.

“Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimiento de poblaciones y eliminación selectiva de determinados grupos étnicos”. Dice ElonMusken una de las misivas.“Las armas letales autónomas amenazan con convertirse en la tercera revolución en la guerra. Una vez desarrolladas, permitirán que el conflicto armado se libere a una escala mayor que nunca, y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender”, recalcó recientemente.

Una de las cartas promueve las adhesiones de todas las personas conscientes de los riesgos señalados. Para firmarlo, se puede llenar el formulario aquí abajo:

Invitamos a nuestros lectores a unirse a esta iniciativa en pro de la vida y el buen uso de las tecnologías. Lampadia

Carta abierta a la Convención de las Naciones Unidas sobre ciertas armas convencionales

Elon Musk
Future of Life Institute
20 de agosto de 2017
Traducido y glosado por
Lampadia​

Como empresas que desarrollamos las tecnologías de Inteligencia Artificial (IA) y Robótica, que pueden ser reutilizadas para desarrollar armas autónomas, nos sentimos especialmente responsables al levantar esta alarma.

Acogemos la decisión de la Conferencia de las Naciones Unidas sobre la Convención sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) de establecer un Grupo de Expertos Gubernamentales (GGE, por sus siglas en inglés) sobre Sistemas de Armas Letales Autónomas. Muchos de nuestros investigadores e ingenieros están ansiosos por ofrecer asesoramiento técnico a sus deliberaciones.

Felicitamos al nombramiento del Embajador Amandeep Singh Gill, de la India, como Presidente del GGE. Instamos a las Altas Partes Contratantes que participan en el GGE a que trabajen arduamente en la búsqueda de medios para impedir una carrera de armamentos en estas armas, proteger a los civiles de su uso indebido y evitar los efectos desestabilizadores de estas tecnologías.

Lamentamos que la primera reunión del GGE, que debía comenzar hoy, haya sido cancelada debido a que un pequeño número de Estados no han pagado sus contribuciones financieras a la ONU. Instamos a las Altas Partes Contratantes a que, por lo tanto, dupliquen sus esfuerzos en la primera reunión del GGE prevista para noviembre.

Las armas letales autónomas amenazan con convertirse en la tercera revolución en la guerraUna vez desarrolladas, permitirán que el conflicto armado se libere a una escala mayor que nunca, y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender. Pueden ser armas de terror, armas que los déspotas y los terroristas usen contra poblaciones inocentes, y armas para comportarse de manera indeseable. No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil de cerrar. Por lo tanto, imploramos a las Altas Partes Contratantes que encuentren una manera de protegernos a todos de estos peligros.

Armas Autónomas: Una carta abierta de los investigadores IA & Robótica

Elon Musk
Future of Life Institute
Julio de 2015
Traducido y glosado por Lampadia

Esta carta abierta fue anunciada el 28 de julio en la apertura de la conferencia IJCAI 2015 el 28 de julio.

Las armas autónomas seleccionan y ajustan objetivos sin intervención humana. Pueden incluir, por ejemplo, cuadriciclos armados que pueden buscar y eliminar personas que cumplan ciertos criterios predefinidos, pero no incluyen misiles de crucero o aviones teledirigidos, los cuales son dirigidos por los seres humanos, quienes toman todas las decisiones. La tecnología de Inteligencia Artificial (IA) ha alcanzado un punto en el que el despliegue de estos sistemas es prácticamente (si no legalmente) factible en años, no décadas, y los riesgos son altos: las armas autónomas han sido descritas como la tercera revolución en la guerra, después de la pólvora y las armas nucleares.

Muchos argumentos se han hecho a favor y en contra de las armas autónomas, por ejemplo, que la sustitución de los soldados humanos por las máquinas es buena, reduciendo las bajas de personas, pero malo porque reduce el umbral para ir a la batalla. Hoy en día, la pregunta clave para la humanidad es si debemos iniciar una carrera armamentista global de la IA o impedir que comience. Si cualquier potencia militar importante avanza en el desarrollo de las armas de AI, una carrera de armamentos mundial es prácticamente inevitable y el punto final de esta trayectoria tecnológica es obvia: las armas autónomas se convertirán en los Kalashnikov de mañana. A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener, por lo que se convertirán en ubicuas y baratas para que todas las potencias militares significativas las produzcan en masa. Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en manos de terroristas, dictadores que deseen controlar mejor a su población, hombres de la guerra que deseen perpetrar limpiezas étnicas, etc. Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimientode poblaciones y eliminación selectiva de determinados grupos étnicos. Por lo tanto, creemos que una carrera armamentista militar de IA no sería beneficiosa para la humanidad. Hay muchas maneras en que la IA puede hacer que los campos de batalla sean más seguros para los humanos, especialmente para los civiles, sin crear nuevas herramientas para matar a la gente.

Al igual que la mayoría de los químicos y biólogos no tienen ningún interés en la construcción de armas químicas o biológicas, la mayoría de los investigadores de IA no tienen interés en la construcción de armas de IA – y no quieren que otros empañen su campo al hacerlo, potencialmente creando una gran reacción pública en contra de la IA que podría restringirsus futuros beneficios sociales. De hecho, los químicos y los biólogos han apoyado ampliamente los acuerdos internacionales que han prohibido con éxito las armas químicas y biológicas, al igual que la mayoría de los físicos apoyaron los tratados que prohíben las armas nucleares espaciales y las cegadoras armas láser.

En resumen, creemos que IA tiene un gran potencial para beneficiar a la humanidad de muchas maneras y que la meta de quienes están involucrados en el sector debe ser lograrlo. Comenzar una carrera armamentista militar de IA es una mala idea y debe ser prevenida por una prohibición de armas autónomas ofensivas más allá de un control humano significativo. Lampadia

 




¿Cómo se le enseña la moral a un robot?

¿Cómo se le enseña la moral a un robot?

El mundo está cambiando y cada vez dependemos más de la tecnología, que  avanza a pasos agigantados. La inteligencia artificiales una de las áreas más importantes del desarrollo tecnológico, pero traen amenazas que deben preveerse. Stephen Hawking, Elon Musk y Simon Parkin (autor del artículo que compartimos líneas abajo), plantean importantes cuestionamientos al respecto.

El uso de máquinas que están programadas para pensar y actuar con un cierto nivel de inteligencia “humana” y autonomía se conoce como inteligencia artificial (AI). Nuestras vidas están cambiando radicalmente por esta tecnología, y ya se utiliza en una amplia gama de servicios cotidianos. Muchas aplicaciones en computadoras, celulares y retailers son diseñadas para buscar patrones en el comportamiento del usuario y luego reaccionar a ellos. También están programadas para utilizar la información almacenada en sus bases de datos para mejorar la reacción a los comandos y predecir ciertas conductas.

Fuente: 1843magazine.com

Como dice Parkin, “La mayoría de los avances en los campos de la genética, la nanotecnología y la neurofarmacología, si se consideran aisladamente, parecen no tener una dimensión moral, y mucho menos social. Sin embargo, cuando las tecnologías resultantes se mezclan y son administradas por AIs, el peligro es que descubrimos que nuestro progreso tecnológico ha superado nuestra preparación moral.”

Una manera de controlar la AI fue propuesta por Isaac Asimov (en 1942) en sus Tres Leyes de la Robótica:

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser
humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas
órdenes entrasen en conflicto con la 1ª Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no
entre en conflicto con la 1ª o la 2ª Ley.

Otro enfoque, actual, es el motivacional: con el diseño de un sistema que aprenda a través del tiempo al igual que los seres humanos y adquieran valores a medida que maduran. El problema es que los científicos no saben realmente cómo funciona esto en los seres humanos.

La humanidad está a punto de dar nuevos saltos en su calidad de vida por los avances tecnológicos que están empezando a masificarse. (Ver en Lampadia: Robots ingresan a la fuerza laboral). Esto nos lleva a debatir seriamente los aspectos éticos del uso de las nuevas tecnologías y su posible amenaza. Aunque ya podríamos estar un poco tarde.

Más allá de los miedos tradicionales al cambio, la reacción estratégica debiera ser la de prepararse para adaptar las nuevas tecnologías a procesos que limiten posibles consecuencias indeseadas de su desarrollo. Debemos empezar a prepararnos, y analizar posibles alternativas para el control esta gran tecnología, que promete increíbles oportunidades para el futuro.

La Revolución Tecnológica, con la robótica, la inteligencia artificial, Big Data, algoritmos, realidad virtual y realidad aumentada, tiene la capacidad potencial de producir procesos imposibles de ser controlados por los seres humanos. Por lo tanto, es menester que, sin perder más tiempo, nos aboquemos a establecer paradigmas y mecanismos que den cierta seguridad para evitar desarrollos que más tarde no podamos controlar. Lampadia

Enseñándole a los robots la diferencia entre lo bueno y lo malo

La inteligencia artificial está superando a la clase humana en una gama de campos cada vez mayor; pero, ¿cómo podemos asegurarnos de que se comporte de manera moral? Simon Parkin conversa con las personas que están intentando enseñarle ética a las computadoras.


Fuente: 1843magazine.com

Revista 1843 – The Economist
Simon Parkin
Junio/julio, 2017
Traducido y glosado por
Lampadia

Hace más de 400 años, de acuerdo a las leyendas, un rabino se arrodilló junto a las orillas del río Vltava en lo que ahora se conoce como la República Checa. Sacó unos puñados de arcilla del agua y cuidadosamente los acomodó en la forma de un hombre. Los judíos de Praga, falsamente acusados ​​de usar la sangre de los cristianos en sus rituales, estaban siendo atacados. El rabino, Judah Loew ben Bezalel, decidió que su comunidad necesitaba un protector más fuerte que cualquier humano. Inscribió la palabra hebrea para “verdad”, emet, en la frente de su creación y colocó en su boca una cápsula inscrita con una fórmula cabalística. La criatura saltó a la vida.

El Golem patrulló el ghetto, protegiendo a sus ciudadanos y realizando trabajos útiles: barrer las calles, transportar agua y cortar leña. Todo fue armonioso hasta el día en que el rabino olvidó inhabilitar el Golem para el Sabbath, como era requerido, y la criatura se volvió en un asesino. El rabino se vio obligado a borrar la letra inicial de la palabra en la frente del Golem para volverla ‘met’, la palabra hebrea para “muerte”. La vida se deslizó del Golem y se volvió polvo.

Este cuento, que muestra los riesgos de construir un sirviente mecánico a la imagen del hombre, ha ganado popularidad en la edad de la inteligencia artificial. Legiones de robots ahora llevan a cabo nuestras instrucciones irreflexivamente. ¿Cómo nos aseguramos de que estas criaturas, sin importar si están construidas de arcilla o silicio, funcionen siempre en nuestro mejor interés? ¿Debemos enseñarles a pensar por sí mismas? Y, si es así, ¿cómo vamos a enseñarles lo correcto y lo incorrecto?

En 2017, estas son preguntas urgentes. Los automóviles sin conductor han acumulado millones de millas en nuestras carreteras mientras toman decisiones autónomas que podrían afectar la seguridad de otros usuarios humanos. La robótica en Japón, Europa y Estados Unidos está desarrollando robots para proporcionar atención a adultos  mayores y discapacitados. Uno de estos robots de servicio, que fue lanzado en 2015, se llamó Robear (tenía la cara de un cachorro de oso polar), es lo suficientemente fuerte como para levantar a los pacientes frágiles de sus camas; y, si puede hacer eso, también puede, posiblemente, aplastarlos. Desde el año 2000, el ejército estadounidense ha desplegado miles de robots equipados con ametralladoras, cada uno capaz de localizar objetivos y apuntarlos sin la necesidad de implicación humana (sin embargo, no se les permite tirar del gatillo sin supervisión).

Algunas figuras públicas también han alimentado la sensación de temor que rodea la idea de máquinas autónomas. Elon Musk, un empresario de tecnología, afirmó que la inteligencia artificial (IA) es la mayor amenaza existencial para la humanidad. El verano pasado, la Casa Blanca encargó cuatro talleres para que los expertos discutieran esta dimensión moral de la robótica. Como dice Rosalind Picard, directora del Grupo de Computación Afectiva del MIT: “Cuanto mayor sea la libertad de una máquina, más necesitará estándares morales”.

En un futurista complejo de oficinas en el serpenteante río Vltava, cerca de donde el rabino esculpió su Golem, se escucha el zumbido de un banco de computadoras. Son unos extraños profesores, pero son tan dedicados como cualquier humano a la noble tarea de la educación. Sus estudiantes no se sientan delante de la pantalla de cada computadora, sino más bien en sus discos duros. Esta escuela virtual, que lleva el nombre de GoodAI [de good (buena) artificial inteligence], se especializa en la educación de inteligencias artificiales (IAs): enseñándoles a pensar, razonar y actuar. La visión global de GoodAI es entrenar inteligencias artificiales en el arte de la ética. “Esto no significa que la pre-programación de AI siga un conjunto de reglas prescritas donde les decimos qué hacer y qué no hacer en cada situación posible”, dice Marek Rosa, un exitoso diseñador de videojuegos eslovaco y fundador de GoodAI, quien ha invertido 10 millones de dólares en la compañía. “Más bien, la idea es capacitarlos para aplicar sus conocimientos a situaciones que nunca han vivido”.

Los expertos coinciden en que el enfoque de Rosa es razonable. “Intentar preprogramar cada situación que una máquina ética pueda encontrar no es trivial”, explica Gary Marcus, un científico cognitivo de NYU y CEO y fundador de Geometric Intelligence. “¿Cómo, por ejemplo, se programa en una noción como ‘equidad’ o ‘daño’? Ni tampoco, señala, este enfoque de codificación explica los cambios en las creencias y actitudes. “Imagínese si los fundadores estadounidenses hubieran congelado sus valores, permitiendo la esclavitud, menos derechos para las mujeres y así sucesivamente. En última instancia, queremos una máquina capaz de aprender por sí misma.”

Rosa ve a la IA como un niño, una pizarra en blanco sobre la cual se pueden inscribir los valores básicos y que, con el tiempo, podrá aplicar esos principios en escenarios imprevistos. La lógica es buena. Los seres humanos adquieren una sensación intuitiva de lo que es éticamente aceptable observando cómo se comportan los demás (aunque con el peligro de que podamos aprender un mal comportamiento cuando se nos presenta con modelos erróneos).

GoodAI monitorea la adquisición de valores proporcionando un mentor digital, y luego lentamente aumenta la complejidad de las situaciones en las que la IA debe tomar decisiones. Los padres no dejan que sus hijos crucen una autopista, sostiene Rosa. En su lugar, les enseñan primero a cruzar una calle. “De la misma manera, exponemos a la IA a entornos cada vez más complejos donde puede basarse en conocimientos previamente aprendidos y recibir retroalimentación de nuestro equipo”.

GoodAI es sólo una de varias instituciones dedicadas a comprender la dimensión ética de la robótica que ha surgido en todo el mundo en los últimos años. Muchas de estas instituciones gozan de títulos grandiosos y premonitorios: El Instituto del Futuro de la Vida, el Grupo de Robótica Responsable y la Iniciativa Global sobre Sistemas Éticos Autónomos. Hay una serie de ideas en circulación sobre la mejor manera de enseñar moralidad a las máquinas. Rosa tiene una, Ron Arkin otra.

Arkin es un robo-eticista calvo de aproximadamente 60 años, con grandes ojos detrás de enormes lentes. Él enseña Ética de la Computadora en Georgia Tech en Atlanta, pero su trabajo no se limita al aula. La investigación de Arkin ha sido financiada por una variedad de fuentes, incluyendo el Ejército de los Estados Unidos y la Oficina de Investigación Naval. En 2006 recibió fondos para desarrollar hardware y software que harán que las máquinas de combate robóticas sean capaces de seguir los estándares éticos de la guerra. Ha argumentado que los soldados robots pueden ser éticamente superiores a los humanos. Después de todo, no pueden violar, saquear o quemar un pueblo por motivos de cólera o ira.

Enseñar a los robots cómo comportarse en el campo de batalla puede parecer sencillo, ya que las naciones crean reglas de compromiso siguiendo las leyes acordadas internacionalmente. Pero no todos los escenarios posibles en el campo de batalla pueden ser previstos por un ingeniero, al igual que no todas las situaciones éticamente ambiguas están cubiertas por, digamos, los Diez Mandamientos. ¿Debe un robot, por ejemplo, disparar contra una casa en la que un objetivo de alto valor está compartiendo una comida con civiles? ¿Debería prestar apoyo a un grupo de cinco reclutas de bajo rango en un lado de una ciudad asediada, o un oficial de alto rango en el otro? ¿Debería tomarse la decisión sobre una base táctica o moral?

Para ayudar a los robots y sus creadores a navegar por estas cuestiones en el campo de batalla, Arkin ha estado trabajando en un modelo que difiere del de GoodAI. El “adaptador ético”, como se le conoce, busca simular las emociones humanas, en lugar de emular el comportamiento humano, para ayudar a los robots a aprender de sus errores. Su sistema permite que un robot experimente algo similar a la culpa humana. “La culpa es un mecanismo que nos desalienta de repetir un comportamiento particular”, explica. Es, por lo tanto, una herramienta de aprendizaje útil, no sólo en humanos, sino también en robots.

“Imagina que un agente está en el campo y realiza una evaluación de daños de combate antes y después de disparar un arma”, explica Arkin. “Si el daño de la batalla ha sido excedido por una proporción significativa, el agente experimenta algo análogo a la culpabilidad.” Por ejemplo, el sentimiento de culpa aumenta cada vez, si hay más daño colateral de lo que se esperaba. “En cierto umbral el agente dejará de usar un sistema de armas particular. Pero, más allá de eso, dejará de usar las armas por completo. “Mientras que la culpa que un robot podría sentir se simula, los modelos son, sin embargo, tomados de la naturaleza y, al igual que en los seres humanos, tienen una estructura tripartita: La creencia de que una norma ha sido violada, preocupación por las acciones de uno mismo, y un deseo de volver al estado anterior.

Es una solución ingeniosa, pero no una sin problemas. Por un lado, el modelo de culpabilidad requiere que las cosas salgan mal antes de que el robot pueda modificar su comportamiento. Eso podría ser aceptable en el caos de la batalla, donde el daño colateral no es totalmente inesperado. Pero en los hogares y hospitales civiles, o en las carreteras, la tolerancia del público por errores mortales robóticos es mucho menor. Es más probable que un robot asesino sea desensamblado a que se le ofrezca la oportunidad de aprender de sus errores.

Desde las aulas virtuales hasta la culpa simulada, los enfoques para enseñar la moral del robot son variados, embrionarios y, en cada caso, vienen acompañados de distintos problemas. En Georgia Tech, Mark Riedl, director del EntertainmentIntelligenceLab, está probando un método que encuentra su inspiración no en el aula sino en la biblioteca.

Al leer miles de historias de IAs, y permitirles elaborar un conjunto de reglas para el comportamiento basado en lo que encuentran, Riedl cree que podemos comenzar a enseñar a los robots cómo comportarse en una gama de escenarios, desde una cena hasta durante el robo de un banco. Una gama de organizaciones y compañías como DARPA, la agencia de I + D del Departamento de Defensa de EE.UU., el Ejército de Estados Unidos, Google y Disney financian el trabajo del equipo.

Cuando nos reunimos en un restaurante cerca de su laboratorio, Riedl comentó que está de acuerdo con la filosofía básica de GoodAI. “Es cierto: la respuesta a todo esto es criar a los robots como niños”, dice. “Pero no tengo 20 años para criar un robot. Es un proceso que consume mucho tiempo y es costoso. Criar a un úniconiño es todo lo que puedo manejar. Mi idea era usar las historias como una forma de acortar este proceso de aprendizaje”.

Riedl llegó a esta idea mientras investigaba cómo se podrían utilizar las historias para enseñarle a las IA las reglas de las situaciones sociales humanas. “Si Superman se viste como Clark Kent y se reúne con alguien para cenar, tienes esta pequeña demostración de lo que la gente hace cuando entra en un restaurante”, dice Riedl. Toman un asiento. Pedimos sus bebidas antes de la comida. Estos son los valores sociales, en términos del orden en que nos gusta hacer las cosas. Ahora, por lo general no hay dilema ético en términos de restaurantes. Pero hay señales, tales como: “¿Por qué no fueron a la cocina y buscaron la comida?” No podría decirle a una IA por qué no, pero puedo demostrar que eso no es lo que se supone que debes hacer”.

Riedl consigue una multitud de fuentes de historias en Amazon’s Mechanical Turk. “Instruimos a los trabajadores de Amazon a describir una historia típica sobre un tema dado, como ir a un restaurante”, explica Riedl. Los participantes a veces reciben un personaje y, usando un formato, deben llenar campos en blanco con fragmentos de la historia (por ejemplo, “Mary entró en el restaurante.” “Mary esperó para sentarse.” “Mary se quitó el abrigo y ordenó una bebida”. Los algoritmos de procesamiento del lenguaje natural buscan frases de diferentes historias que son similares entre sí y, a partir de esa información, empiezan a sacar conclusiones sobre reglas y normas sociales.

Una IA que lee cien historias sobre robar versus no robar puede examinar las consecuencias de estas historias, entender las reglas y resultados, y comenzar a formular un marco moral basado en la sabiduría de las multitudes. “Tenemos estas reglas implícitas que son difíciles de anotar, pero los protagonistas de los libros, la televisión y las películas ejemplifican los valores de la realidad. Comienzas con historias sencillas y luego progresas a historias de jóvenes adultos. En cada una de estas situaciones se observan situaciones morales cada vez más complejas”.

Aunque difiere conceptualmente de los GoodAI’s, el enfoque de Riedl cae en la disciplina del aprendizaje automático. “Piense en esto como la identificación de patrones, que es lo que se trata gran parte del aprendizaje de las máquinas”, dice. “La idea es que le pidamos a la IA que mire a mil diferentes protagonistas que están experimentando maso menos el mismo dilema. Entonces, la máquina puede calcular la media de las respuestas y formular valores que coincidan con lo que la mayoría de la gente diría que es la manera “correcta” de actuar.

Hay una cierta simetría poética para la solución: del Golem al monstruo de Frankenstein y más allá, los seres humanos siempre han recurrido a historias al imaginar el impacto monstruoso de sus creaciones. Al igual que hay conclusiones sombrías en estas historias, también hay una preocupación de que, si se alimenta a la IA sólo con enseñanzas oscuras, podría terminar entrenándolo para ser malo. “La única manera de corromper la IA sería limitar las historias en las que el típico comportamiento sucede de alguna manera”, dice Riedl. “Podría recoger las historias de antihéroes o aquellas en las que los malos ganan todo el tiempo. Pero si el agente se ve forzado a leer todas las historias, se vuelve muy, muy difícil para cualquier individuo corromper la IA”.

El enfoque parece estar resultando notablemente eficaz. “Sabemos que el sistema está aprendiendo de las historias de dos maneras”, dice Riedl. “En primer lugar, realizamos una evaluación y pedimos a la gente que juzgue las reglas que aprendió el sistema. Las reglas son cosas como ‘cuando vas a un restaurante, pedir bebidas viene antes de pedir comida. Segundo, el sistema puede generar historias, y estas historias pueden ser juzgadas por los humanos”.

En su mayor parte, el equipo ha encontrado que el conocimiento aprendido por el sistema es típicamente de sentido común. Pero ha habido algunas sorpresas. “Cuando entrenamos nuestro sistema sobre ir en una cita al cine, el sistema aprendió que besar era una parte importante del esquema. No esperábamos eso, pero en retrospectiva no es sorprendente”.

Para los ingenieros de Audi, que construyen automóviles sin conductor, o los técnicos de BAE Systems que construyen armas autónomas, enseñarle a las IAs cuando es socialmente apropiado besar o hacer cola puede no parecer directamente relevante para su trabajo. La mayoría de los avances en los campos de la genética, la nanotecnología y la neurofarmacología, si se consideran aisladamente, parecen no tener una dimensión moral, y mucho menos social. Sin embargo, cuando las tecnologías resultantes se mezclan y son administradas por AIs, el peligro es que descubrimos que nuestro progreso tecnológico ha superado nuestra preparación moral.

Riedl afirma que estamos en un momento crucial de la historia y, como sociedad, nos enfrentamos a una simple elección. “Podemos decir que nunca podremos tener un robot perfecto, y porque hay algún tipo de peligro nunca debemos hacer nada”, dice. “O podemos decir: ‘Hagamos nuestro mejor esfuerzo y tratemos de mitigar el resultado.’ Nunca vamos a tener un auto perfecto. Van a haber accidentes. Pero se tendrán menos accidentes que los humanos. Así que… nuestro objetivo debe ser no ser peor que los humanos. Sólo tal vez, podría ser posible ser mejor que los humanos. “

Fuente: 1843magazine.com

En la ciencia ficción, el momento en que un robot gana la sentiencia (capacidad de adquirir sentimientos) suele ser el momento en que creemos que tenemos obligaciones éticas hacia nuestras creaciones. Un iPhone o un portátil puede ser muy complejo en comparación con un martillo o una pala, pero cada objeto pertenece a la misma categoría: herramientas. Y sin embargo, a medida que los robots empiezan a adquirir la apariencia de emociones, a medida que comienzan a comportarse como seres humanos, y aprenden y adoptan nuestros valores culturales y sociales, tal vez necesitan revisarse las viejas historiasPor lo menos, tenemos la obligación moral de averiguar qué enseñar a nuestras máquinas sobre la mejor manera de vivir en el mundo. Una vez que lo hayamos hecho, podremos sentirnos obligados a reconsiderar cómo los tratamos. Lampadia

Nota: Simon Parkinis es escritor y periodista británico, y autor de “Deathby Video Game” Ilustraciones de Brett Ryder




¿Computadoras Cerebrales?

¿Computadoras Cerebrales?

El CEO de SpaceX y Tesla, Elon Musk, está financiando una empresa de interfaz cerebro-computadora llamada Neuralink, la cual se centra en la creación de dispositivos que se pueden implantar en el cerebro humano, con el propósito final de ayudar a los seres humanos a fusionarse con el software y mantener el ritmo de los avances en inteligencia artificial. Estos avances podrían mejorar la memoria o permitir una interface más directa con los dispositivos informáticos.

Estos tipos de interfaces cerebro-computadora existen hoy sólo en la ciencia ficción. En el ámbito médico, las matrices de electrodos y otros implantes se han utilizado para ayudar a mejorar los efectos de la enfermedad de Parkinson, la epilepsia y otras enfermedades neurodegenerativas (como explica el artículo de The Economist líneas abajo). Sin embargo, muy pocas personas en el planeta tienen implantes complejos colocados dentro de sus cráneos, mientras que el número de pacientes con dispositivos estimulantes muy básicos llega a las decenas de miles. Esto se debe en parte a que es increíblemente peligroso e invasivo operar en el cerebro humano, y sólo aquellos que han agotado cualquier otra opción médica optan por someterse a dicha cirugía como último recurso.

Fuente: corbis

Esto no ha detenido un aumento del interés de futuristas de la industria de la tecnología en Silicon Valley que están interesados ​​en acelerar el avance de este tipo de ideas. Kernel, una startup creada por Braintree, también está tratando de mejorar la cognición humana. Con más de 100 millones de dólares, el empresario Bryan Johnson vendió Braintree a PayPal por alrededor de 800 millones de dólares en 2013. Kernel y su creciente equipo de neurocientíficos e ingenieros de software están trabajando para revertir los efectos de las enfermedades neurodegenerativas y, eventualmente, lograr que los cerebros sean más inteligentes y más interconectados.

Fuente: Lupus News Today

“Sabemos que si colocamos un chip en el cerebro y liberamos señales eléctricas, podemos mejorar los síntomas del Parkinson”, dijo Johnson en una entrevista. Johnson también confirmó la participación de Musk con Neuralink. “Esto se ha hecho para el dolor de la médula espinal, la obesidad, la anorexia… lo que no se ha hecho es la lectura y escritura del código neural”. Johnson dice que el objetivo de Kernel es “trabajar con el cerebro de la misma manera que trabajamos con otros sistemas biológicos complejos como la biología y la genética”.

La stratup Kernel es bastante transparente, admitiendo que tomará años de investigación médica para comprender mejor el cerebro humano y las nuevas técnicas de cirugía, métodos de software y dispositivos de implante que podrían hacer realidad una interfaz de cerebro-computadora. La verdad es que los obstáculos involucrados en el desarrollo de estos dispositivos son inmensos. Los investigadores de la neurología dicen que tenemos una comprensión muy limitada sobre cómo se comunican las neuronas en el cerebro humano, y nuestros métodos para recopilar datos sobre esas neuronas es rudimentario. Luego está la idea de que las personas se ofrezcan voluntariamente a colocar estos experimentos dentro de sus cabezas.

“La gente sólo va a ser susceptible a la idea [de un implante] si tienen una condición médica muy seria”, afirma Blake Richards, un neuro-científico y profesor asistente de la Universidad de Toronto. “La mayoría de las personas sanas se sienten incómodas con la idea de que un doctor les abra el cráneo”.

Sin embargo, ha habido ciertos #breakthroughs”. El año pasado, científicos de MIT lograron usar luz para activar neuronas de ratones genéticamente modificados e implantarles una memoria falsa en el cerebro. Todavía falta mucho para que podamos hacer lo mismo con los seres humanos, pero podríamos ver una extensión de la tecnología del electroencefalograma que pueda determinar en qué momento el cerebro de cierta persona se encuentra en el estado más receptivo para el aprendizaje.

Fuente: Diario Frontera

Por otro lado, científicos en la Universidad de Princeton han estudiado a parejas tanto con electroencefalogramas como con imágenes cerebrales y han demostrado que cuando dos personas se están comunicando, hablando y entendiéndose mutuamente, sus cerebros se encuentran literalmente en las mismas ondas cerebrales. No sólo eso: los patrones de la onda cerebral del oyente comienzan a preceder los patrones de la onda cerebral de su interlocutor. Uno comienza a anticipar las ondas cerebrales del otro.

Este tipo de información tendrá un impacto profundo en la manera que las personas interactúan. Cuando las personas estemos conectadas con el internet, con las bibliotecas del mundo, con todo tipo de información al alcance de un nanosegundo, las posibilidades son infinitas. Poseer ese tipo de información cambiará todas las dinámica actuales de interactuar y de toma de decisiones. Las oportunidades son infinitas. Lampadia

¿Qué es un una computadora cerebral (brain-computer)?

The Economist explica
Ya hay dispositivos que transmiten señales eléctricas al cerebro. Eso es solo el comienzo.​
 
Fuente: Alamy, The Economist

The Economist
26 de mayo, 2017
Traducido y glosado por Lampadia

Las primeras computadoras eran máquinas grandes que llenaban habitaciones enteras. A medida que se hicieron más baratas y más pequeñas, se mudaron de los sótanos y laboratorios y migraron más cerca de los seres humanos: primero a los escritorios y mochilas, y finalmente en los bolsillos y a los brazos. Por ahora pareciera que se ha detenido en la superficie del cuerpo humano. Pero las computadoras están rompiendo la epidermis, y un día podrán entrar en la cavidad cerebral. ¿Cómo funcionarán las llamadas “computadoras cerebrales”?

El “Computadora Cerebral” es un término genérico para una gama de tecnologías. Las definiciones divergen en términos de dónde se ubica la computadora y sus niveles de potencia de procesamiento. Las computadoras cerebrales de hoy son dispositivos relativamente simples que existen con fines médicos y se basan en conexiones crudas con el cerebro. Son casi siempre dispositivos de baja potencia que se usan en el exterior del cuerpo, y que proporcionan señales no agudas a través de la piel a las regiones pertinentes del cerebro. Cientos de miles de personas ya utilizan estas máquinas para by-pasasear a los sistemas de entrada y salida de hoy en día -como los dedos y la voz o los ojos y los oídos- para comunicarse directamente con el cerebro. En gran parte se utilizan para compensar una función corporal dañada, como la pérdida de la audición.

El tipo más simple de computadora cerebral es un implante coclear (tipo concha). Estos dispositivos transforman las ondas de sonido en señales eléctricas, para estimular el nervio auditivo directamente. La computadora que controla este proceso se encuentra detrás de la oreja, conectado a un micrófono y un paquete de baterías portátil. Transmite energía y ondas sonoras-transformadas en señales electromagnéticas- a un implante justo en el interior del cráneo, junto al oído. Ese implante recibe la señal de forma inalámbrica, la traduce a una corriente eléctrica y la pasa por un hilo, pasando por la maquinaria biológica de la oreja, hasta un electrodo incrustado en el nervio auditivo. Otro tipo de ordenador cerebral existente se denomina neuro-estimulador, utilizado en el tratamiento de la enfermedad de Parkinson. Por lo general se implanta bajo la piel en el pecho o la espalda baja. Envía señales eléctricas a las partes del cerebro llamadas los ganglios basales, que están asociados con el control del movimiento voluntario.

Silicon Valley está emergiendo otra forma de computadora cerebral -aunque por ahora todavía está en un tablero de diseño. Los emprendedores piensan que los dispositivos podrían ir más allá de simplemente reemplazar las funciones perdidas: el cerebro podría conectarse a las computadoras y al Internet para darle funciones completamente nuevas que están más allá de las capacidades de los seres humanos hoy en día. Imagine que las búsquedas de Google envíen su resultado al cerebro antes de que este haga la pregunta conscientemente; o comunicaciones directas de cerebro a cerebro, sin estorbos de  dispositivos.

Elon Musk, (creador y dueño de Tesla), con su nueva compañía Neuralink, y Bryan Johnson, con una compañía un poco más antigua llamada Kernel, están liderando el intento. Por ahora, la función del cerebro no se entiende en suficiente detalle para leer y escribir información en este a nivel de comunicación lingüística. Pero para los optimistas de Silicon Valley, es sólo cuestión de tiempo. Lampadia




Los problemas de Europa van más allá del Brexit

En la siguiente nota compartimos información sobre dos fenómenos de la Unión Europea (UE) que están detrás de la reciente metida de pata de los británicos de haber votado por el Brexit, pero, más importante aún, muestran algunas de las grandes debilidades de la unión y complican la posibilidad de una perspectiva exitosa.

El primero se refiere a la escandalosa reacción de la UE ante la entrada al mercado de los sistemas de baterías para energía solar de Tesla y el segundo a la sentencia de Hans-Herman Hoppe sobre la insostenibilidad de la UE que toma más cuerpo ante el voto por el Brexit.

El proteccionismo europeo

En las siguientes notas mostramos la reacción del gobierno español (2015) ante el anuncio de Tesla de comercializar sus baterías para hogares:

¡Sale al mercado el invento que nos hará decirle adiós a la cuenta de luz!

Fuente: Magdalena Araus

Glosado por Lampadia

La nueva batería de Tesla Motors para los hogares permitirá utilizar al 100% la energía solar para abastecerse de electricidad y ya está a la venta.

Ya es real y está a la venta la batería para hogares que anunció la reconocida marca de autos eléctricos Tesla Motors que permitirá utilizar la energía solar en un 100% en las casas y prescindir de las redes eléctricas. 

Tesla Motors y su visionario CEO Elon Musk estaban planeando lanzar al mercado una batería capaz de almacenar de manera eficiente la energía que produce el sol durante el día, para solucionar el problema clásico de este tipo de generación de electricidad: en el día, cuando no la necesitamos es poderosa, pero de noche, cuando nos falta, es débil.

Aunque existen baterías para solucionar esto, su costo y tamaño son inviables para el uso doméstico masivo. En cambio la versión de Tesla lo hace posible.

La batería cumple “un papel similar a la forma en que los teléfonos móviles han sustituido a los teléfonos fijos”, explicó Musk. “Será un gran paso para las comunidades más pobres del mundo”, agregó, ya que eliminaría la necesidad de las redes eléctricas. Claro que el precio, a medida que se masifique la producción, debiese bajar, para ser alcanzable en lugares de escasos recursos.

Al igual que las otras patentes de la compañía, las de Tesla Energy serán abiertas, permitiendo a cualquiera, incluso a la competencia, utilizarlos y así masificar el uso de energías renovables en todo el mundo.

Pero el gobierno español preparó un impuesto contra la batería de Tesla

R. Pérez

Glosado por Lampadia

Los autoconsumidores no podrán recurrir a baterías como la lanzada recientemente por Tesla y sufrirán una penalización para los sistemas de almacenamiento que ya incorporan los nuevos paneles. 

El Ministerio de Industria, Energía y Turismo [de España] creará un nuevo cargo que desincentivará el uso de baterías o sistemas de almacenamiento por parte de los autoconsumidores de electricidad que se conecten a la red.

‘El cargo se aplicará sobre la energía autoconsumida, dado que se beneficia del respaldo del sistema aun cuando no consuma energía del mismo’

“Sería genial, ¿verdad? Una batería que permitiera a los usuarios autogenerar la energía que consumen. Pues bien: lo que en EEUU se va a hacer realidad, en España, el Gobierno lo pretende dificultar”. E. Campano.

¿No es un escándalo, pretender alejar a los ciudadanos de un avance como el de Tesla? Otros ejemplos del proteccionismo europeo, se pueden ver en las recientes persecuciones de la UE a las corporaciones tecnológicas estadounidenses, como Google, Facebook y Uber.

La insostenibilidad del Estado del Bienestar

La entrevista a Hans-Herman Hoppe que glosamos a continuación, pone en duda la viabilidad de la Unión Europea, pensamiento que hoy se ha hecho más cercano dado el voto por el Brexit. Además, con su estilo crítico, comenta otros aspectos de la economía global que son importantes de aquilatar. Veamos:

“Veremos el colapso del Estado del Bienestar como vimos el del comunismo”

Entrevista de Diego Sánchez de la Cruz

Libre Mercado

29 Junio 2013

Glosada por Lampadia       

Afirma que los indignados son “meros izquierdistas que no tienen ni idea de economía”

Hans-Herman Hoppe, Filósofo, sociólogo, economista e historiador anarcocapitalista alemán

Pregunta: Discutiendo sobre la política monetaria de EEUU, usted ha dicho que la mejor manera de debatir con economistas como Paul Krugman es hablar con ellos como si fueran niños pequeños.

Respuesta: ¿Cómo se puede decir que imprimiendo dinero se conseguirá que una sociedad sea más rica? Si esto fuese cierto, ¿no podríamos acabar con la pobreza de la noche a la mañana? ¡Cualquier país del Tercer Mundo podría imprimir el dinero necesario para dar a cada recién nacido un montón de dinero y así acabar con la miseria! Lo que hay que entender es que imprimiendo dinero no abrimos más fábricas ni producimos más bienes.

Hablando de política monetaria, usted también ha advertido de que la discrecionalidad de los bancos centrales daña el emprendimiento.

Si tenemos un dinero respaldado por el oro o la plata podemos anticipar en gran medida el panorama monetario al que nos enfrentaremos de un año para otro. Sin embargo, si el dinero es fiduciario y un banco central como la Reserva Federal puede duplicar la masa monetaria en menos de un año, entonces las actividades del sector privado se vuelven mucho más complejas.

Ese daño al emprendimiento contrasta con el beneficio obtenido por empresas financieras, que en un sistema monetario como el actual tienen un rol privilegiado y pueden enriquecerse mientras el resto del sector privado vive en la incertidumbre.

Háblenos de Economía y Ética de la Propiedad Privada, que acaba de salir publicado en la Editorial Innisfree.

El libro es una colección de artículos en la que enarbolo esta defensa desde dos puntos de vista. La primera parte hace una defensa utilitaria de la propiedad privada, explicando por qué esta institución genera mejores incentivos para la creación de riqueza y la mejora de la productividad. Esto contrasta con la propiedad pública, que plantea el conflicto continuo entre las personas, ya que cada uno tendrá una idea diferente de lo que debe hacerse con ella.

En la segunda parte del libro hago una defensa ética de la propiedad privada, justificándola frente a la injustificable propiedad pública. La propiedad privada es el fundamento de la vida humana.

En su conferencia habló de otro tema recurrente en su trabajo: los incentivos de la democracia y de las antiguas monarquías. Desde la óptica económica, usted defiende que el primer sistema es peor aún que el segundo.

Empezaré definiendo el Estado como una institución que tiene máximo poder de decisión y gestiona un territorio de forma monopólica. Las monarquías y la democracia son formas de gestionar ese Estado. Ambas son instituciones peligrosas y, por lo tanto, no hablo de encontrar una buena solución sino de encontrar la menos mala. En ese sentido, detecto una cierta superioridad de las antiguas monarquías en la medida en que el Rey considera el Estado como su propiedad privada. Esto le llevará a pensar más en el largo plazo y a intentar preservar el valor de su capital, de ese Estado que, en cierta medida, es suyo.

En la democracia, el cuidado de esa propiedad por parte de un gobierno es de una legislatura, quizá dos o tres, pero no hablamos de una propiedad que permanece en las manos de los gestores durante toda la vida. Por eso, mientras que el monarca tiende a conservar su capital, el gobernante en democracia se orienta a consumir ese capital mientras ostenta el poder.

¿Mantiene su teoría en el caso de Medio Oriente?

Si comparamos países de Medio Oriente entre sí, vemos que Jordania o Marruecos son más civilizados que Egipto, Libia, Siria y esos lugares en los que se cambió la vieja monarquía por formas diferentes de autoritarismo.

¿Qué opina de los indignados? Este tipo de protestas, ocurridas en España con el movimiento 15-M o en EEUU con la plataforma Ocupa Wall Street, ha cuestionado el sistema capitalista que usted defiende.

Son protestas de ignorantes económicos que no entienden que esos escándalos financieros que tanto les disgustan tienen todo que ver con el socialismo monetario en el que vivimos. Sus críticas deberían ser contra el estatalismo, contra el intervencionismo, no contra el capitalismo, pero mucha gente en estas protestas son meros izquierdistas que no tienen el más mínimo entendimiento de la economía.

Por último, quisiera preguntarle por el futuro de Europa…

A día de hoy, como los alemanes hacen alguna que otra cosa bien, esto les permite tener la capacidad de rescatar a países como España. El problema es que esto hace que España siga cometiendo estupideces económicas. En cualquier caso, la montaña de deuda que es el Estado del Bienestar es insostenible, por lo que veremos su colapso, como vimos el del comunismo hace apenas veinte años.

Lampadia

 




Tesla también innova en el mundo del automóvil

Tesla también innova en el mundo del automóvil

En los últimos años, el avance de las energías limpias en la industria automóvil ha sido lento pero constante. Ahora, parece que por fin se estaría dando un salto cualitativo.

Durante mucho tiempo, los combustibles diesel han sido criticados por los impactos negativos de condiciones pulmonares crónicas como el asma, e incluso por aumentar el riesgo de cáncer de pulmón. Se suponía que el advenimiento del “diesel limpio”, con nuevos tipos de técnicas de combustión de las emisiones, del tubo de escape o de la inhibición de emisiones,  iba en la dirección correcta. Pero el escándalo de las manipulaciones de los controles de emisiones de VW, llevó a la industria del automóvil, hace pocos meses, a una crisis de credibilidad, además de afectar la imagen del sector empresarial más encopetado.

Recordemos que hacia fines del año pasado, la Agencia de Protección Ambiental de Estados Unidos (EPA por sus siglas en inglés), después de descubrir los engaños de VW, le ordenó arreglar las fallas en los autos a sus expensas. Ver en Lampadia nuestra publicación del 1 de octubre, 2015: Las sucias mentiras de VW exigen un escarmiento ejemplar.

Lamentablemente, durante los últimos seis años, Volkswagen estuvo engañando deliberadamente en las pruebas de emisiones para sus autos diesel. El escándalo todavía no termina, la empresa sigue haciendo maniobras distractivas y no llega a asumir plenamente su responsabilidad.

En nuestro artículo propusimos, que para salvar el prestigio de las corporaciones globales y de la economía de mercado, tal vez sería mejor liquidar la empresa vendiendo sus valiosos activos a otras empresas más serias, antes de que el mercado les quite valor. “Después de todo, hay que juzgar con mayor rigor a quienes tienen mayor prestigio y capacidades para comportarse bien. La industria automovilística y Alemania, deben dar el mayor escarmiento posible, asumiendo el costo, que por más grande que pueda ser, generaría una mejor base al desarrollo del mercado”. 

Ahora toda la industria automóvil está bajo escrutinio por los consumidores y por los  reguladores, cuyas pruebas demostraron ser fácilmente burladas y cuyas relaciones e intereses con los gobiernos y los fabricantes de automóviles pueden no servir al verdadero interés público.

Según un último despacho de El País de España, EEUU estaría demandando nuevamente a Volkswagen por engañar a los consumidores con la promoción de vehículos con motores diesel “limpios” y que en realidad han sido trucados para falsear las emisiones. Esta es una de las principales preocupaciones: los motores diesel son normalmente 25% más eficientes que las versiones similares de gasolina, lo que los vuelve muy importantes para la reducción de emisiones de CO2. Pero la revelación de los engaños que hizo VW durante años en las pruebas de emisiones aumenta el control sobre la tecnología y amenaza las normas reglamentarias.

Todo esto llega en un momento en que los fabricantes tradicionales de automóviles se enfrentan a fuertes desafíos en la industria. El comportamiento de las empresas como VW está impulsando a los consumidores a pasar de los fabricantes establecidos a los recién llegados, tales como Google con sus autos sin conductores y a los modelos eléctricos de Tesla.

Tesla es el sueño de Elon Musk: construir un auto 100% eléctrico a un precio accesible para el mercado masivo, con el estilo y marca para competir con los fabricantes tradicionales.

El Modelo 3 de Tesla, recién revelado hace unos días, está diseñado para lograr este sueño. Ha sido planeado por años, y es una pieza fundamental en los planes industriales y financieros de  largo plazo de esta innovadora compañía. (Ver en Lampadia: Litio: Uno de los  materiales del futuro). 

La clave del Modelo 3 es el precio: su precio empieza en US$ 35,000, muy por debajo de los modelos anteriores de Tesla.

Hasta ahora, Tesla ha sido una pequeña empresa con una enorme influencia, lograda por la novedad de sus coches y los planes disruptivos de su CEO. El auto Tesla más conocido es el de Tesla Modelo S, un sedán con motor eléctrico, con una pantalla de computadora portátil y una aceleración tan feroz que se le ha llamado “Modo locura” (insane mode en inglés).

Con el Modelo S, Tesla entró en un mercado que los principales fabricantes habían ignorado: el de personas conscientes y preocupadas por el medio ambiente que estaban dispuestas a pagar más por un auto de alto rendimiento que no utilice gasolina.

Tesla afirma que sus autos son mucho más limpios que sus competidores, principalmente porque funcionan con baterías y son muy eficientes en la conversión de la energía almacenada. Un Tesla Modelo S puede viajar más de 425 kilómetros con una sola carga de batería de 85 kilovatios por hora, lo que equivale a menos de 3 galones de gasolina. Su equivalente (según EPA, United States Environmental Protection Agency) es de 142 kilómetros por galón, mucho mayor que el alcance del Toyota Prius.

El Tesla Model 3 puede ser el comienzo de una revolución en la industria del automóviles. Su  éxito puede llegar a ser el punto de inflexión en el mercado, que cambie los  criterios para la  adquisición de automóviles. Este es uno de los aportes positivos de la ‘cuarta revolución industrial’. Lampadia




No temamos a las máquinas súper inteligentes

No temamos a las máquinas súper inteligentes

Mucho de lo que hemos publicado últimamente sobre la inteligencia artificial conlleva temores sobre el mal uso de esta tecnología para la raza humana. En el siguiente artículo de Luciano Floridi del Financial Times, el experto en filosofía y ética de la información descarta los temores como algo que no corresponde a lo que hoy se puede prever.

Los humanos no tienen nada que temer de las máquinas inteligentes

Luciano Floridi (Profesor de filosofía y ética de la información en la Universidad de Oxford, R.U.)

Financial Times

25 de enero 2016

Traducido y glosado por Lampadia

 

Ninguna versión de un Godzilla IA con está a punto de esclavizarnos.

Debemos centrarnos en los desafíos reales, dice Luciano Floridi.

Elon Musk, fundador de SpaceX y Tesla Motors, cree que la inteligencia artificial es “potencialmente más peligrosa que las armas nucleares”. La “mayor amenaza existencial” para la humanidad, piensa, es una inteligencia de máquinas súper inteligencies estilo Terminator que un día dominarán a la humanidad. Por suerte, Musk se equivoca.

Muchas de las máquinas pueden hacer cosas increíbles, a menudo mejor que los humanos. Por ejemplo, la computadora Deep Blue de IBM jugó y venció al gran maestro Garry Kasparov en ajedrez en 1997. En 2011, otra máquina de IBM, Watson, ganó un episodio del programa de concurso de televisión Jeopardy, superando a dos jugadores humanos, uno de los cuales habían disfrutado de una racha de 74 victorias. El cielo, al parecer, es el límite.

Sin embargo, Deep Blue y Watson son versiones de la “máquina de Turing”, un modelo matemático ideado por Alan Turing, que establece los límites de lo que un ordenador puede hacer. Una máquina de Turing no tiene entendimiento, no hay conciencia, no hay intuición – en fin, nada que reconoceríamos como una vida mental. Carece de la inteligencia incluso de un ratón.

Otros científicos están en desacuerdo. Stephen Hawking ha argumentado que “el desarrollo completo de la IA podría significar el fin de la raza humana”.

Ray Kurzweil, inventor y futurista estadounidense de Silicon Valley, ha pronosticado que en 2045 el desarrollo de tecnologías de cómputo alcanzará un punto en el que la IA superará la capacidad del ser humano para comprenderla y controlarla. Escenarios como los de Kurzweil son extrapolaciones de la ley de Moore, según la cual el número de transistores en los ordenadores se duplica cada dos años, entregando más y más poder computacional a un costo cada vez menor.

Sin embargo, Gordon Moore, persona por la cual se nombró dicha ley, reconoció que es una generalización poco fiable porque hay un límite físico a la cantidad de transistores que pueden ponerse en un circuito integrado.

En todo caso, la Ley de Moore es una medida de la potencia de cálculo, no de inteligencia. Mi robot de limpieza, un Roomba, va a limpiar el suelo de forma rápida y barata y cada vez mejor, pero nunca va a reservar unas vacaciones por sí misma con mi tarjeta de crédito

En 1950, Turing propuso la siguiente prueba: Imagine que un juez humano hace preguntas escritas a dos interlocutores en otra habitación. Uno de ellos es un ser humano, el otro una máquina. Si el juez no puede darse cuenta de la diferencia entre la máquina y el humano en el 70 por ciento de las veces, entonces, se puede decir que la máquina ha pasado la prueba.

Turing pensaba que las computadoras pasarían la prueba para el año 2000. Se equivocó. Eric Schmidt, el ex presidente ejecutivo de Google, cree que la prueba de Turing se logrará en 2018. Veremos. Hasta ahora no ha habido ningún progreso. Los programas de computadoras todavía tratan de engañar a los jueces mediante el uso de trucos desarrollados en la década de 1960.

Por ejemplo, en la edición 2015 del Premio Loebner, en un concurso anual de Turing, un juez le preguntó: “El auto no podía caber en el espacio de estacionamiento, ya que era demasiado pequeño. ¿Cuál era demasiado pequeño?” El software que ganó el premio de consolación de ese año respondió: “Yo no soy una enciclopedia andante, ¿sabes?”

Las ansiedades sobre máquinas súper-inteligentes son, por lo tanto, científicamente injustificadas. Las tecnologías “inteligentes” existentes no son un paso hacia la IA en toda marcha, al igual que subir a la cima de un árbol no es un paso hacia la luna, sino el final del viaje. Estas aplicaciones sin duda pueden ser más astutas que nosotros, pueden superarnos y sustituirnos en la realización de un número creciente de tareas. Esto no es porque tratan el mundo de forma inteligente, sino porque estamos volviendo al mundo cada vez más fácil para ellos.

Tome como ejemplo a los robots industriales. No les damos rienda suelta en el mundo para que construyan autos; construimos ambientes artificiales alrededor de ellos para asegurar su éxito. Lo mismo puede decirse de los miles de millones de artefactos inteligentes que pronto se comunicarán unos con otros vía la llamada ‘Internet de las Cosas’.

Ninguna versión Godzilla con IA de está a punto de esclavizarnos, por lo que debemos dejar de preocuparnos por la ciencia ficción y empezar a centrarnos en los retos reales que plantea la IA. En el análisis final, los seres humanos y no las máquinas inteligentes, son el problema, y ​​lo seguirán siendo en el futuro previsible.

Nuestra prioridad debe ser evitar cometer errores dolorosos y costosos en el diseño y uso de nuestras tecnologías. Existe un grave riesgo de que podamos hacer un mal uso de ellas en detrimento tanto para la especie como para el planeta.

Winston Churchill dijo una vez: “nosotros damos forma a nuestros edificios y después nuestros edificios nos dan forma a nosotros.” Lo mismo se aplica a las tecnologías inteligentes en la ‘infoesfera’. Lampadia

 

 

 

 




Ética para la era de la Robótica y la Inteligencia Artificial

Ética para la era de la Robótica y la Inteligencia Artificial

Durante el último año, y especialmente durante las últimas semanas, hemos hablado mucho sobre la Cuarta Revolución Industrial, la robótica y la Inteligencia Artificial. Cuando hemos podido, hemos enfatizado los temas éticos que se deben enfrentar. Pero lastimosamente, en el debate sobre estos desarrollos, todavía se percibe una peligrosa lejanía con este aspecto tan importante.

En todos los aspectos de la vida de las sociedades podemos comprobar un pernicioso debilitamiento de la ‘gobernanza global’ y una distancia muy grande entre lo cotidiano y la evolución de los temas estructurales que determinarán la calidad de vida futura de todos los seres humanos.

Es indispensable tomar nota de la realidad que se despliega ante nuestros ojos. Anteriormente, hemos llamado mucho la atención sobre los impactos de esta revolución en el empleo del futuro (ver en Lampadia nuestro repositorio sobre la  ‘Revolución Tecnológica’, ahora queremos poner a su disposición un buen análisis sobre el aspecto ético de la misma, que no debemos pasar por alto. Recomendamos leer el siguiente artículo de John Thornhil, del Financial Times, para ubicarnos mejor en esta nueva realidad.     

La nueva era de la tecnología necesita una nueva ética

Escrito por John Thornhill

Financial Times

20 de enero 2016

Traducido y glosado por Lampadia

Pablo Picasso declaró alguna vez: “Las computadoras son inútiles. Solo dan respuestas”. 

La broma del artista español pudo haber sido cierta en el siglo XX, cuando las computadoras eran en su mayoría máquinas calculadoras que desempeñaban funciones claramente pre-establecidas. Pero la expansión de la potencia de cálculo a principios del siglo XXI ha hecho que las computadoras planteen algunas de las interrogantes más exigentes de nuestros tiempos. Y no está claro quién será el responsable de dar las respuestas.

Los avances tecnológicos en inteligencia artificial (IA), biotecnología, nanotecnología, robótica y neurociencia (por nombrar solo unos pocos), han dejado a los hacedores de política, a los hombres de negocios y a los consumidores intentando entender todas las implicancias sociales, económicas y éticas.

Considere sólo tres preguntas: primero, ¿es la inteligencia artificial, como cree Elon Musk, “potencialmente más peligrosa que las armas nucleares?”

La idea de que robots rebeldes vayan a intentar destruir a sus creadores ha sido un tema popular de la ciencia ficción durante décadas (Asimov et al). Pero ahora algunos científicos serios, como Stephen Hawking y emprendedores tecnológicos destacados (entre ellos Musk, que dirige Tesla Motors y SpaceX), expresan sus preocupaciones acerca de este tema.

¿Cómo podemos asegurar que la IA se utilice para propósitos benéficos en lugar de otros no éticos? La perspectiva de que la súper inteligencia sea capaz de amenazar la vida humana aún parece estar a décadas de distancia, si es que llega a ocurrir. (Ver en Lampadia: Entrevista sobre la transformación del empleo y las industrias).

Al final del año pasado, Musk, Peter Thiel y otros empresarios de Silicon Valley se comprometieron a financiar US$ 1,000 millones para una nueva empresa sin fines de lucro, llamada OpenAI, con el objetivo de asegurarse que la IA siga siendo “una extensión de las voluntades humanas individuales.”

“Es difícil imaginar cuánto podría beneficiar la IA a la sociedad humana, y es igualmente difícil imaginar lo mucho que podría dañar a la sociedad si se construye o se usa incorrectamente,” escribieron los fundadores de OpenAI en un blog.

Musk también ha donado US$ 10 millones para el futuro del Life Institute, una organización con sede en Cambridge, Massachusetts, EEUU, que estudia las dimensiones sociales y éticas de la AI.

La misión del instituto afirma que: “La tecnología le está dando a la vida el potencial para florecer como nunca antes… o para autodestruirse. Hagamos la diferencia”.

Una segunda cuestión difícil es cómo construir una “elasticidad ética” en los autos sin  pilotos. Para bien o para mal, los conductores humanos de automóviles son infinitamente flexibles para evaluar la ética de diferentes situaciones, superando  reglas como “no adelantar” para dar más espacio a los ciclistas, por ejemplo. Pero, ¿cómo deben programarse los autos sin conductor para reaccionar cuando se enfrenten a una crisis real? ¿Debería proporcionarse a los propietarios, configuraciones éticas ajustables?

El año pasado, en un discurso, Dieter Zetsche (presidente ejecutivo de la automotriz alemana Daimler) preguntó cuan autónomos deberían comportarse los coches “si un accidente es realmente inevitable y donde la opción es una colisión con un coche pequeño o un gran camión, conduciendo hacia una zanja o contra una pared, o correr el riesgo de golpear a una madre con un cochecito, o a una abuela de 80 años de edad.”

La Fundación Daimler y Benz han invertido más de €1.5 millones desde 2012 para apoyar a un equipo de 20 científicos a que examinen los efectos sociales de la conducción autónoma y algunos de los dilemas éticos que plantea.

Estas preguntas han sido previamente planteadas en el reino de los filósofos morales, como el profesor Michael Sandel de Harvard, cuando discuten si “¿podría ser justificado un asesinato?”. Pero ahora, directorios de empresas y propietarios de automóviles se encontrarán cada vez más debatiendo los méritos del ‘imperativo categórico’ de Immanuel Kant versus el utilitarismo de Jeremy Bentham.

Los avances en la salud también crean nuevos dilemas. Deberían ser prohibidos los medicamentos que mejoran la cognición para los usuarios ocasionales? En su libro “Bad Moves”, las neurólogas Barbara Sahakian y Jamie Nicole LaBuzetta destacan los desafíos éticos del uso de drogas inteligentes para mejorar el rendimiento académico.

Ellos pregunta: ¿Por qué tenemos una visión tan cerrada sobre el uso de esteroides por atletas que engañan en los Juegos Olímpicos, pero ignoramos a los estudiantes que usan drogas inteligentes para mejorar su performance cuando dan exámenes de ingreso a las universidades?.  

Los autos sin conductor plantean preguntas inquietantes sobre la vida y la muerte.
Los fabricantes de automóviles se están acercando con precaución a la carrera hacia los vehículos automatizados. 

Estudiantes de la Universidad de Duke en Carolina del Norte, EEUU, han presionado a las autoridades para modificar la política de honestidad académica de la institución para que se considere el “uso no autorizado de medicamentos con receta” como una forma de hacer trampa. Pero solo pocas universidades o empleadores parecen haber considerado este dilema.

“Estos medicamentos tienen el potencial de cambiar la sociedad en formas dramáticas e inesperadas”, dicen Sahakian y LaBuzetta en su libro: ‘Ahora es el momento de tener la discusión y el debate de la ética de estas ‘drogas inteligentes’ y el rol que deben desempeñar en la sociedad del futuro”, concluyen.

Por encima de todas estas complicadas cuestiones, surge una más grande: ¿quién es el responsable de asegurarse que los últimos avances tecnológicos no sean abusivos?

Los gobiernos nacionales y los parlamentos, preocupados por problemas mucho más urgentes, como la austeridad fiscal o el  flujo de refugiados, rara vez tienen el tiempo y la libertad política para considerar desafíos tan abstractos y menos aún para ayudar a establecer estándares o reglamentos internacionales.

Como en tantos otros ámbitos, parece inevitable que las regulaciones se arrastren detrás de la realidad. Además, ¿qué detendría a naciones rebeldes el ignorar las normas internacionales y que pongan en uso la edición de genes o el aprendizaje automático o tecnologías cibernéticas para usos destructivos?

¿Por qué es difícil enseñarles a los robots a elegir sabiamente?
Aún quedan preguntas sobre si las respuestas de las máquinas a los dilemas morales serán alguna vez  aceptables para los que pierden.

 

Los departamentos universitarios y centros de investigación ya desempeñan un rol útil en la difusión de los conocimientos y estimulando el debate. Pero normalmente  son dependientes de la financiación del sector privado y es poco probable que lleguen a soluciones radicales que restrinjan seriamente a sus patrocinadores.

Eso deja a gran parte de las empresas de alta tecnología a que se autorregulen. Algunos son, de lejos, las organizaciones mejor situadas para comprender los peligros potenciales de la tecnología y hacer algo para contrarrestarlos. Empresas como Google están formando consejos de ética para ayudar a supervisar sus propias actividades en áreas como la inteligencia artificial.

Pero, como vimos en el período previo a la crisis financiera de 2008, las instituciones del sector privado pueden a menudo esconderse detrás de una interpretación estrecha  de las leyes.

Algunos bancos también resultaron adeptos a explotar el arbitraje legal y normativo internacional.

Claramente, el llevar a la ley hasta el límite ha corroído los estándares éticos y ha dado lugar a una serie de abusos de todo el sector financiero. Al verano pasado (julio-agosto 2015), las instituciones financieras habían pagado más de US$ 235 mil millones en multas por incumplimientos de las normas, según datos compilados por Reuters.

Como dice un ex banquero: “No todo lo que es legal es ético.”

Este es un tema que las empresas de tecnología tendrán que enfrentar si no quieren que sus propias industrias sufran un latigazo regulatorio en el futuro. Lampadia

 




Sobre los riesgos de la Inteligencia Artificial

Sobre los riesgos de la Inteligencia Artificial

Comentario de Lampadia

Una vez más queremos difundir información que nos permita crear nuestro propio criterio  la revolución tecnológica que ya envuelve a la humanidad, especialmente sobre la tecnología que amenaza ser la más disruptiva, la Inteligencia Artificial (IA). (Ver nuestro Repositorio: Revolución Tecnológica).

En esta ocasión compartimos dos artículos del Financial Times, el primero sobre el reto personal de Zuckerberg (Facebook), de crear un asistente personal con IA y al mismo tiempo que rechaza los riesgos más comentados y, el segundo, un diálogo abierto sobre los riesgos de un desarrollo descontrolado de la IA. Como parte de esta información incluimos además dos videos (en inglés) transcritos al español.

El tema de la revolución tecnológica es muy difícil de seguir en su cabal medida y por lo tanto, es igualmente complicado entender sus implicancias en las políticas de desarrollo de los países. Como hemos visto antes, su impacto en el empleo puede ser muy disruptivo. Pero en el caso de la IA, sus impactos pueden traer profundos cambios en la vida de los seres humanos mismos. Amenazando incluso nuestra supervivencia. Las siguientes líneas nos ayudarán a poner en perspectiva este último aspecto.

Zuckerberg rechaza temores sobre tendencias destructivas de la Inteligencia Artificial (IA)

Richard Waters y Hannah Kuchler en San Francisco y Murad Ahmed en Londres, 4 de enero 2016

Financial Times

Traducido y glosado por Lampadia

Zuckerberg (Facebook) cree que la IA puede desarrollarse para que ‘trabaje para nosotros’   ©Getty

Líderes tecnológicos como Elon Musk de Tesla Motors y el capitalista de riesgo, Peter Thiel han advertido que las tendencias destructivas de la IA pueden, algún día, amenazar a la raza humana. Pero Zuckerberg se ha impuesto el reto de construir este año su propio asistente personal con IA, rechazando los temores de que la ‘súper-inteligencia’ se comporte incontrolable y disruptivamente, como improbable.

En un post de la web de su compañía Facebook founder dijo que ha decidido construir una máquina inteligente que controle las funciones de su casa y que le ayude en el trabajo. Lo comparó con Jarvis, la computadora inteligente de las películas de Iron Man.

Su reto de este año es el primero que involucra un código de software para testear tan importante desarrollo para el futuro de Facebook. La compañía ya tiene dos equipos trabajando en inteligencia artificial – uno que se enfoca en investigación pura y otro que ve la forma de aplicar IA a las redes sociales.

El reto también enfatiza la carrera de IA que se está desarrollando entre las compañías líderes de internet que tratan de crear las vías para que las personas puedan interactuar con las máquinas. 

Facebook ha establecido tres laboratorios de IA, en Silicon Valley, New York y Paris y sus contrataciones de alto perfil incluyen a Yann LeCun, profesor de New York University, uno de los pioneros de ‘conocimiento profundo’ – una forma de IA que trata de imitar las capas de funcionamiento de neuronas del cerebro humano.

Zuckerberg dice que su trabajo lo lleva a temas técnicos profundos con los ingenieros de la compañía, y que construir su propia máquina inteligente traerá una nueva perspectiva en el trabajo.

Describió su proyecto personal como ‘una simple IA’, tomando un sistema al que pueda enseñar a reconocer su voz y a controlar todo en su casa – música, luces, temperaturas y otros.

También dijo que está interesado en usar reconocimiento de voz y rostros para identificar a quién estuviera en la habitación, por ejemplo, para ajustar la temperatura, pues él prefiere ambientes más frescos que su esposa.

Para ayudarse en su trabajo, Zuckerberg añadió que intentará enseñarle al sistema a convertir datos en representaciones visuales que pueda ver con su dispositivo de realidad virtual.

Hermann Hauser, un emprendedor científico de computadoras de Cambridge dijo que los avances recientes en algoritmos de aprendizaje de máquinas, el poder computacional y el acceso a inmensos volúmenes de datos, combinados permiten que los ingenieros de computadoras, puedan crear sistemas de IA. Pero el doctor Hauser dijo que le preocupaba que solo las más grandes compañías de Silicon Valley tuvieran acceso al nivel de información necesario para crear IA funcional, lo que concentraría poder entre esas compañías. “La gran preocupación que tengo es que el único camino para que esto funcione es tener acceso a grandes conjuntos de datos”, dijo. “La única gente que tiene acceso a esto son de Apple, Google, Amazon y Facebook.”

Los grandes avances en IA han llevado a líderes tecnológicos a advertir que algún día, las máquinas inteligentes podrían poner en peligro a la humanidad.

Zuckerberg calificó esto como “improbable … y mucho menos factible que desastres debidos a la dispersión de enfermedades, violencia, etc.”. Añadió: “Creo que podemos construir IA para que trabaje para nosotros y nos ayude”.

Hasta ahora, el experimento de Facebook más avanzado con IA ha sido la prueba de un asistente virtual llamado M, que opera en el Messenger de Facebook y promete servir los deseos de llamar un taxi hasta organizar una fiesta de cumpleaños. También ha utilizado IA para describir fotos a usuarios ciegos. 

           Ver video: Robots in the workplace

Comentario del Financial Times (Transcripción del video):

Andrew Hill (Editor de administración, Financial Times): Los humanos contra las máquinas es una historia tan antigua como la historia de la automatización, ya sea en el campo o en las fábricas, con la invención de la nueva tecnología siempre viene la promesa de una revolución de la forma en que trabajamos y seguramente con el temor de que se sustituyan los trabajos que ahora harían las máquinas. Después de un período de transición inquietante siempre han evolucionado nuevos puestos de trabajo. ¿Es diferente esta vez?

Martin Ford: Creo que ahora estamos en el momento en que la tecnología está  finalmente acá, cuando esta opción va a pasar y el hecho de que es, ya sabes, hemos tenido estas falsas alarmas tantas veces en el pasado que realmente es difícil para las personas aceptar esto, que es de donde viene una gran cantidad de la resistencia.

Andrew Hill: el libro de Martin Ford, “El ascenso los robots”, ganador del premio del  libro de negocios del año, de Financial Times y McKinsey, pinta un panorama sombrío del futuro en el que las máquinas desplazan a los seres humanos en todo menos en algunos roles muy especiales. Él prescribe soluciones económicas radicales, incluyendo un ‘dividendo ciudadano universal’ (ver en Lampadia: El futuro del empleo con Robots e ‘inteligencia Artificial’), pero advierte que la disrupción se extenderá a profesiones que se consideraban inmunes.

Martin Ford: Uno ve ahora impactos en el periodismo (reporteros) y en revisión de documentos y empresas de abogados, creo que va a escalar, que comenzará a impactar a cualquiera que haga análisis o escritos rutinarios, ya sabes, se reporta a los superiores y haces lo mismo una y otra vez, todo eso va a ser susceptible, eventualmente.

Andrew Hill: Pero desarrollos como los que trabajan en la vanguardia de la tecnología cognitiva de IBM ven el futuro de manera diferente. Las máquinas más sofisticadas trabajarán en conjunto con los humanos abriendo nuevas posibilidades en áreas de trabajo todavía inimaginables, al igual que la última ola de cambio impulsada por computadoras creó la profesión del ingeniero de software.

Guruduth Banavar (Vice Presidente, Cognitive Computing de IBM Research): En el futuro, cuando nos metemos en este mundo de datos a gran escala, el conocimiento y los sistemas cognitivos, creo que va a haber un tipo similar de nuevas profesiones en el área, lo que yo llamaría ingeniería del conocimiento, que comienza a partir de la toma de datos en bruto alcance hasta la creación y representación del conocimiento de las diferentes áreas que necesita ser complementado por los tipos de aprendizajes estadísticos más automáticos para ser aplicados a los datos en bruto a gran escala.

Andrew Hill: Watson de IBM, el sistema cognitivo de más alto perfil, ya ha golpeado al ser humano en concursos, pero Banavar ve esta tecnología como una forma de ayudar a los humanos expertos, no suplantándolos.

Guruduth Banavar: Bueno, mi opinión es que hay tantas dimensiones de la inteligencia que, de hecho, hay mucho desconocimiento acerca de lo que significa inteligencia. Sostenemos ideas al respecto, pero no entendemos que sólo estamos arañando la superficie de la inteligencia, así que creo que un mejor enfoque para nosotros en este momento sería construir máquinas que aumenten la inteligencia humana para resolver problemas prácticos y que ayuden a hacer frente a la enorme cantidad de datos y conocimientos que se han generado en el mundo.

Andrew Hill: Mientras los trabajadores de oficina tratan de adaptarse a las nuevas tecnologías, Banavar cree las computadoras ayudarán en la transición de la nueva era, educando en formas nuevas y enseñando nuevas habilidades, pero la clave para saber si esta transformación socava o simplemente perturba las economías y sociedades está en cuán lejos y cuán rápido progresa el cambio.

Martin Ford: Creo que incluso las personas que no compran por completo esta idea de la amplia automatización estarían de acuerdo en que, con claridad, las cosas van a avanzar más rápido y más rápido en el futuro. Quiero decir, yo no creo que haya ninguna duda de que algunas ocupaciones van a evaporarse, la gente, si quiere seguir siendo relevante tienen que reentrenarse o encontrar algo más que hacer. Creo que lo más importante de cara al futuro es estar en una posición en la que estés preparado para hacer eso.

Andrew Hill: Finalmente, optimistas y pesimista de la tecnología, pueden no estar tan distantes como parece que la naturaleza revolucionaria de la tecnología cognitiva podría traer una gran promesa. Ambos están de acuerdo en la necesidad de que las personas, las empresas y las sociedades se adapten. Ambos piensan que la educación y la reeducación pueden suavizar la transición, pero las áreas en las que difieren fundamentalmente, es que la velocidad y la escala del cambio están llenos de incertidumbre. ¿Quién esté en lo cierto determinará si el ascenso de los robots conduce a un futuro más brillante para muchos trabajadores o a uno mucho más oscuro.

Ya que hiciste preguntas complicadas sobre IA

Izabella Kaminska

18 de diciembre 2015

Financial Times

Traducido y glosado por Lampadia

¿Es la IA algo de lo que debemos preocuparnos?

Robots de un restaurante en Suzhou, China ©Getty

“Silicon Valley en movimiento para mantener segura la IA”

¿Es la IA algo de lo que debemos preocuparnos?

Bueno, ya sabes lo que dicen sobre IA…

No — ¿Qué?

Que los científicos dicen hace 40 años que la IA está a 40 años de distancia.

Bueno. ¿Entonces por qué todo el ruido?

Emprendedores de alto perfil y científicos han estado tocando las alarmas sobre el riesgo existencial que la IA trae a la humanidad. Elon Musk, el promotor de los autos eléctricos de Tesla tuiteó el año pasado que la IA era “potencialmente más peligrosa que las bombas atómicas”. Y el físico Stephen Hawking, ha advertido que “el desarrollo de inteligencia artificial puede significar el fin de la raza humana”.

¿Cuál es el riesgo inminente?

Los avances en sistemas de aprendizaje profundo – una forma de tecnología de algoritmos – ha permitido que las computadoras se involucren en tareas que antes solo podían ser hechas por los seres humanos. Estos descubrimientos se refieren a la habilidad de detectar pequeñas diferencias en el mundo, como reconocer patrones visuales de sonidos y, luego de ser capaces de responder a ellos con fluidez. En muchos casos esto ha creado una impresión convincente de acciones conscientes. Y como estos sistemas se ven y sienten inteligentes – aún cuando no hay inteligencia detrás de ellos – la gente está crecientemente inquieta.

¿O sea que estos desarrollos están mal representados?

Los científicos de computadoras te dirán que los intentos de aprendizaje de las máquinas usados por algo como el Google’s DeepMind no son nuevos. Lo nuevo es la velocidad de proceso y el tamaño del conjunto de datos manejados por los algoritmos. Musk y Hawking están entre los que creen que un programa de ‘superinteligencia’ autónoma puede colarse, pues podría aprender de sí mismo exponencialmente.

¿Pero es correcto hacer ese supuesto?

Científicos como Simon Stringer del ‘Oxford Centre for Theoretical Neuroscience and Artificial Intelligence’ son escépticos sobre la idea de que se combinen las fuerzas de computación exponencial con estrategias de aprendizaje de máquinas que lleven a un tipo de IA que pueda ser una amenaza a los humanos. Estos modelos tienen muchas aplicaciones – la habilidad de tranzar en mercados o de navegar autos sin piloto – pero no pueden resolver los problemas de replicar la conciencia. Y todos ellos dependen de seres humanos para su intelecto. Un sistema verdaderamente consciente tendría que entender el mundo sensorial de la misma manera en que lo hace el cerebro humano. El trabajo de Stringer se focaliza en alcanzar eso, pero el no cree que lleve a la superinteligencia. Él espera lograr la inteligencia de una rata.

¿No sería inteligente cubrir el riesgo, por si acaso?

Musk y el financiero de Silicon Valley, Peter Thiel, piensan así, por lo cual ellos y otros han anunciado un proyecto de US$ 1,000 millones para desarrollar IA en una forma que sea más probable de beneficiar al conjunto de la humanidad. Su proyecto OpenAI, será un movimiento sin fines de lucro que conduzca investigación de IA con código abierto y que comparta sus hallazgos con todos. Otros fundadores de OpenAI incluye a Amazon Web Services e Infosys, así como inversores individuales como Sam Altman, presidente de Y Combinator, una incubadora de start-ups de California.

¿De verdad los billonarios del club de élite de Silicon Valley alinean sus intereses con los de la humanidad?

Los cínicos sugerirían que este es un intento de evitar que las ventajas de la IA sean monopolizadas por una corporación o una persona. Un plan para compartir libremente la tecnología de IA no es lo mismo que frenar el conocimiento para que un sistema de inteligencia artificial sea creado y usado por un mal actor; o prevenir que una IA autónoma de aniquilar la humanidad. A lo máximo permite que la emergencia simultánea de muchos tipos de IA con los buenos protegiéndonos de los malos.

¿Pero qué pasaría si todos ellos se coluden contra la humanidad?

Exacto. Pero esa es una pregunta inconveniente para los billonarios de Silicon Valley.

¿Cómo así?

Si la IA posee realmente un riesgo existencial para la humanidad, lo mejor sería suspender todos los desarrollos. Imagínate lo que una moratoria del desarrollo de IA haría en la valorización de las compañías de tecnología.

Se convertirían en nuevas compañías de combustibles fósiles. O sea que no sería una gran sorpresa si ellas forman un grupo de lobby para promover un desarrollo responsable. 

Ver video: AI and the future for humanity

FT Negocios (Transcripción del video)

Ravi Mattu, Editor de Tecnología, FT

Durante casi 400 años, la Royal Society en Londres ha sido la sede de los líderes del pensamiento para discutir cómo la ciencia puede beneficiar a la humanidad. Desde Isaac Newton a Charles Darwin, los científicos se han reunido en estas habitaciones para considerar los temas más importantes del día. Ahora esta venerable institución está presentando una serie de eventos para la era de Internet. La primera reunión es una conferencia de un día sobre el aprendizaje de las máquinas, el proceso mediante el cual las computadoras son capaces de funcionar sin ser explícitamente programadas. Uno de los expertos que hablan en el evento en la Royal Society es Nick Bostrom, director del Instituto del Futuro de la Humanidad de la Universidad de Oxford y autor del best-seller “Súper-Inteligencia”. Él dice que podría haber un momento en el futuro cercano, cuando las máquinas sean más inteligentes que los seres humanos y tenemos que hacer más para abordar el riesgo potencial de ello.

Habrá una gran intersección en la historia humana, cuando hagamos la transición de una era dominada por la inteligencia biológica a una era dominada por la inteligencia artificial. No es algo necesariamente inminente, de hecho, creo que tenemos muy poca evidencia acerca de la línea de tiempo para estos desarrollos, pero con el tiempo, tal vez a lo largo de décadas o más tiempo, vamos a encontrar la manera de producir en las máquina el mismo proceso que hace inteligentes nuestros cerebros. Y va a ser realmente una invención como ninguna otra, el último invento, yo pienso, el último invento que los humanos alguna vez tengan que hacer porque después usted tendrá una máquina súper inteligente que lo hará mejor que nosotros. Incluso si esta transición es aún bastante lejana, las consecuencias son enormes y vale la pena empezar a pensar en ello desde hoy.

Si usted le cree a Hollywood, estas consecuencias pueden verse bastante aterradoras. Películas como Terminator y The Matrix sugieren que la inteligencia artificial podría ser la mayor amenaza para el futuro de la humanidad. Bostrom no cree que las películas de ciencia ficción sean una buena guía del futuro, no es el único que toca una campana de advertencia. El físico Stephen Hawking, que se basa en una forma de IA para comunicarse, ha dicho que un completo desarrollo de la inteligencia artificial podría significar el fin de la raza humana.

Súper-Inteligencia es algo potencialmente muy potente, al igual que la inteligencia humana es una cosa muy poderosa en relación con otras criaturas biológicas, que nos dieron a los humanos una posición inusual y dominante en el planeta. No es que tengamos músculos más fuertes o los dientes más afilados, es nuestro cerebro, que es ligeramente más inteligente que nos ha permitido los grandes avances desarrollando tecnologías, planes y organizaciones. Fundamentalmente las mismas razones, si usted tiene algo que supera nuestra inteligencia tanto como la nuestra supera la de los animales, esa cosa podría ser muy poderosa y puede ser capaz de dar forma al futuro de acuerdo a sus preferencias.

Así es que usted dice que uno de los posibles riesgos es que el dispositivo, las tecnologías que creemos podrían llegar a dominar?

Sí, creo que es un tipo de escenario posible, el futuro de los gorilas hoy depende mucho más de nosotros, de lo que los humanos decidan hacer, que de lo que los gorilas mismos decidan hacer. Del mismo modo, si hubiera máquinas súper-inteligentes, entonces nuestra suerte, el futuro de la humanidad, puede depender más de sus decisiones y de sus acciones. Entonces se convierte en algo muy importante que las preferencias de esta superinteligencia coincida con las nuestras, que estén lo suficientemente bien alineadas, que realmente se preocupen por el mismo tipo de cosas que nos importan, eso no es algo que no podemos dar por hecho, tenemos que actuar juntos para que en el momento en que necesitemos saber cómo controlar la súper inteligencia, podamos resolver el problema y parece que a partir de la limitada  investigación que se ha hecho hasta ahora, esto parece ser un problema realmente difícil .

¿Es usted optimista sobre a dónde vamos ?

¿Eres neutral, o estás muy ansioso?

Teniendo en cuenta nuestro estado actual de conocimiento podemos ver en la mesa, resultados extremadamente buenos y muy extremadamente malos. Yo creo que el resultados del tipo intermedio se ve probable cuando extrapolamos más hacia el futuro y que el destino de más largo plazo para la humanidad y pienso que es más probable que no sea ninguno de los extremos, ya sea la extinción o algo tan malo como la extinción, o un resultado extremadamente utópico.

El avance tecnológico es imparable. Los riesgos indicados son probables y de muy alto impacto eventual. Todo esto puede estar lejos, pero eso no disminuye sus posibles efectos. Nos parece que ya es hora de que la humanidad inicie un proceso de fijación de reglas éticas que regulen el comportamiento de las máquinas súper-inteligentes. Este es otro aspecto en el que la humanidad necesita desarrollos positivos de gobernanza global. Ver en Lampadia: Inteligencia Artificial: ¿Se puede controlar?

Para empezar, reflexionemos sobre las tres leyes de la robótica de Isaac Asimov:

1. Un robot no puede causar daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.

3.- Un robot debe proteger su propia existencia, en la medida en que esta protección no entre en conflicto con la primera o segunda ley.

Lampadia

 

 

 

 

 

 

 

 




Litio: Uno de los materiales del futuro

Litio: Uno de los materiales del futuro

Como hemos reportado anteriormente, el desarrollo de autos eléctricos y sistemas de baterías capaces de abastecer las necesidades de las familias con sistemas solares, está generando un gran desarrollo tecnológico liderado, en gran medida por Tesla, una compañía innovadora de Silicon Valley que lleva el nombre de Nikola Tesla (del antiguo Imperio austro-húngaro, actual Croacia. Fue inventor, ingeniero mecánico, ingeniero eléctrico y físico de origen Serbio. Se le conoce por numerosas invenciones en electromagnetismo. Las patentes de Tesla y su trabajo teórico ayudaron a forjar las bases de los sistemas modernos de potencia eléctrica por corriente alterna (CA), y el motor de corriente alterna, que contribuyeron al surgimiento de la Segunda Revolución Industrial (Wikipedia)).

Entre los materiales del futuro están el litio, cobalto y grafito. Las reservas de litio están concentradas fundamentalmente en Bolivia, Chile y Argentina. En el Perú no hay operaciones vigentes, pero si hay potencial para su desarrollo, especialmente en Puno y Arequipa.

La siguiente nota nos muestra como se mueven estos nuevos desarrollos.

Tesla en ‘stand-off’ por el suministro de litio

Escrito por Henry Sanderson, publicado en Financial Times el 15 de diciembre de 2015

Traducido y glosado por Lampadia

En el borde del desierto de Nevada, Tesla, el fabricante de automóviles eléctricos, está construyendo la planta de baterías más grande del mundo. Se espera que la llamada ‘Gigafactory’, de una milla de largo, impulse la demanda de litio, la materia prima utilizada en las baterías que alimentan la mayoría de los autos eléctricos.

Pero la compañía aún no ha anunciado ningún acuerdo de suministro de litio con productores suficientemente grandes, dejando poco claro cuál será la fuente del material natural de peso ligero que necesitará para empezar a producir baterías el  2017 con su socio japonés, Panasonic.

La Gigafactory está configurada para suministrar baterías para los 500,000 autos que Tesla espera producir a finales de la década, así como a las casas de familia que usen energía solar. La compañía espera que, mediante el suministro de sus propias baterías, pueda reducir sus costos por kilovatio-hora en más de un 30%, crucial para la captación del mercado masivo de vehículos eléctricos.

Pero eso va a requerir una oferta segura y de largo plazo de litio, del cual más del 70 por ciento se encuentra en Chile, Argentina y Bolivia. Debido al crecimiento de la demanda de baterías eléctricas, el mercado mundial de litio está empezando a escasear, sin ninguna nueva oferta previsible para el próximo año, según los analistas. Además, las fábricas de baterías que se están construyendo en China van a aumentar más la demanda de litio.

“La disponibilidad de la materia prima es probablemente el mayor desafío que enfrenta Gigafactory además de la necesidad de demanda básica”, dice Benchmark Mineral Intelligence, una consultora en Londres. “También es la única área de la cadena de suministro de vehículos eléctricos en la que Tesla no tiene propiedades ni control.”

“La estrategia actual parece no involucrar inversión directa, sino aprovechar el nombre de Tesla mediante la firma de contratos contingentes a precios increíblemente bajos con empresas mineras junior que nunca han producido químicos de litio”, dice Joe Lowry, un experto en el mercado y fundador de Global Lithium, una consultora.

“El resultado más probable es que Tesla tenga que pagar precios altos por el litio, por lo menos hasta el final de la década”, añade Lowry, ex trabajador de FMC Lithium, uno de los grandes productores.

Hasta el momento dos empresas han anunciado acuerdos de suministro con Tesla y parece que ninguna producirá grandes cantidades hasta después de 2020. Eso podría dejar a la empresa con una escasez de litio cuando su fábrica empiece a funcionar – o tendrán que firmar acuerdos de suministro cuando los precios de hidróxido de litio sean más altos. Tesla necesitará alrededor de 24 mil toneladas anuales de hidróxido de litio, de un mercado, el año pasado, de 50,000 toneladas, según Benchmark Mineral Intelligence.

El litio se utiliza sobre todo en vidrio, cerámica y lubricantes.
Alrededor del 30 por ciento de los suministros se utilizan en baterías.
Las sales de litio también se utilizan para tratar la depresión y los trastornos del estado de ánimo.

El litio es un metal altamente reactivo que rara vez se encuentra en estado natural, debe ser extraído por medios químicos a partir de compuestos en roca dura, o a partir de soluciones iónicas tales como la salmuera.

Los analistas dicen que la demanda va a aumentar en los próximos 5 a 10 años, cuando los costos de las baterías caigan y los vehículos eléctricos y el almacenamiento de las redes eléctricas aumenten en popularidad. Los precios de litio en China han aumentado 60 por ciento en los últimos dos meses por el aumento de la demanda de bienes de consumo y vehículos eléctricos.

Elon Musk, fundador de Tesla, ha dicho que la compañía tratará de usar el litio de Nevada, donde la mina Silver Peak de Albemarle es la única que produce el material en la mina en EEUU.  La mina produjo 870 toneladas cuando era propiedad de Rockwood en 2013, antes de que Albemarle comprara la empresa por US$ 6.2 miles de millones el año pasado, según los últimos datos disponibles.

Los analistas dicen que Albemarle de Baton Rouge, FMC Lithium de Filadelfia y SQM de Chile, los grandes productores de litio, no están dispuestos a suministrar su material a los precios que Tesla exige.

“Tesla no es el mayor trozo del pastel”, dice uno de los productores más pequeños. “Es el perro que ladra pero no muerde“.

En agosto, Bacanora Minerals, que se encuentra en las etapas preliminares de desarrollo del proyecto Sonora, una planta de litio en México, dijo que había firmado un acuerdo condicional con Tesla para el suministro de hidróxido de litio. Eso hizo que las acciones de Bacanora subieran alrededor de un cuarto en un día. El mes pasado, la empresa que cotiza en Toronto consiguió 8.8 millones de Libras Esterlinas a través de la emisión de nuevas acciones para el proyecto, que se espera que empiece su primera fase de producción recién el primer semestre de 2018.

Paquetes recargables de aire con litio entregarán hasta cinco veces más energía

Cuando se acerque la fecha de producción de la fábrica, es probable que estimule otros pequeños productores en los EEUU, según los analistas. “Se van a ver a muchas más empresas cavando en busca de salmuera de litio en Nevada,” un productor añade. “Solo por su cercanía a la fábrica.” L

 




Empresas multiplican servicios en el espacio

Empresas multiplican servicios en el espacio

Facilitar el acceso a Internet desde los satélites en órbita, una idea abandonada de los 90s, ha sido retomada por el fundador de SpaceX, Elon Musk. Esto ha inspirado una nueva carrera espacial. Pero ésta es diferente: es una carrera para construir una red de satélites capaces de brindar Internet a los cerca de 4.4 mil millones de personas que actualmente viven sin acceso a la web.

Ya antes de la carrera satelital, Richard Branson, fundador de Virgin Galactic, incursionó en la comercialización de transporte al espacio. El inició el desarrollo de naves que permitirían ofrecer vuelos espaciales comerciales suborbitales tripulados y, más adelante lo hará con vuelos orbitales. Este emprendimiento ha tenido algunos problemas, pero se estima que Branson saldrá adelante.


Prototipo de Virgin Galactic

Ahora, los avances están abordando temas sociales. Lo que Musk ha propuesto es una red de aproximadamente 4,000 micro satélites para proporcionar servicios de Internet de banda ancha a todo el mundo. Dos grandes empresas, Google (una empresa innovadora que está invirtiendo miles de millones de dólares en todo tipo de innovaciones, desde aviones y satélites a autos sin conductor y lentes de contacto que miden los niveles de glucosa en lágrimas) y Fidelity Investments (empresa especializada en gestión la de activos y fondos de pensiones) se han unido para comprar una participación en SpaceX. Han contribuido con un total de US$ 1 mil millones y en conjunto poseen aproximadamente el 10% de la compañía.

A finales de 1990 hubo planes para ofrecer servicios espaciales similares, pero la caída de las dot-com impidió su financiamiento. Además, en esa década, el proyecto era muy riesgoso, por los altos costos del lanzamiento de un satélite (alrededor de 60 a 70 millones de dólares).

Pero algunas cosas han cambiado desde finales de 1990. Por un lado, la tecnología de satélites ha avanzado, y el costo de la implementación ha bajado de manera significativa. Los microsatélites pueden serlanzadospor docenas a la vez, y ya no tienen que operar enórbitas muy altas, lo que reduce los costos de lanzamiento, con un rendimiento comparable a los satélites antiguos más grandes que requerían órbitas más lejanas.

Además, SpaceX espera dirigirse a las partes del mundo donde hay poca infraestructura y una gran oportunidad para el crecimiento de Internet. Según la Unión Internacional de Telecomunicaciones, a finales de 2014, más de la mitad de la población mundial aún no tiene acceso a Internet. Los servicios de satélite siguen siendo menos económicos en áreas donde todavía se utilizan las redes de fibra óptica, pero Musk ha declarado que su servicio de Internet se dirigirá principalmente a la prestación del servicio en las zonas más remotas del planeta.

“Cientos de satélites orbitarían unos 750 kilómetros por encima de la tierra, mucho más cerca que los satélites de comunicación tradicionales, en órbitas geoestacionarias a altitudes de hasta 22,000 kilómetros. Los satélites más bajos brindarían un servicio de Internet más rápido, con una menor distancia de viaje para las señales electromagnéticas. El retraso en los sistemas de satélites actuales hace que aplicaciones como Skype, juegos en línea y otros servicios basados en nubes sean aún difíciles de usar”.

Musk no es el único en reconocer el potencial de mercado. Greg Wyler, antiguo innovador de Google, por su parte, están invirtiendo en una empresa competidora llamada OneWeb, cuyo objetivo es construir una red similar de microsatélites.

El plan de OneWeb incluye el lanzamiento de cerca de 700 satélites en el espacio, creando una red construida para proporcionar alta velocidad a Internet a un bajo costo. El proyecto ya ha recibido hasta US$ 2 millones de dólares de financiadores como Qualcomm y Virgin Galactic.

La avanzada tecnología de OneWeb promete un amplio alcance global (podría convertirse en un verdadero proveedor a nivel mundial, en lugar de centrarse únicamente en las zonas subdesarrolladas.) El proyecto OneWeb también ha solucionado un obstáculo importante que mantiene su competidor SpaceX, la obtención de los derechos sobre el espectro necesario para entregar la Internet desde el espacio.

Además, Google aparte de invertir en los proyectos de Musk, también está trabajando en un sistema de delivery de Internet basado en un globo aerostático de gran altitud llamado Loon. Estos globos funcionan con energía solar y pueden proporcionar una cobertura de Internet a un área de alrededor de 40 kilómetros de diámetro. Al asociarse con numerosas empresas de telecomunicaciones, Google espera que el Proyecto Loon pueda utilizar la tecnología LTE inalámbrica para permitir a la gente, dentro de la zona de cobertura, conectarse a la web desde celulares y otros dispositivos móviles. Las primeras pruebas para Proyecto Loon comenzaron en el verano de 2013 en Nueva Zelanda y se han ampliado desde entonces para cubrir más terreno. Los resultados son prometedores, lo que significa que los globos pueden ser una gran parte del futuro de Internet.

Por su lado, Facebook está desarrollando unos drones para ofrecer Internet en zonas remotas. Los proyectos de Google y Facebook serían similares en concepto a los sistemas basados en el espacio, pero serían operados dentro de la atmósfera terrestre.

El aumento en el alcance del internet a las zonas rurales brindaría más oportunidades para las pequeñas empresas. La capacidad de conectar las poblaciones rurales en todo el mundo a los servicios de Internetha dado lugar a increíbles avances en la situación financiera, ya que muchos son capaces de abrir cuentas bancarias y construir historial crediticio por primera vez (ver en (L): El mundo ha mejorado y seguirá mejorando). También brinda un acceso al capital y el comercio, y permite a los consumidores a tomar mejores decisiones de compra y venta y, pueden mejorar la eficacia de la producción en industrias que van desde la agricultura hasta la manufactura. Ver en Lampadia (L): Interconectándonos para crecer.

Con miles de millones de dólares en apoyo financiero, parece que estos proyectos lograrán la meta de brindar Internet a todo el mundo. Y esta nueva carrera espacial tiene el potencial de cambiar radicalmente la vida de miles de millones aquí en la tierra. Con la telefonía celular ya se ha avanzado mucho en zonas pobres, que no han tenido que tender líneas físicas, permitiendo dar saltos cualitativos en el uso de tecnología de punta con costos de implementación diminutos relativamente. No nos olvidemos que según Fernando Savater el hombre evoluciona infinitamente a través de la tecnología. Lampadia