1

El legado de Stephen Hawking

Una de las mentes más brillantes del mundo, el Dr. Stephen Hawking, falleció a la edad de 76 años en Cambridge, Reino Unido, el día de ayer, 14 de marzo. En lo que puede considerarse como una sorprendente coincidencia, murió en el Día de Pi, un día en el que científicos y matemáticos celebran la relación entre la circunferencia de un círculo y su diámetro y fecha que también marca el cumpleaños de Albert Einstein, quien hubiera cumplido 139 años.

Quizás es uno de los científicos más reconocidos por todo el mundo, ya que se convirtió en una de las figuras más influyentes en el mundo de la ciencia, no solo como teórico y astrofísico, sino también como divulgador científico. Además, es conocido por haber llevado una vida llena de momentos inolvidables, en muchas ocasiones junto a otras grandes personalidades del mundo, y con un gran sentido del humor.

¿Quién era Stephen Hawking?

Dedicó toda su vida a ser un físico teórico, astrofísico, cosmólogo y divulgador científico. Su dolencia motoneuronal vinculada con la esclerosis lateral amiotrófica (ELA) le hizo ir más lento, pero no le frenó en su afán de seguir aprendiendo del universo.

La enfermedad le fue detectada cuando cursaba la universidad. Le dieron una esperanza de vida de dos o tres años, pero su lucha personal le permitió esquivar los peores pronósticos. Lo que no pudo evitar fue que su dolencia se fuera agravando con el paso del tiempo hasta quedarse prácticamente paralizado. Tan solo podía mover levemente un músculo bajo su ojo, lo suficiente para poder comunicarse a través de un ordenador que reproducía sus pensamientos.

En una situación en que la mayoría de personas se habría rendido, una mente tan brillante como la suya usó un sistema de habla asistida por computadora para superar el desafío. A pesar de las probabilidades apiladas contra él, luchó por sus objetivos diciendo:

“Es una pérdida de tiempo estar enojado por mi discapacidad. Uno tiene que seguir adelante con la vida y yo no lo he hecho mal. La gente no tendrá tiempo para ti si siempre estás enojado o quejándote.”

Fue autor de varios libros como The Grand Design (El gran diseño – 2010), The Universe in a Nutshell (El universo en una cáscara  de nuez -2001), My Brief History (Mi breve historia -2013) y The Theory of Everything (La teoría de todo – 2002), pero su libro más popular fue el de 1988, Una breve historia del tiempo, que vendió más de 10 millones de copias en todo el mundo y fue traducido a 35 idiomas. En una carrera que abarca más de cinco décadas, Hawking ha sido reconocido varias veces como una de las mentes más brillantes de las últimas décadas.

Como físico teórico, su contribución al mundo de la ciencia sigue siendo notable, especialmente por sus contribuciones al estudio de la relatividad general y su trabajo con los agujeros negros. Hawking trabajó durante toda su vida en desentrañar las leyes que gobiernan el Universo y, junto a su colega Roger Penrose, mostró que la teoría de la relatividad de Einstein implica que el Universo empezó como una singularidad antes del Big Bang, un punto en el que no existían el espacio ni el tiempo y donde no se podían aplicar las leyes convencionales de la física.

A mediados de la década de 1970 descubrió también que la combinación de las leyes de la mecánica cuántica y de la relatividad general desmentían incluso que los agujeros negros fuesen completamente negros, pues emitían una radiación, conocida desde entonces como “radiación Hawking”. A pesar de sus contribuciones a la física teórica, sin embargo, jamás obtuvo el prestigioso Premio Nobel de Física.

Pese a la minusvalía que padecía, Stephen Hawking dio numerosas muestras de energía y vitalidad. Así, por ejemplo, invitado por la compañía estadounidense Zero Gravity, el 26 de abril de 2007 realizó un vuelo a la estratosfera en el que pudo experimentar la ingravidez. Además, mostró también su sentido del humor con varios cameos en la serie de televisión ‘The big bang theory’.

Aunque Stephen ya no está con nosotros, deja un legado que siempre tendrá su sello. Su visión e ideas continuarán inspirando a las generaciones venideras y su trabajo y sus contribuciones a la ciencia serán para siempre una parte del legado científico mundial. Además. De manera singular, nos mostró el poder de la mente humana. En palabras de Stephen Hawking:

Por difícil que parezca la vida, siempre hay algo que puedes hacer y tener éxito.

En Lampadia queremos terminar esta nota compartiendo algunas de sus frases más célebres, que no solo nos pueden ayudar a entender algo de su conocimiento científico, también nos muestran el camino de la grandeza de espíritu que los hombres somos capaces de alcanzar:

“No le tengo miedo a la muerte, pero yo no tengo prisa en morir. Tengo tantas cosas que quiero hacer antes”.

“Me he dado cuenta que incluso las personas que dicen que todo está predestinado y que no podemos hacer nada para cambiar nuestro destino, siguen mirando a ambos lados antes de cruzar la calle”.

“La inteligencia es la habilidad de adaptarse a los cambios”.

“Los robots podrían llegar a tomar el control y se podrían rediseñar a sí mismos”.

 “La humanidad tiene un margen de mil años antes de autodestruirse a manos de sus avances científicos y tecnológicos”.

“Para sobrevivir como especie, a la larga debemos viajar hacia las estrellas, y hoy nos comprometemos con el próximo gran avance del hombre en el cosmos”.

“La próxima vez que hablen con alguien que niegue la existencia del cambio climático, díganle que haga un viaje a Venus. Yo me haré cargo de los gastos”.

“Einstein se equivocaba cuando decía que ‘Dios no juega a los dados con el universo’. Considerando las hipótesis de los agujeros negros, Dios no solo juega a los dados con el universo: a veces los arroja donde no podemos verlos”.

“La vida sería trágica si no fuera graciosa”.

“El peor enemigo del conocimiento no es la ignorancia, es la ilusión del conocimiento”.

“La raza humana necesita un desafío intelectual. Debe ser aburrido ser Dios y no tener nada que descubrir”.

“Dado que existe una ley como la de la gravedad, el Universo pudo y se creó de la nada. La creación espontánea es la razón de que haya algo en lugar de nada, es la razón por la que existe el Universo, de que existamos. No es necesario invocar a Dios como el que encendió la mecha y creó el Universo”.

“La voz que utilizo es la de un antiguo sintetizador hecho en 1986. Aún lo mantengo debido a que todavía no escucho alguna voz que me guste más y porque a estas alturas ya me identifico con ella”.

“Solo somos una raza de primates en un planeta menor de una estrella ordinaria, pero podemos entender el universo”.

“Nada puede existir para siempre”.

Lampadia




No temamos a las máquinas súper inteligentes

No temamos a las máquinas súper inteligentes

Mucho de lo que hemos publicado últimamente sobre la inteligencia artificial conlleva temores sobre el mal uso de esta tecnología para la raza humana. En el siguiente artículo de Luciano Floridi del Financial Times, el experto en filosofía y ética de la información descarta los temores como algo que no corresponde a lo que hoy se puede prever.

Los humanos no tienen nada que temer de las máquinas inteligentes

Luciano Floridi (Profesor de filosofía y ética de la información en la Universidad de Oxford, R.U.)

Financial Times

25 de enero 2016

Traducido y glosado por Lampadia

 

Ninguna versión de un Godzilla IA con está a punto de esclavizarnos.

Debemos centrarnos en los desafíos reales, dice Luciano Floridi.

Elon Musk, fundador de SpaceX y Tesla Motors, cree que la inteligencia artificial es “potencialmente más peligrosa que las armas nucleares”. La “mayor amenaza existencial” para la humanidad, piensa, es una inteligencia de máquinas súper inteligencies estilo Terminator que un día dominarán a la humanidad. Por suerte, Musk se equivoca.

Muchas de las máquinas pueden hacer cosas increíbles, a menudo mejor que los humanos. Por ejemplo, la computadora Deep Blue de IBM jugó y venció al gran maestro Garry Kasparov en ajedrez en 1997. En 2011, otra máquina de IBM, Watson, ganó un episodio del programa de concurso de televisión Jeopardy, superando a dos jugadores humanos, uno de los cuales habían disfrutado de una racha de 74 victorias. El cielo, al parecer, es el límite.

Sin embargo, Deep Blue y Watson son versiones de la “máquina de Turing”, un modelo matemático ideado por Alan Turing, que establece los límites de lo que un ordenador puede hacer. Una máquina de Turing no tiene entendimiento, no hay conciencia, no hay intuición – en fin, nada que reconoceríamos como una vida mental. Carece de la inteligencia incluso de un ratón.

Otros científicos están en desacuerdo. Stephen Hawking ha argumentado que “el desarrollo completo de la IA podría significar el fin de la raza humana”.

Ray Kurzweil, inventor y futurista estadounidense de Silicon Valley, ha pronosticado que en 2045 el desarrollo de tecnologías de cómputo alcanzará un punto en el que la IA superará la capacidad del ser humano para comprenderla y controlarla. Escenarios como los de Kurzweil son extrapolaciones de la ley de Moore, según la cual el número de transistores en los ordenadores se duplica cada dos años, entregando más y más poder computacional a un costo cada vez menor.

Sin embargo, Gordon Moore, persona por la cual se nombró dicha ley, reconoció que es una generalización poco fiable porque hay un límite físico a la cantidad de transistores que pueden ponerse en un circuito integrado.

En todo caso, la Ley de Moore es una medida de la potencia de cálculo, no de inteligencia. Mi robot de limpieza, un Roomba, va a limpiar el suelo de forma rápida y barata y cada vez mejor, pero nunca va a reservar unas vacaciones por sí misma con mi tarjeta de crédito

En 1950, Turing propuso la siguiente prueba: Imagine que un juez humano hace preguntas escritas a dos interlocutores en otra habitación. Uno de ellos es un ser humano, el otro una máquina. Si el juez no puede darse cuenta de la diferencia entre la máquina y el humano en el 70 por ciento de las veces, entonces, se puede decir que la máquina ha pasado la prueba.

Turing pensaba que las computadoras pasarían la prueba para el año 2000. Se equivocó. Eric Schmidt, el ex presidente ejecutivo de Google, cree que la prueba de Turing se logrará en 2018. Veremos. Hasta ahora no ha habido ningún progreso. Los programas de computadoras todavía tratan de engañar a los jueces mediante el uso de trucos desarrollados en la década de 1960.

Por ejemplo, en la edición 2015 del Premio Loebner, en un concurso anual de Turing, un juez le preguntó: “El auto no podía caber en el espacio de estacionamiento, ya que era demasiado pequeño. ¿Cuál era demasiado pequeño?” El software que ganó el premio de consolación de ese año respondió: “Yo no soy una enciclopedia andante, ¿sabes?”

Las ansiedades sobre máquinas súper-inteligentes son, por lo tanto, científicamente injustificadas. Las tecnologías “inteligentes” existentes no son un paso hacia la IA en toda marcha, al igual que subir a la cima de un árbol no es un paso hacia la luna, sino el final del viaje. Estas aplicaciones sin duda pueden ser más astutas que nosotros, pueden superarnos y sustituirnos en la realización de un número creciente de tareas. Esto no es porque tratan el mundo de forma inteligente, sino porque estamos volviendo al mundo cada vez más fácil para ellos.

Tome como ejemplo a los robots industriales. No les damos rienda suelta en el mundo para que construyan autos; construimos ambientes artificiales alrededor de ellos para asegurar su éxito. Lo mismo puede decirse de los miles de millones de artefactos inteligentes que pronto se comunicarán unos con otros vía la llamada ‘Internet de las Cosas’.

Ninguna versión Godzilla con IA de está a punto de esclavizarnos, por lo que debemos dejar de preocuparnos por la ciencia ficción y empezar a centrarnos en los retos reales que plantea la IA. En el análisis final, los seres humanos y no las máquinas inteligentes, son el problema, y ​​lo seguirán siendo en el futuro previsible.

Nuestra prioridad debe ser evitar cometer errores dolorosos y costosos en el diseño y uso de nuestras tecnologías. Existe un grave riesgo de que podamos hacer un mal uso de ellas en detrimento tanto para la especie como para el planeta.

Winston Churchill dijo una vez: “nosotros damos forma a nuestros edificios y después nuestros edificios nos dan forma a nosotros.” Lo mismo se aplica a las tecnologías inteligentes en la ‘infoesfera’. Lampadia

 

 

 

 




Ética para la era de la Robótica y la Inteligencia Artificial

Ética para la era de la Robótica y la Inteligencia Artificial

Durante el último año, y especialmente durante las últimas semanas, hemos hablado mucho sobre la Cuarta Revolución Industrial, la robótica y la Inteligencia Artificial. Cuando hemos podido, hemos enfatizado los temas éticos que se deben enfrentar. Pero lastimosamente, en el debate sobre estos desarrollos, todavía se percibe una peligrosa lejanía con este aspecto tan importante.

En todos los aspectos de la vida de las sociedades podemos comprobar un pernicioso debilitamiento de la ‘gobernanza global’ y una distancia muy grande entre lo cotidiano y la evolución de los temas estructurales que determinarán la calidad de vida futura de todos los seres humanos.

Es indispensable tomar nota de la realidad que se despliega ante nuestros ojos. Anteriormente, hemos llamado mucho la atención sobre los impactos de esta revolución en el empleo del futuro (ver en Lampadia nuestro repositorio sobre la  ‘Revolución Tecnológica’, ahora queremos poner a su disposición un buen análisis sobre el aspecto ético de la misma, que no debemos pasar por alto. Recomendamos leer el siguiente artículo de John Thornhil, del Financial Times, para ubicarnos mejor en esta nueva realidad.     

La nueva era de la tecnología necesita una nueva ética

Escrito por John Thornhill

Financial Times

20 de enero 2016

Traducido y glosado por Lampadia

Pablo Picasso declaró alguna vez: “Las computadoras son inútiles. Solo dan respuestas”. 

La broma del artista español pudo haber sido cierta en el siglo XX, cuando las computadoras eran en su mayoría máquinas calculadoras que desempeñaban funciones claramente pre-establecidas. Pero la expansión de la potencia de cálculo a principios del siglo XXI ha hecho que las computadoras planteen algunas de las interrogantes más exigentes de nuestros tiempos. Y no está claro quién será el responsable de dar las respuestas.

Los avances tecnológicos en inteligencia artificial (IA), biotecnología, nanotecnología, robótica y neurociencia (por nombrar solo unos pocos), han dejado a los hacedores de política, a los hombres de negocios y a los consumidores intentando entender todas las implicancias sociales, económicas y éticas.

Considere sólo tres preguntas: primero, ¿es la inteligencia artificial, como cree Elon Musk, “potencialmente más peligrosa que las armas nucleares?”

La idea de que robots rebeldes vayan a intentar destruir a sus creadores ha sido un tema popular de la ciencia ficción durante décadas (Asimov et al). Pero ahora algunos científicos serios, como Stephen Hawking y emprendedores tecnológicos destacados (entre ellos Musk, que dirige Tesla Motors y SpaceX), expresan sus preocupaciones acerca de este tema.

¿Cómo podemos asegurar que la IA se utilice para propósitos benéficos en lugar de otros no éticos? La perspectiva de que la súper inteligencia sea capaz de amenazar la vida humana aún parece estar a décadas de distancia, si es que llega a ocurrir. (Ver en Lampadia: Entrevista sobre la transformación del empleo y las industrias).

Al final del año pasado, Musk, Peter Thiel y otros empresarios de Silicon Valley se comprometieron a financiar US$ 1,000 millones para una nueva empresa sin fines de lucro, llamada OpenAI, con el objetivo de asegurarse que la IA siga siendo “una extensión de las voluntades humanas individuales.”

“Es difícil imaginar cuánto podría beneficiar la IA a la sociedad humana, y es igualmente difícil imaginar lo mucho que podría dañar a la sociedad si se construye o se usa incorrectamente,” escribieron los fundadores de OpenAI en un blog.

Musk también ha donado US$ 10 millones para el futuro del Life Institute, una organización con sede en Cambridge, Massachusetts, EEUU, que estudia las dimensiones sociales y éticas de la AI.

La misión del instituto afirma que: “La tecnología le está dando a la vida el potencial para florecer como nunca antes… o para autodestruirse. Hagamos la diferencia”.

Una segunda cuestión difícil es cómo construir una “elasticidad ética” en los autos sin  pilotos. Para bien o para mal, los conductores humanos de automóviles son infinitamente flexibles para evaluar la ética de diferentes situaciones, superando  reglas como “no adelantar” para dar más espacio a los ciclistas, por ejemplo. Pero, ¿cómo deben programarse los autos sin conductor para reaccionar cuando se enfrenten a una crisis real? ¿Debería proporcionarse a los propietarios, configuraciones éticas ajustables?

El año pasado, en un discurso, Dieter Zetsche (presidente ejecutivo de la automotriz alemana Daimler) preguntó cuan autónomos deberían comportarse los coches “si un accidente es realmente inevitable y donde la opción es una colisión con un coche pequeño o un gran camión, conduciendo hacia una zanja o contra una pared, o correr el riesgo de golpear a una madre con un cochecito, o a una abuela de 80 años de edad.”

La Fundación Daimler y Benz han invertido más de €1.5 millones desde 2012 para apoyar a un equipo de 20 científicos a que examinen los efectos sociales de la conducción autónoma y algunos de los dilemas éticos que plantea.

Estas preguntas han sido previamente planteadas en el reino de los filósofos morales, como el profesor Michael Sandel de Harvard, cuando discuten si “¿podría ser justificado un asesinato?”. Pero ahora, directorios de empresas y propietarios de automóviles se encontrarán cada vez más debatiendo los méritos del ‘imperativo categórico’ de Immanuel Kant versus el utilitarismo de Jeremy Bentham.

Los avances en la salud también crean nuevos dilemas. Deberían ser prohibidos los medicamentos que mejoran la cognición para los usuarios ocasionales? En su libro “Bad Moves”, las neurólogas Barbara Sahakian y Jamie Nicole LaBuzetta destacan los desafíos éticos del uso de drogas inteligentes para mejorar el rendimiento académico.

Ellos pregunta: ¿Por qué tenemos una visión tan cerrada sobre el uso de esteroides por atletas que engañan en los Juegos Olímpicos, pero ignoramos a los estudiantes que usan drogas inteligentes para mejorar su performance cuando dan exámenes de ingreso a las universidades?.  

Los autos sin conductor plantean preguntas inquietantes sobre la vida y la muerte.
Los fabricantes de automóviles se están acercando con precaución a la carrera hacia los vehículos automatizados. 

Estudiantes de la Universidad de Duke en Carolina del Norte, EEUU, han presionado a las autoridades para modificar la política de honestidad académica de la institución para que se considere el “uso no autorizado de medicamentos con receta” como una forma de hacer trampa. Pero solo pocas universidades o empleadores parecen haber considerado este dilema.

“Estos medicamentos tienen el potencial de cambiar la sociedad en formas dramáticas e inesperadas”, dicen Sahakian y LaBuzetta en su libro: ‘Ahora es el momento de tener la discusión y el debate de la ética de estas ‘drogas inteligentes’ y el rol que deben desempeñar en la sociedad del futuro”, concluyen.

Por encima de todas estas complicadas cuestiones, surge una más grande: ¿quién es el responsable de asegurarse que los últimos avances tecnológicos no sean abusivos?

Los gobiernos nacionales y los parlamentos, preocupados por problemas mucho más urgentes, como la austeridad fiscal o el  flujo de refugiados, rara vez tienen el tiempo y la libertad política para considerar desafíos tan abstractos y menos aún para ayudar a establecer estándares o reglamentos internacionales.

Como en tantos otros ámbitos, parece inevitable que las regulaciones se arrastren detrás de la realidad. Además, ¿qué detendría a naciones rebeldes el ignorar las normas internacionales y que pongan en uso la edición de genes o el aprendizaje automático o tecnologías cibernéticas para usos destructivos?

¿Por qué es difícil enseñarles a los robots a elegir sabiamente?
Aún quedan preguntas sobre si las respuestas de las máquinas a los dilemas morales serán alguna vez  aceptables para los que pierden.

 

Los departamentos universitarios y centros de investigación ya desempeñan un rol útil en la difusión de los conocimientos y estimulando el debate. Pero normalmente  son dependientes de la financiación del sector privado y es poco probable que lleguen a soluciones radicales que restrinjan seriamente a sus patrocinadores.

Eso deja a gran parte de las empresas de alta tecnología a que se autorregulen. Algunos son, de lejos, las organizaciones mejor situadas para comprender los peligros potenciales de la tecnología y hacer algo para contrarrestarlos. Empresas como Google están formando consejos de ética para ayudar a supervisar sus propias actividades en áreas como la inteligencia artificial.

Pero, como vimos en el período previo a la crisis financiera de 2008, las instituciones del sector privado pueden a menudo esconderse detrás de una interpretación estrecha  de las leyes.

Algunos bancos también resultaron adeptos a explotar el arbitraje legal y normativo internacional.

Claramente, el llevar a la ley hasta el límite ha corroído los estándares éticos y ha dado lugar a una serie de abusos de todo el sector financiero. Al verano pasado (julio-agosto 2015), las instituciones financieras habían pagado más de US$ 235 mil millones en multas por incumplimientos de las normas, según datos compilados por Reuters.

Como dice un ex banquero: “No todo lo que es legal es ético.”

Este es un tema que las empresas de tecnología tendrán que enfrentar si no quieren que sus propias industrias sufran un latigazo regulatorio en el futuro. Lampadia

 




Sobre los riesgos de la Inteligencia Artificial

Sobre los riesgos de la Inteligencia Artificial

Comentario de Lampadia

Una vez más queremos difundir información que nos permita crear nuestro propio criterio  la revolución tecnológica que ya envuelve a la humanidad, especialmente sobre la tecnología que amenaza ser la más disruptiva, la Inteligencia Artificial (IA). (Ver nuestro Repositorio: Revolución Tecnológica).

En esta ocasión compartimos dos artículos del Financial Times, el primero sobre el reto personal de Zuckerberg (Facebook), de crear un asistente personal con IA y al mismo tiempo que rechaza los riesgos más comentados y, el segundo, un diálogo abierto sobre los riesgos de un desarrollo descontrolado de la IA. Como parte de esta información incluimos además dos videos (en inglés) transcritos al español.

El tema de la revolución tecnológica es muy difícil de seguir en su cabal medida y por lo tanto, es igualmente complicado entender sus implicancias en las políticas de desarrollo de los países. Como hemos visto antes, su impacto en el empleo puede ser muy disruptivo. Pero en el caso de la IA, sus impactos pueden traer profundos cambios en la vida de los seres humanos mismos. Amenazando incluso nuestra supervivencia. Las siguientes líneas nos ayudarán a poner en perspectiva este último aspecto.

Zuckerberg rechaza temores sobre tendencias destructivas de la Inteligencia Artificial (IA)

Richard Waters y Hannah Kuchler en San Francisco y Murad Ahmed en Londres, 4 de enero 2016

Financial Times

Traducido y glosado por Lampadia

Zuckerberg (Facebook) cree que la IA puede desarrollarse para que ‘trabaje para nosotros’   ©Getty

Líderes tecnológicos como Elon Musk de Tesla Motors y el capitalista de riesgo, Peter Thiel han advertido que las tendencias destructivas de la IA pueden, algún día, amenazar a la raza humana. Pero Zuckerberg se ha impuesto el reto de construir este año su propio asistente personal con IA, rechazando los temores de que la ‘súper-inteligencia’ se comporte incontrolable y disruptivamente, como improbable.

En un post de la web de su compañía Facebook founder dijo que ha decidido construir una máquina inteligente que controle las funciones de su casa y que le ayude en el trabajo. Lo comparó con Jarvis, la computadora inteligente de las películas de Iron Man.

Su reto de este año es el primero que involucra un código de software para testear tan importante desarrollo para el futuro de Facebook. La compañía ya tiene dos equipos trabajando en inteligencia artificial – uno que se enfoca en investigación pura y otro que ve la forma de aplicar IA a las redes sociales.

El reto también enfatiza la carrera de IA que se está desarrollando entre las compañías líderes de internet que tratan de crear las vías para que las personas puedan interactuar con las máquinas. 

Facebook ha establecido tres laboratorios de IA, en Silicon Valley, New York y Paris y sus contrataciones de alto perfil incluyen a Yann LeCun, profesor de New York University, uno de los pioneros de ‘conocimiento profundo’ – una forma de IA que trata de imitar las capas de funcionamiento de neuronas del cerebro humano.

Zuckerberg dice que su trabajo lo lleva a temas técnicos profundos con los ingenieros de la compañía, y que construir su propia máquina inteligente traerá una nueva perspectiva en el trabajo.

Describió su proyecto personal como ‘una simple IA’, tomando un sistema al que pueda enseñar a reconocer su voz y a controlar todo en su casa – música, luces, temperaturas y otros.

También dijo que está interesado en usar reconocimiento de voz y rostros para identificar a quién estuviera en la habitación, por ejemplo, para ajustar la temperatura, pues él prefiere ambientes más frescos que su esposa.

Para ayudarse en su trabajo, Zuckerberg añadió que intentará enseñarle al sistema a convertir datos en representaciones visuales que pueda ver con su dispositivo de realidad virtual.

Hermann Hauser, un emprendedor científico de computadoras de Cambridge dijo que los avances recientes en algoritmos de aprendizaje de máquinas, el poder computacional y el acceso a inmensos volúmenes de datos, combinados permiten que los ingenieros de computadoras, puedan crear sistemas de IA. Pero el doctor Hauser dijo que le preocupaba que solo las más grandes compañías de Silicon Valley tuvieran acceso al nivel de información necesario para crear IA funcional, lo que concentraría poder entre esas compañías. “La gran preocupación que tengo es que el único camino para que esto funcione es tener acceso a grandes conjuntos de datos”, dijo. “La única gente que tiene acceso a esto son de Apple, Google, Amazon y Facebook.”

Los grandes avances en IA han llevado a líderes tecnológicos a advertir que algún día, las máquinas inteligentes podrían poner en peligro a la humanidad.

Zuckerberg calificó esto como “improbable … y mucho menos factible que desastres debidos a la dispersión de enfermedades, violencia, etc.”. Añadió: “Creo que podemos construir IA para que trabaje para nosotros y nos ayude”.

Hasta ahora, el experimento de Facebook más avanzado con IA ha sido la prueba de un asistente virtual llamado M, que opera en el Messenger de Facebook y promete servir los deseos de llamar un taxi hasta organizar una fiesta de cumpleaños. También ha utilizado IA para describir fotos a usuarios ciegos. 

           Ver video: Robots in the workplace

Comentario del Financial Times (Transcripción del video):

Andrew Hill (Editor de administración, Financial Times): Los humanos contra las máquinas es una historia tan antigua como la historia de la automatización, ya sea en el campo o en las fábricas, con la invención de la nueva tecnología siempre viene la promesa de una revolución de la forma en que trabajamos y seguramente con el temor de que se sustituyan los trabajos que ahora harían las máquinas. Después de un período de transición inquietante siempre han evolucionado nuevos puestos de trabajo. ¿Es diferente esta vez?

Martin Ford: Creo que ahora estamos en el momento en que la tecnología está  finalmente acá, cuando esta opción va a pasar y el hecho de que es, ya sabes, hemos tenido estas falsas alarmas tantas veces en el pasado que realmente es difícil para las personas aceptar esto, que es de donde viene una gran cantidad de la resistencia.

Andrew Hill: el libro de Martin Ford, “El ascenso los robots”, ganador del premio del  libro de negocios del año, de Financial Times y McKinsey, pinta un panorama sombrío del futuro en el que las máquinas desplazan a los seres humanos en todo menos en algunos roles muy especiales. Él prescribe soluciones económicas radicales, incluyendo un ‘dividendo ciudadano universal’ (ver en Lampadia: El futuro del empleo con Robots e ‘inteligencia Artificial’), pero advierte que la disrupción se extenderá a profesiones que se consideraban inmunes.

Martin Ford: Uno ve ahora impactos en el periodismo (reporteros) y en revisión de documentos y empresas de abogados, creo que va a escalar, que comenzará a impactar a cualquiera que haga análisis o escritos rutinarios, ya sabes, se reporta a los superiores y haces lo mismo una y otra vez, todo eso va a ser susceptible, eventualmente.

Andrew Hill: Pero desarrollos como los que trabajan en la vanguardia de la tecnología cognitiva de IBM ven el futuro de manera diferente. Las máquinas más sofisticadas trabajarán en conjunto con los humanos abriendo nuevas posibilidades en áreas de trabajo todavía inimaginables, al igual que la última ola de cambio impulsada por computadoras creó la profesión del ingeniero de software.

Guruduth Banavar (Vice Presidente, Cognitive Computing de IBM Research): En el futuro, cuando nos metemos en este mundo de datos a gran escala, el conocimiento y los sistemas cognitivos, creo que va a haber un tipo similar de nuevas profesiones en el área, lo que yo llamaría ingeniería del conocimiento, que comienza a partir de la toma de datos en bruto alcance hasta la creación y representación del conocimiento de las diferentes áreas que necesita ser complementado por los tipos de aprendizajes estadísticos más automáticos para ser aplicados a los datos en bruto a gran escala.

Andrew Hill: Watson de IBM, el sistema cognitivo de más alto perfil, ya ha golpeado al ser humano en concursos, pero Banavar ve esta tecnología como una forma de ayudar a los humanos expertos, no suplantándolos.

Guruduth Banavar: Bueno, mi opinión es que hay tantas dimensiones de la inteligencia que, de hecho, hay mucho desconocimiento acerca de lo que significa inteligencia. Sostenemos ideas al respecto, pero no entendemos que sólo estamos arañando la superficie de la inteligencia, así que creo que un mejor enfoque para nosotros en este momento sería construir máquinas que aumenten la inteligencia humana para resolver problemas prácticos y que ayuden a hacer frente a la enorme cantidad de datos y conocimientos que se han generado en el mundo.

Andrew Hill: Mientras los trabajadores de oficina tratan de adaptarse a las nuevas tecnologías, Banavar cree las computadoras ayudarán en la transición de la nueva era, educando en formas nuevas y enseñando nuevas habilidades, pero la clave para saber si esta transformación socava o simplemente perturba las economías y sociedades está en cuán lejos y cuán rápido progresa el cambio.

Martin Ford: Creo que incluso las personas que no compran por completo esta idea de la amplia automatización estarían de acuerdo en que, con claridad, las cosas van a avanzar más rápido y más rápido en el futuro. Quiero decir, yo no creo que haya ninguna duda de que algunas ocupaciones van a evaporarse, la gente, si quiere seguir siendo relevante tienen que reentrenarse o encontrar algo más que hacer. Creo que lo más importante de cara al futuro es estar en una posición en la que estés preparado para hacer eso.

Andrew Hill: Finalmente, optimistas y pesimista de la tecnología, pueden no estar tan distantes como parece que la naturaleza revolucionaria de la tecnología cognitiva podría traer una gran promesa. Ambos están de acuerdo en la necesidad de que las personas, las empresas y las sociedades se adapten. Ambos piensan que la educación y la reeducación pueden suavizar la transición, pero las áreas en las que difieren fundamentalmente, es que la velocidad y la escala del cambio están llenos de incertidumbre. ¿Quién esté en lo cierto determinará si el ascenso de los robots conduce a un futuro más brillante para muchos trabajadores o a uno mucho más oscuro.

Ya que hiciste preguntas complicadas sobre IA

Izabella Kaminska

18 de diciembre 2015

Financial Times

Traducido y glosado por Lampadia

¿Es la IA algo de lo que debemos preocuparnos?

Robots de un restaurante en Suzhou, China ©Getty

“Silicon Valley en movimiento para mantener segura la IA”

¿Es la IA algo de lo que debemos preocuparnos?

Bueno, ya sabes lo que dicen sobre IA…

No — ¿Qué?

Que los científicos dicen hace 40 años que la IA está a 40 años de distancia.

Bueno. ¿Entonces por qué todo el ruido?

Emprendedores de alto perfil y científicos han estado tocando las alarmas sobre el riesgo existencial que la IA trae a la humanidad. Elon Musk, el promotor de los autos eléctricos de Tesla tuiteó el año pasado que la IA era “potencialmente más peligrosa que las bombas atómicas”. Y el físico Stephen Hawking, ha advertido que “el desarrollo de inteligencia artificial puede significar el fin de la raza humana”.

¿Cuál es el riesgo inminente?

Los avances en sistemas de aprendizaje profundo – una forma de tecnología de algoritmos – ha permitido que las computadoras se involucren en tareas que antes solo podían ser hechas por los seres humanos. Estos descubrimientos se refieren a la habilidad de detectar pequeñas diferencias en el mundo, como reconocer patrones visuales de sonidos y, luego de ser capaces de responder a ellos con fluidez. En muchos casos esto ha creado una impresión convincente de acciones conscientes. Y como estos sistemas se ven y sienten inteligentes – aún cuando no hay inteligencia detrás de ellos – la gente está crecientemente inquieta.

¿O sea que estos desarrollos están mal representados?

Los científicos de computadoras te dirán que los intentos de aprendizaje de las máquinas usados por algo como el Google’s DeepMind no son nuevos. Lo nuevo es la velocidad de proceso y el tamaño del conjunto de datos manejados por los algoritmos. Musk y Hawking están entre los que creen que un programa de ‘superinteligencia’ autónoma puede colarse, pues podría aprender de sí mismo exponencialmente.

¿Pero es correcto hacer ese supuesto?

Científicos como Simon Stringer del ‘Oxford Centre for Theoretical Neuroscience and Artificial Intelligence’ son escépticos sobre la idea de que se combinen las fuerzas de computación exponencial con estrategias de aprendizaje de máquinas que lleven a un tipo de IA que pueda ser una amenaza a los humanos. Estos modelos tienen muchas aplicaciones – la habilidad de tranzar en mercados o de navegar autos sin piloto – pero no pueden resolver los problemas de replicar la conciencia. Y todos ellos dependen de seres humanos para su intelecto. Un sistema verdaderamente consciente tendría que entender el mundo sensorial de la misma manera en que lo hace el cerebro humano. El trabajo de Stringer se focaliza en alcanzar eso, pero el no cree que lleve a la superinteligencia. Él espera lograr la inteligencia de una rata.

¿No sería inteligente cubrir el riesgo, por si acaso?

Musk y el financiero de Silicon Valley, Peter Thiel, piensan así, por lo cual ellos y otros han anunciado un proyecto de US$ 1,000 millones para desarrollar IA en una forma que sea más probable de beneficiar al conjunto de la humanidad. Su proyecto OpenAI, será un movimiento sin fines de lucro que conduzca investigación de IA con código abierto y que comparta sus hallazgos con todos. Otros fundadores de OpenAI incluye a Amazon Web Services e Infosys, así como inversores individuales como Sam Altman, presidente de Y Combinator, una incubadora de start-ups de California.

¿De verdad los billonarios del club de élite de Silicon Valley alinean sus intereses con los de la humanidad?

Los cínicos sugerirían que este es un intento de evitar que las ventajas de la IA sean monopolizadas por una corporación o una persona. Un plan para compartir libremente la tecnología de IA no es lo mismo que frenar el conocimiento para que un sistema de inteligencia artificial sea creado y usado por un mal actor; o prevenir que una IA autónoma de aniquilar la humanidad. A lo máximo permite que la emergencia simultánea de muchos tipos de IA con los buenos protegiéndonos de los malos.

¿Pero qué pasaría si todos ellos se coluden contra la humanidad?

Exacto. Pero esa es una pregunta inconveniente para los billonarios de Silicon Valley.

¿Cómo así?

Si la IA posee realmente un riesgo existencial para la humanidad, lo mejor sería suspender todos los desarrollos. Imagínate lo que una moratoria del desarrollo de IA haría en la valorización de las compañías de tecnología.

Se convertirían en nuevas compañías de combustibles fósiles. O sea que no sería una gran sorpresa si ellas forman un grupo de lobby para promover un desarrollo responsable. 

Ver video: AI and the future for humanity

FT Negocios (Transcripción del video)

Ravi Mattu, Editor de Tecnología, FT

Durante casi 400 años, la Royal Society en Londres ha sido la sede de los líderes del pensamiento para discutir cómo la ciencia puede beneficiar a la humanidad. Desde Isaac Newton a Charles Darwin, los científicos se han reunido en estas habitaciones para considerar los temas más importantes del día. Ahora esta venerable institución está presentando una serie de eventos para la era de Internet. La primera reunión es una conferencia de un día sobre el aprendizaje de las máquinas, el proceso mediante el cual las computadoras son capaces de funcionar sin ser explícitamente programadas. Uno de los expertos que hablan en el evento en la Royal Society es Nick Bostrom, director del Instituto del Futuro de la Humanidad de la Universidad de Oxford y autor del best-seller “Súper-Inteligencia”. Él dice que podría haber un momento en el futuro cercano, cuando las máquinas sean más inteligentes que los seres humanos y tenemos que hacer más para abordar el riesgo potencial de ello.

Habrá una gran intersección en la historia humana, cuando hagamos la transición de una era dominada por la inteligencia biológica a una era dominada por la inteligencia artificial. No es algo necesariamente inminente, de hecho, creo que tenemos muy poca evidencia acerca de la línea de tiempo para estos desarrollos, pero con el tiempo, tal vez a lo largo de décadas o más tiempo, vamos a encontrar la manera de producir en las máquina el mismo proceso que hace inteligentes nuestros cerebros. Y va a ser realmente una invención como ninguna otra, el último invento, yo pienso, el último invento que los humanos alguna vez tengan que hacer porque después usted tendrá una máquina súper inteligente que lo hará mejor que nosotros. Incluso si esta transición es aún bastante lejana, las consecuencias son enormes y vale la pena empezar a pensar en ello desde hoy.

Si usted le cree a Hollywood, estas consecuencias pueden verse bastante aterradoras. Películas como Terminator y The Matrix sugieren que la inteligencia artificial podría ser la mayor amenaza para el futuro de la humanidad. Bostrom no cree que las películas de ciencia ficción sean una buena guía del futuro, no es el único que toca una campana de advertencia. El físico Stephen Hawking, que se basa en una forma de IA para comunicarse, ha dicho que un completo desarrollo de la inteligencia artificial podría significar el fin de la raza humana.

Súper-Inteligencia es algo potencialmente muy potente, al igual que la inteligencia humana es una cosa muy poderosa en relación con otras criaturas biológicas, que nos dieron a los humanos una posición inusual y dominante en el planeta. No es que tengamos músculos más fuertes o los dientes más afilados, es nuestro cerebro, que es ligeramente más inteligente que nos ha permitido los grandes avances desarrollando tecnologías, planes y organizaciones. Fundamentalmente las mismas razones, si usted tiene algo que supera nuestra inteligencia tanto como la nuestra supera la de los animales, esa cosa podría ser muy poderosa y puede ser capaz de dar forma al futuro de acuerdo a sus preferencias.

Así es que usted dice que uno de los posibles riesgos es que el dispositivo, las tecnologías que creemos podrían llegar a dominar?

Sí, creo que es un tipo de escenario posible, el futuro de los gorilas hoy depende mucho más de nosotros, de lo que los humanos decidan hacer, que de lo que los gorilas mismos decidan hacer. Del mismo modo, si hubiera máquinas súper-inteligentes, entonces nuestra suerte, el futuro de la humanidad, puede depender más de sus decisiones y de sus acciones. Entonces se convierte en algo muy importante que las preferencias de esta superinteligencia coincida con las nuestras, que estén lo suficientemente bien alineadas, que realmente se preocupen por el mismo tipo de cosas que nos importan, eso no es algo que no podemos dar por hecho, tenemos que actuar juntos para que en el momento en que necesitemos saber cómo controlar la súper inteligencia, podamos resolver el problema y parece que a partir de la limitada  investigación que se ha hecho hasta ahora, esto parece ser un problema realmente difícil .

¿Es usted optimista sobre a dónde vamos ?

¿Eres neutral, o estás muy ansioso?

Teniendo en cuenta nuestro estado actual de conocimiento podemos ver en la mesa, resultados extremadamente buenos y muy extremadamente malos. Yo creo que el resultados del tipo intermedio se ve probable cuando extrapolamos más hacia el futuro y que el destino de más largo plazo para la humanidad y pienso que es más probable que no sea ninguno de los extremos, ya sea la extinción o algo tan malo como la extinción, o un resultado extremadamente utópico.

El avance tecnológico es imparable. Los riesgos indicados son probables y de muy alto impacto eventual. Todo esto puede estar lejos, pero eso no disminuye sus posibles efectos. Nos parece que ya es hora de que la humanidad inicie un proceso de fijación de reglas éticas que regulen el comportamiento de las máquinas súper-inteligentes. Este es otro aspecto en el que la humanidad necesita desarrollos positivos de gobernanza global. Ver en Lampadia: Inteligencia Artificial: ¿Se puede controlar?

Para empezar, reflexionemos sobre las tres leyes de la robótica de Isaac Asimov:

1. Un robot no puede causar daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.

3.- Un robot debe proteger su propia existencia, en la medida en que esta protección no entre en conflicto con la primera o segunda ley.

Lampadia

 

 

 

 

 

 

 

 




Niños superdotados: una realidad que debemos impulsar

Niños superdotados: una realidad que debemos impulsar

Esta semana salió a la luz la noticia de que Nicole Barr, una gitana de tan solo 12 años, de Essex, Inglaterra, que logró un puntaje de 162 en un test de inteligencia (IQ) de Mensa. Ha superado el IQ del científico Albert Einstein, el del fundador de Microsoft, Bill Gates, y el del físico Stephen Hawking. La puntuación media de adultos es de 100, mientras que una puntuación por encima de 140 se considera que es la de un genio.

Esto pone a Nicole en el uno por ciento de las personas más inteligentes en el mundo. Su padre, un conserje, está impresionado con su logro y dice que es “la comidilla de la comunidad gitana”. La organización Unión del Pueblo Gitano ha celebrado que la niña más inteligente del mundo pertenezca a esta etnia.

 

En un comunicado de la International Romani Union remitido a EFE, su presidente, Juan de Dios Ramírez-Heredia dijo estar “especialmente contento”, entre otros motivos, porque “el éxito de Nicole es una denuncia contra la cruel discriminación que hemos padecido”, y añadió: “Seguimos padeciendo los gitanos en el ámbito de la educación”. “El triunfo de Nicole Barr -prosiguió- es una bofetada cósmica a las autoridades educativas de muchos países europeos que decidieron enviar a los niños gitanos a centros reservados para los ‘subnormales’, como se decía antes“.

Así como Nicole Barr, hay millones de niños con sobrecapacidad intelectual que no son diagnosticados, ni reciben la atención adecuada. Y es que desde los dos años de edad, es posible darse cuenta si un niño tiene capacidades intelectuales extraordinarias.

Algunas de las primeras manifestaciones de sobrecapacidad son que el niño aprende a caminar y a hablar de manera precoz, la hiperactividad, el deseo de aprender y las capacidades cognitivas superiores a las que se espera que tenga un niño de su edad. Lamentablemente, estas características se confunden muchas veces con el TDAH (Trastorno por Déficit de Atención e Hiperactividad), pese a que son totalmente diferentes.

Según cifras de la Organización Mundial para la Salud, entre un 2% y 3% de la población tiene altas capacidades intelectuales. Una tarea prioritaria de los Estados es encontrar y apoyar a los niños superdotados. Ellos podrían ser la élite directiva del mundo y aportar muchísimo a la sociedad. Tienen que ser incentivados y capacitados para abordar los grandes problemas de la humanidad.

Un claro ejemplo de éxito es Jack Andraka quien tenía tan sólo 14 años cuando comenzó a desarrollar una sencilla prueba de detección temprana para el cáncer pancreático. Para finales del año escolar, tuvo éxito. La prueba, desarrollada bajo la guía de un profesor del Hospital John Hopkins, solo tardaba minutos en completarse y Andraka afirma que es más rápida, barata y sensible que el actual estándar médico. Este es un gran aporte a la sociedad ya que pronto se podrá comercializar y utilizar a un bajo costo en países emergentes, como una efectiva medida de prevención de la salud.

Pero la mayoría de casos no son así. En Perú hay pocos recursos para los niños superdotados. Los sicólogos que han logrado no ser contaminados por el ‘Ritalín’, se quejan constantemente por ello y solicitan profesores especializados, adaptación de las asignaturas, información para los padres. Si ésta es la situación en un entorno controlado como el escolar, resulta fácil imaginar lo que pasa cuando los interesados abandonan las aulas: los superdotados caen en el olvido más absoluto y ellos y la sociedad perdemos una gran oportunidad.

Lo que pasa es que los estudiantes superdotados a menudo se enfrentan a grandes barreras en el sistema educativo. En lugar de apoyarlos, muchas veces se les abandona ya que existe la errada idea de que ellos no necesitan ningún tipo de ayuda.

Un ejemplo de un niño prodigio que no logró alcanzar la promesa temprana es Andrew Halliburton. Con un IQ de 145, mostró impresionantes resultados en matemáticas y pudo haber tenido un brillante futuro. Sus maestros le auguraron un gran éxito. Ingresó a la Universidad de Dundee, Escocia, cuando tenía sólo 16 años de edad. Sin embargo, se retiró después de sólo seis meses. Su principal razón fue que estaba estudiando cosas que ya sabía. En lugar de seguir una gran carrera sin sentido, prefirió limpiar mesas en McDonalds. Y eso es lo que ha estado haciendo durante los últimos 4 años.

No podemos desperdiciar los grandes talentos que existen en el Perú. Si, según la OMS, entre un 2% y 3% de la población tiene altas capacidades intelectuales, entonces tenemos al menos 900,000 personas con una inteligencia superior que deberían recibir apoyo para ayudarnos a desarrollar un mejor país. Lampadia




Inteligencia Artificial: ¿Se puede controlar?

Inteligencia Artificial: ¿Se puede controlar?

El mundo está cambiando y cada vez dependemos más de la tecnología, que está avanzando a pasos agigantados. La inteligencia artificial es una de las áreas más importantes para el desarrollo de estos avances, aunque se cuestiona su poder, y la amenaza que podría presentar en el futuro. No nos referimos a los tradicionales opositores al cambio, sino a las advertencias de los seres humanos más inteligentes, como Stephen Hawking.

El uso de máquinas que están programadas para pensar y actuar con un cierto nivel de inteligencia “humana” y autonomía se conoce como inteligencia artificial (IA). Nuestras vidas están cambiando radicalmente por esta tecnología, y ya se utiliza en una amplia gama de servicios cotidianos. Muchas aplicaciones en computadoras, celulares y retailers son diseñadas para buscar patrones en el comportamiento del usuario y luego reaccionar a ellos. También están programadas para utilizar la información almacenada en sus bases de datos para mejorar la reacción a los comandos y predecir ciertas conductas.

Por ejemplo, la IA se utiliza en supermercados para averiguar qué productos se deberían colocar juntos, el color y el precio son comparados con otros, y si deben ser colocados vertical u horizontalmente. Las empresas invierten una gran cantidad de dinero en IA para predecir la conducta de sus clientes-consumidores y cómo hacer que aumenten sus compras.

Sin embargo, existe un miedo de qué podría suceder si la IA permita desarrollos que vayan en contra del bienestar de los seres humanos. Hay un riesgo de seguridad en la creación de una máquina más inteligente que cualquier humano ya que no hay garantía de que se podrán controlar y limitar sus acciones.

Hace poco, el físico Stephen Hawking, la mente viva más brillante del mundo, le advirtió al comediante John Oliver que: “La inteligencia artificial podría ser un peligro real en un futuro no muy lejano.” Hawking expresó su preocupación de que un sistema [robótico] con IA podría “diseñar mejoras para sí mismo y ser más astuto que todos nosotros”. Cuando Oliver le preguntó en broma, “¿Pero por qué no estaría emocionado de luchar contra un robot?”, Hawking respondió simplemente: “Perderías.” Ver en Lampadia (L): Entrevista a Stephen Hawking por John Oliver:

Como afirma el filósofo y visionario, Zoltan Itzvan: “La venida de la inteligencia artificial será probablemente el evento más significativo en la historia de la especie humana. Por supuesto que puede ir mal. Sin embargo, puede igual de bien catapultar nuestra especie a nuevas e inimaginables alturas. La inteligencia artificial puede causar quelos libros de ciencia y tecnología sean completamente reescritos con nuevas ideas – mejores y más complejas. Será una nueva era de aprendizaje y vida avanzada para nuestra especie. La clave, por supuesto, es no darle libertad”.

Una manera de controlar la IA fue propuesta por Isaac Asimov (en 1942) en sus Tres Leyes de la Robótica:

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Sin embargo, forma parte de la ciencia ficción. Nick Bostrom, Director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, explora dos enfoques diferentes para controlar la superinteligencia artificial: Mediante sus capacidades y motivación. Pero de inmediato agrega que cada mecanismo tiene sus debilidades.

El control de las capacidades puede adoptar diferentes formas. Existe la contención física. Bloquear el IA en una caja sin acceso a Internet. Pero siempre existe el riesgo de que logre hackear el sistema. Otra forma es con incentivos. El problema de repartir recompensas por buen comportamiento es que la IA podría eludir o querer eliminar el control humano para conseguir su premio.

Otro enfoque es el motivacional: con el diseño de un sistema que aprenda a través del tiempo al igual que los seres humanos y adquieran valores a medida que maduran. El problema es que los científicos no saben realmente cómo funciona esto en los seres humanos. Y entre los seres humanos ya tuvimos a Hitler, Stalin, Mao, Pol Pot y Al-Assad, por mencionar unos ejemplos. Bostrom cree que este enfoque es una de las avenidas más prometedoras de control de una superinteligencia y sugiere investigar este tema más a fondo.

La humanidad está a punto de dar nuevos saltos en su calidad de vida por los avances tecnológicos que están empezando a masificarse. (Ver en L: Robots ingresan a la fuerza laboral). Esto nos lleva a debatir seriamente los aspectos éticos del uso de las nuevas tecnologías y su posible amenaza. Aunque ya estamos un poco tarde.

Más allá de los miedos tradicionales al cambio, la reacción estratégica debiera ser la de prepararse para adoptar las nuevas tecnologías que nos permitan desarrollarnos. Es difícil pensar en algún problema que una IA no pudiera solucionar: Enfermedades, pobreza, destrucción del medio ambiente, entre otros. Además, podría crear oportunidades para aumentar considerablemente nuestras capacidades intelectuales y nos podría ayudar a crear un mundo mejor, hasta hoy, tal vez utópico. No olvidemos que Fernando Savater nos dice que el hombre evoluciona a través de la tecnología. (Ver en L: Hasta ahora somos solo parte de la comparsa de abstencionistas).

Debemos empezar a prepararnos, y analizar posibles alternativas para el control esta gran tecnología, que promete increíbles oportunidades para el futuro. Y por supuesto, permitir que los peruanos seamos parte del nuevo mundo, logrando cuanto antes el nivel de desarrollo y bienestar general necesarios. Lampadia