El mundo está cambiando y cada vez dependemos más de la tecnología, que está avanzando a pasos agigantados. La inteligencia artificial es una de las áreas más importantes para el desarrollo de estos avances, aunque se cuestiona su poder, y la amenaza que podría presentar en el futuro. No nos referimos a los tradicionales opositores al cambio, sino a las advertencias de los seres humanos más inteligentes, como Stephen Hawking.
El uso de máquinas que están programadas para pensar y actuar con un cierto nivel de inteligencia “humana” y autonomía se conoce como inteligencia artificial (IA). Nuestras vidas están cambiando radicalmente por esta tecnología, y ya se utiliza en una amplia gama de servicios cotidianos. Muchas aplicaciones en computadoras, celulares y retailers son diseñadas para buscar patrones en el comportamiento del usuario y luego reaccionar a ellos. También están programadas para utilizar la información almacenada en sus bases de datos para mejorar la reacción a los comandos y predecir ciertas conductas.
Por ejemplo, la IA se utiliza en supermercados para averiguar qué productos se deberían colocar juntos, el color y el precio son comparados con otros, y si deben ser colocados vertical u horizontalmente. Las empresas invierten una gran cantidad de dinero en IA para predecir la conducta de sus clientes-consumidores y cómo hacer que aumenten sus compras.
Sin embargo, existe un miedo de qué podría suceder si la IA permita desarrollos que vayan en contra del bienestar de los seres humanos. Hay un riesgo de seguridad en la creación de una máquina más inteligente que cualquier humano ya que no hay garantía de que se podrán controlar y limitar sus acciones.
Hace poco, el físico Stephen Hawking, la mente viva más brillante del mundo, le advirtió al comediante John Oliver que: “La inteligencia artificial podría ser un peligro real en un futuro no muy lejano.” Hawking expresó su preocupación de que un sistema [robótico] con IA podría “diseñar mejoras para sí mismo y ser más astuto que todos nosotros”. Cuando Oliver le preguntó en broma, “¿Pero por qué no estaría emocionado de luchar contra un robot?”, Hawking respondió simplemente: “Perderías.” Ver en Lampadia (L): Entrevista a Stephen Hawking por John Oliver:
Como afirma el filósofo y visionario, Zoltan Itzvan: “La venida de la inteligencia artificial será probablemente el evento más significativo en la historia de la especie humana. Por supuesto que puede ir mal. Sin embargo, puede igual de bien catapultar nuestra especie a nuevas e inimaginables alturas. La inteligencia artificial puede causar quelos libros de ciencia y tecnología sean completamente reescritos con nuevas ideas – mejores y más complejas. Será una nueva era de aprendizaje y vida avanzada para nuestra especie. La clave, por supuesto, es no darle libertad”.
Una manera de controlar la IA fue propuesta por Isaac Asimov (en 1942) en sus Tres Leyes de la Robótica:
1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Sin embargo, forma parte de la ciencia ficción. Nick Bostrom, Director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, explora dos enfoques diferentes para controlar la superinteligencia artificial: Mediante sus capacidades y motivación. Pero de inmediato agrega que cada mecanismo tiene sus debilidades.
El control de las capacidades puede adoptar diferentes formas. Existe la contención física. Bloquear el IA en una caja sin acceso a Internet. Pero siempre existe el riesgo de que logre hackear el sistema. Otra forma es con incentivos. El problema de repartir recompensas por buen comportamiento es que la IA podría eludir o querer eliminar el control humano para conseguir su premio.
Otro enfoque es el motivacional: con el diseño de un sistema que aprenda a través del tiempo al igual que los seres humanos y adquieran valores a medida que maduran. El problema es que los científicos no saben realmente cómo funciona esto en los seres humanos. Y entre los seres humanos ya tuvimos a Hitler, Stalin, Mao, Pol Pot y Al-Assad, por mencionar unos ejemplos. Bostrom cree que este enfoque es una de las avenidas más prometedoras de control de una superinteligencia y sugiere investigar este tema más a fondo.
La humanidad está a punto de dar nuevos saltos en su calidad de vida por los avances tecnológicos que están empezando a masificarse. (Ver en L: Robots ingresan a la fuerza laboral). Esto nos lleva a debatir seriamente los aspectos éticos del uso de las nuevas tecnologías y su posible amenaza. Aunque ya estamos un poco tarde.
Más allá de los miedos tradicionales al cambio, la reacción estratégica debiera ser la de prepararse para adoptar las nuevas tecnologías que nos permitan desarrollarnos. Es difícil pensar en algún problema que una IA no pudiera solucionar: Enfermedades, pobreza, destrucción del medio ambiente, entre otros. Además, podría crear oportunidades para aumentar considerablemente nuestras capacidades intelectuales y nos podría ayudar a crear un mundo mejor, hasta hoy, tal vez utópico. No olvidemos que Fernando Savater nos dice que el hombre evoluciona a través de la tecnología. (Ver en L: Hasta ahora somos solo parte de la comparsa de abstencionistas).
Debemos empezar a prepararnos, y analizar posibles alternativas para el control esta gran tecnología, que promete increíbles oportunidades para el futuro. Y por supuesto, permitir que los peruanos seamos parte del nuevo mundo, logrando cuanto antes el nivel de desarrollo y bienestar general necesarios. Lampadia