1

Ética para la era de la Robótica y la Inteligencia Artificial

Ética para la era de la Robótica y la Inteligencia Artificial

Durante el último año, y especialmente durante las últimas semanas, hemos hablado mucho sobre la Cuarta Revolución Industrial, la robótica y la Inteligencia Artificial. Cuando hemos podido, hemos enfatizado los temas éticos que se deben enfrentar. Pero lastimosamente, en el debate sobre estos desarrollos, todavía se percibe una peligrosa lejanía con este aspecto tan importante.

En todos los aspectos de la vida de las sociedades podemos comprobar un pernicioso debilitamiento de la ‘gobernanza global’ y una distancia muy grande entre lo cotidiano y la evolución de los temas estructurales que determinarán la calidad de vida futura de todos los seres humanos.

Es indispensable tomar nota de la realidad que se despliega ante nuestros ojos. Anteriormente, hemos llamado mucho la atención sobre los impactos de esta revolución en el empleo del futuro (ver en Lampadia nuestro repositorio sobre la  ‘Revolución Tecnológica’, ahora queremos poner a su disposición un buen análisis sobre el aspecto ético de la misma, que no debemos pasar por alto. Recomendamos leer el siguiente artículo de John Thornhil, del Financial Times, para ubicarnos mejor en esta nueva realidad.     

La nueva era de la tecnología necesita una nueva ética

Escrito por John Thornhill

Financial Times

20 de enero 2016

Traducido y glosado por Lampadia

Pablo Picasso declaró alguna vez: “Las computadoras son inútiles. Solo dan respuestas”. 

La broma del artista español pudo haber sido cierta en el siglo XX, cuando las computadoras eran en su mayoría máquinas calculadoras que desempeñaban funciones claramente pre-establecidas. Pero la expansión de la potencia de cálculo a principios del siglo XXI ha hecho que las computadoras planteen algunas de las interrogantes más exigentes de nuestros tiempos. Y no está claro quién será el responsable de dar las respuestas.

Los avances tecnológicos en inteligencia artificial (IA), biotecnología, nanotecnología, robótica y neurociencia (por nombrar solo unos pocos), han dejado a los hacedores de política, a los hombres de negocios y a los consumidores intentando entender todas las implicancias sociales, económicas y éticas.

Considere sólo tres preguntas: primero, ¿es la inteligencia artificial, como cree Elon Musk, “potencialmente más peligrosa que las armas nucleares?”

La idea de que robots rebeldes vayan a intentar destruir a sus creadores ha sido un tema popular de la ciencia ficción durante décadas (Asimov et al). Pero ahora algunos científicos serios, como Stephen Hawking y emprendedores tecnológicos destacados (entre ellos Musk, que dirige Tesla Motors y SpaceX), expresan sus preocupaciones acerca de este tema.

¿Cómo podemos asegurar que la IA se utilice para propósitos benéficos en lugar de otros no éticos? La perspectiva de que la súper inteligencia sea capaz de amenazar la vida humana aún parece estar a décadas de distancia, si es que llega a ocurrir. (Ver en Lampadia: Entrevista sobre la transformación del empleo y las industrias).

Al final del año pasado, Musk, Peter Thiel y otros empresarios de Silicon Valley se comprometieron a financiar US$ 1,000 millones para una nueva empresa sin fines de lucro, llamada OpenAI, con el objetivo de asegurarse que la IA siga siendo “una extensión de las voluntades humanas individuales.”

“Es difícil imaginar cuánto podría beneficiar la IA a la sociedad humana, y es igualmente difícil imaginar lo mucho que podría dañar a la sociedad si se construye o se usa incorrectamente,” escribieron los fundadores de OpenAI en un blog.

Musk también ha donado US$ 10 millones para el futuro del Life Institute, una organización con sede en Cambridge, Massachusetts, EEUU, que estudia las dimensiones sociales y éticas de la AI.

La misión del instituto afirma que: “La tecnología le está dando a la vida el potencial para florecer como nunca antes… o para autodestruirse. Hagamos la diferencia”.

Una segunda cuestión difícil es cómo construir una “elasticidad ética” en los autos sin  pilotos. Para bien o para mal, los conductores humanos de automóviles son infinitamente flexibles para evaluar la ética de diferentes situaciones, superando  reglas como “no adelantar” para dar más espacio a los ciclistas, por ejemplo. Pero, ¿cómo deben programarse los autos sin conductor para reaccionar cuando se enfrenten a una crisis real? ¿Debería proporcionarse a los propietarios, configuraciones éticas ajustables?

El año pasado, en un discurso, Dieter Zetsche (presidente ejecutivo de la automotriz alemana Daimler) preguntó cuan autónomos deberían comportarse los coches “si un accidente es realmente inevitable y donde la opción es una colisión con un coche pequeño o un gran camión, conduciendo hacia una zanja o contra una pared, o correr el riesgo de golpear a una madre con un cochecito, o a una abuela de 80 años de edad.”

La Fundación Daimler y Benz han invertido más de €1.5 millones desde 2012 para apoyar a un equipo de 20 científicos a que examinen los efectos sociales de la conducción autónoma y algunos de los dilemas éticos que plantea.

Estas preguntas han sido previamente planteadas en el reino de los filósofos morales, como el profesor Michael Sandel de Harvard, cuando discuten si “¿podría ser justificado un asesinato?”. Pero ahora, directorios de empresas y propietarios de automóviles se encontrarán cada vez más debatiendo los méritos del ‘imperativo categórico’ de Immanuel Kant versus el utilitarismo de Jeremy Bentham.

Los avances en la salud también crean nuevos dilemas. Deberían ser prohibidos los medicamentos que mejoran la cognición para los usuarios ocasionales? En su libro “Bad Moves”, las neurólogas Barbara Sahakian y Jamie Nicole LaBuzetta destacan los desafíos éticos del uso de drogas inteligentes para mejorar el rendimiento académico.

Ellos pregunta: ¿Por qué tenemos una visión tan cerrada sobre el uso de esteroides por atletas que engañan en los Juegos Olímpicos, pero ignoramos a los estudiantes que usan drogas inteligentes para mejorar su performance cuando dan exámenes de ingreso a las universidades?.  

Los autos sin conductor plantean preguntas inquietantes sobre la vida y la muerte.
Los fabricantes de automóviles se están acercando con precaución a la carrera hacia los vehículos automatizados. 

Estudiantes de la Universidad de Duke en Carolina del Norte, EEUU, han presionado a las autoridades para modificar la política de honestidad académica de la institución para que se considere el “uso no autorizado de medicamentos con receta” como una forma de hacer trampa. Pero solo pocas universidades o empleadores parecen haber considerado este dilema.

“Estos medicamentos tienen el potencial de cambiar la sociedad en formas dramáticas e inesperadas”, dicen Sahakian y LaBuzetta en su libro: ‘Ahora es el momento de tener la discusión y el debate de la ética de estas ‘drogas inteligentes’ y el rol que deben desempeñar en la sociedad del futuro”, concluyen.

Por encima de todas estas complicadas cuestiones, surge una más grande: ¿quién es el responsable de asegurarse que los últimos avances tecnológicos no sean abusivos?

Los gobiernos nacionales y los parlamentos, preocupados por problemas mucho más urgentes, como la austeridad fiscal o el  flujo de refugiados, rara vez tienen el tiempo y la libertad política para considerar desafíos tan abstractos y menos aún para ayudar a establecer estándares o reglamentos internacionales.

Como en tantos otros ámbitos, parece inevitable que las regulaciones se arrastren detrás de la realidad. Además, ¿qué detendría a naciones rebeldes el ignorar las normas internacionales y que pongan en uso la edición de genes o el aprendizaje automático o tecnologías cibernéticas para usos destructivos?

¿Por qué es difícil enseñarles a los robots a elegir sabiamente?
Aún quedan preguntas sobre si las respuestas de las máquinas a los dilemas morales serán alguna vez  aceptables para los que pierden.

 

Los departamentos universitarios y centros de investigación ya desempeñan un rol útil en la difusión de los conocimientos y estimulando el debate. Pero normalmente  son dependientes de la financiación del sector privado y es poco probable que lleguen a soluciones radicales que restrinjan seriamente a sus patrocinadores.

Eso deja a gran parte de las empresas de alta tecnología a que se autorregulen. Algunos son, de lejos, las organizaciones mejor situadas para comprender los peligros potenciales de la tecnología y hacer algo para contrarrestarlos. Empresas como Google están formando consejos de ética para ayudar a supervisar sus propias actividades en áreas como la inteligencia artificial.

Pero, como vimos en el período previo a la crisis financiera de 2008, las instituciones del sector privado pueden a menudo esconderse detrás de una interpretación estrecha  de las leyes.

Algunos bancos también resultaron adeptos a explotar el arbitraje legal y normativo internacional.

Claramente, el llevar a la ley hasta el límite ha corroído los estándares éticos y ha dado lugar a una serie de abusos de todo el sector financiero. Al verano pasado (julio-agosto 2015), las instituciones financieras habían pagado más de US$ 235 mil millones en multas por incumplimientos de las normas, según datos compilados por Reuters.

Como dice un ex banquero: “No todo lo que es legal es ético.”

Este es un tema que las empresas de tecnología tendrán que enfrentar si no quieren que sus propias industrias sufran un latigazo regulatorio en el futuro. Lampadia