Cómo los humanos pueden Mantener a superinteligentes Robots para Asesinarnos a nosotros

| Sáb 02 de mayo 2015 06:30 am EDT
Ultron, un robot de inteligencia artificial

Mientras Kevin Drum se centró en mejorar , hemos invitado a algunos de los escritores y pensadores notables que han cambiado enlaces e ideas con él desde Blogósfera 1,0 hasta hoy para contribuir puestos y mantener la conversación. Hoy en día, es un honor presentar un post de Bill Gardner , investigador de servicios de salud en Ottawa, Ontario, y un blogger en The Economist incidental .

Este fin de semana, usted, yo, y unos 100 millones de personas verán Vengadores: de la Edad de Ultron . La historia es que Tony Stark construye a Ultron, un robot de inteligencia artificial, para proteger la Tierra. Pero Ultron decide que la mejor manera de cumplir con su misión es exterminar a la humanidad. La violencia se produce.

Oxford filósofo Nick Bostrom argumenta que en algún momento en el futuro una máquina logrará una  “inteligencia general”, es decir, la capacidad de resolver problemas en prácticamente todos los ámbitos de interés, incluyendo la inteligencia artificial.

Es probable  despedir a la premisa de la historia.Pero en un libro que recomiendo encarecidamente, de Oxford filósofo  el Nick Bostrom argumenta que en algún momento en el futuro una máquina logrará “inteligencia general”, es decir, la capacidad de resolver problemas en prácticamente todos los ámbitos de interés. Debido a que uno de estos dominios es la investigación en inteligencia artificial, la máquina sería capaz de mejorarse rápidamente .

Las habilidades de una máquina de este tipo serían trascender rápidamente nuestras capacidades. La diferencia, Bostrom según cree, no sería como la que existe entre Einstein y una persona con discapacidad cognitiva. La diferencia sería como la que existe entre Einstein y un escarabajo. Cuando esto sucede, las máquinas pueden y es probable desplazar a los seres humanos como la forma de vida dominante. Los seres humanos pueden quedar atrapados en una distopía, si sobreviven en absoluto.

Competentes personas- Elon Musk, Bill Gates -Toman este riesgo serio. Stephen Hawking y el  premio Nobel Frank Wilczek se preocupan de que no estamos pensando lo suficiente sobre el futuro de la inteligencia artificial.

Así, frente a posibles futuros de beneficios y riesgos incalculables, los expertos estan, sin duda haciendo todo lo posible para garantizar el mejor resultado, ¿no?Mal. Si una civilización alienígena superior nos hubiera enviado un mensaje de texto diciendo: “Vamos a llegar en un par de décadas,” tendríamos que acabamos de responder, “OK, llámenos cuando llegue aquí-nosotros dejaremos las luces encendidas”? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA … poca investigación seria se dedica a estos temas … Todos nosotros … deberíamos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de aprovechar los beneficios y evitar los riesgos.

También hay personas competentes que rechazan estas preocupacionesEn la .Universidad de California-Berkeleyel  filósofo John Searle sostiene que la inteligencia requiere cualidades que los ordenadores no tienen, incluyendo la conciencia y la motivación. Esto no quiere decir que estamos a salvo de las máquinas de inteligencia artificial. Tal vez en el futuro los drones asesinos  cazaran a  todos los seres humanos, no sólo de Al Qaeda. Pero Searle afirma que si esto sucede, no será porque los aviones no tripulados reflexionaron sobre sus metas y decidieron que necesitaban  matarnos. Será porque los seres humanos han programado aviones no tripulados para matarnos.

Searle ha hecho este argumento durante años, pero nunca ha ofrecido una razón por la que siempre será imposible diseñar máquinas con la autonomía y la inteligencia general. Si no es imposible, tenemos que buscar posibles caminos de la evolución humana en la que nos beneficiamos de forma segura desde el enorme potencial de la inteligencia artificial.

Qué podemos hacer? Soy un optimista silvestre. En mi vida he visto una extraordinaria expansión de las capacidades humanas para la creación y la comunidad. Tal vez haya un futuro en el que la inteligencia humana individual y colectiva pueda crecer lo suficientemente rápido que guardemos nuestro lugar como seres libres. Tal vez los humanos pueden adquirir superpoderes cognitivos.

Pero el mayor desafío del futuro no será la ingeniería de esta comunidad, sino más bien su gobernanza. Así que tenemos que pensar en grande, pensar a largo plazo, y vivir en la esperanza. Necesitamos cooperar como especie y orientar nuestro desarrollo tecnológico para que no creemos las máquinas que nos desplazaran. Al mismo tiempo, tenemos que protegernos de la vigilancia en expansión de nuestros gobiernos actuales (como la de China Gran Muralla o la NSA ). Dudo que podemos lograr esta comunidad mejorada si  también encontramos una manera de asegurarnos de que las superpotencias que pueden mejorar la investigaión los hagan  disponibles para todos. Tal vez la única alternativa para que la distopía sea una utopía.

2 pensamientos en “Cómo los humanos pueden Mantener a superinteligentes Robots para Asesinarnos a nosotros

  1. El verdadero problema que pueda surgir de los robots será quién proponga la programación y quién la efectúe. Si la programación se decide por parte de los que detentan el poder, las consecuencias para el ser humano serán temibles y terribles.
    Por otra parte, si el que efectúa la programación es servil al poder, además de psicópata, entonces aún podría ser peor; aportaría ideas más maquiavélicas, si cabe.

Deja un comentario

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s