==============================================
El blog El Cielo en la Tierra publica todos los lunes, desde el 3 de septiembre de 2018, una entrada relacionada con el Proyecto de investigación Consciencia y Sociedad Distópica. Por medio de este enlace se puede tener información sobre sus objetivos y contenidos y cómo colaborar con él:
http://emiliocarrillobenito.blogspot.com/2018/09/proyecto-de-investigacion-consciencia-y.html
===============================================
El blog El Cielo en la Tierra publica todos los lunes, desde el 3 de septiembre de 2018, una entrada relacionada con el Proyecto de investigación Consciencia y Sociedad Distópica. Por medio de este enlace se puede tener información sobre sus objetivos y contenidos y cómo colaborar con él:
http://emiliocarrillobenito.blogspot.com/2018/09/proyecto-de-investigacion-consciencia-y.html
===============================================
En su libro Vida 3.0, Max Tegmark, profesor del MIT,
propone argumentos para un debate global que evite que la llegada de la
Inteligencia Artificial acabe en desastre.
Cuando el rey Midas le
pidió a Dionisio transformar en oro todo lo que tocase cometió un fallo de
programación. No pensaba que el dios sería tan literal al concederle el deseo y
solo fue consciente de su error cuando vio a su hija convertida en una estatua
metálica. Max Tegmark (Estocolmo, 1967) cree que la inteligencia artificial
puede presentar riesgos y oportunidades similares para la humanidad.
El profesor del MIT y
director del “Future of Life Institute” en Cambridge (EE UU) estima que la
llegada de una Inteligencia Artificial General (IAG) que supere a la humana es
cuestión de décadas. En su visión del futuro, podríamos acabar viviendo en una
civilización idílica donde robots superinteligentes harían nuestro trabajo,
crearían curas para todas nuestras enfermedades o diseñasen sistemas para
ordeñar la energía descomunal de los agujeros negros. Sin embargo, si no somos
capaces de transmitirle nuestros objetivos con precisión, también es posible
que a esa nueva inteligencia dominante no le interese nuestra supervivencia o,
incluso, que asuma un objetivo absurdo como transformar en clips metálicos
todos los átomos del universo, los que conforman nuestros cuerpos incluidos.
Para evitar el apocalipsis,
Tegmark considera que la comunidad global debe implicarse en un debate para
orientar el desarrollo de la inteligencia artificial en nuestro beneficio. Esta
discusión deberá afrontar problemas concretos, como la gestión de las
desigualdades generadas por la automatización del trabajo, pero también un
intenso esfuerzo filosófico que triunfe donde llevamos siglos fracasando y
permita definir y acordar qué es bueno para toda la humanidad para después
inculcárselo a las máquinas.
Estos y otros temas
relacionados con la discusión que Tegmark considera más importante para el
futuro de la humanidad son los que recoge en su libro Vida 3.0: ser humano en la era de la inteligencia artificial, un
ambicioso ensayo que han recomendado gurús como Elon Musk en el que el
cosmólogo sueco trata de adelantarse a lo que puede suceder durante los
próximos milenios.
Pregunta: Los humanos, en particular durante los últimos dos o
tres siglos, hemos tenido mucho éxito comprendiendo el mundo físico, gracias al
avance de disciplinas como la física o la química, pero no parece que hayamos
sido tan eficaces entendiéndonos a nosotros mismos, averiguando cómo ser
felices o llegando a acuerdos sobre cómo hacer un mundo mejor para todo el
mundo. ¿Cómo vamos a dirigir los objetivos de la IAG sin alcanzar antes
acuerdos sobre estos asuntos?
Creo que nuestro futuro
puede ser muy interesante si ganamos la carrera entre el poder creciente de la
tecnología y la sabiduría con la que se gestiona esa tecnología. Para
conseguirlo, tenemos que cambiar estrategias. Nuestra estrategia habitual
consistía en aprender de nuestros errores. Inventamos el fuego, la fastidiamos
unas cuantas veces y después inventamos el extintor; inventamos el coche, la
volvimos a fastidiar varias veces e inventamos el cinturón de seguridad y el
airbag. Pero con una tecnología tan potente como las armas atómicas o la
inteligencia artificial sobrehumana no vamos a poder aprender de nuestros
errores. Tenemos que ser proactivos.
Es muy importante que no
dejemos las discusiones sobre el futuro de la IA a un grupo de frikis de la
tecnología como yo sino que incluyamos a psicólogos, sociólogos o economistas
para que participen en la conversación. Porque si el objetivo es la felicidad
humana, tenemos que estudiar qué significa ser feliz. Si no hacemos eso, las
decisiones sobre el futuro de la humanidad las tomarán unos cuantos frikis de
la tecnología, algunas compañías tecnológicas o algunos Gobiernos, que no van a
ser necesariamente los mejor cualificados para tomar estas decisiones para toda
la humanidad.
¿La ideología o la forma de ver el mundo de las personas que
desarrollen la inteligencia artificial general definirá el comportamiento de
esa inteligencia?
Muchos de los líderes
tecnológicos que están construyendo la IA son muy idealistas. Quieren que esto
sea algo bueno para toda la humanidad. Pero si se mira a las motivaciones de
las compañías que están desarrollando la IA, la principal es ganar dinero.
Siempre harás más dinero si reemplazas humanos por máquinas que puedan hacer
los mismos productos más baratos. No haces más dinero diseñando una IA que sea más bondadosa. Hay una gran presión económica para hacer que los humanos sean
obsoletos.
La segunda gran motivación
entre los científicos es la curiosidad. Queremos ver cómo se puede hacer una
inteligencia artificial por ver cómo funciona, a veces sin pensar demasiado en
las consecuencias. Logramos construir armas atómicas porque había gente con
curiosidad por saber cómo funcionaban los núcleos atómicos. Y después de
inventarlo, muchos de aquellos científicos desearon no haberlo hecho, pero ya
era demasiado tarde, porque para entonces ya había otros intereses controlando
ese conocimiento.
En el libro parece que da por hecho que la IA facilitará la
eliminación de la pobreza y el sufrimiento. Con la tecnología y las condiciones
económicas actuales, ya tenemos la posibilidad de evitar una gran cantidad de
sufrimiento, pero no lo hacemos porque no nos interesa lo suficiente o no le
interesa a la gente con el poder necesario para conseguirlo. ¿Cómo podemos
evitar que eso suceda cuando tengamos los beneficios de la inteligencia
artificial?
En primer lugar, la
tecnología misma puede ser muy útil de muchas maneras. Cada año hay mucha gente
que muere en accidentes de tráfico que probablemente no morirían si fuesen en
coches autónomos. Y hay más gente en América, diez veces más, que mueren en
accidentes hospitalarios. Muchos de esos se podrían salvar con IA si se
utilizase para diagnosticar mejor o crear mejores medicinas. Todos los
problemas que no hemos sido capaces de resolver debido a nuestra limitada
inteligencia es algo que podría resolver la IA. Pero eso no es suficiente. Como
dice, ahora mismo tenemos muchos problemas que sabemos exactamente cómo
resolver, como el hecho de que haya niños que vivan en países ricos y no estén
bien alimentados. No es un problema tecnológico, es un problema de falta de
voluntad política. Esto muestra lo importante de que la gente participe en esta
discusión y seleccionemos las prioridades correctas.
Por ejemplo, en España, el
Gobierno español ha rechazado unirse a Austria y muchos otros países en la ONU
en un intento para prohibir las armas letales autónomas. España apoyó la
prohibición de armas biológicas, algo que apoyaban los científicos de esa área,
pero no han hecho lo mismo para apoyar a los expertos en IA. Esto es algo que
la gente puede hacer: Animar a sus políticos para que afronten estos asuntos y
nos aseguremos de que dirigimos la tecnología en la dirección adecuada.
La conversación que propone en Vida 3.0 sobre la Inteligencia
Artificial en el fondo es muy parecida a la que se debería tener sobre política
en general, sobre cómo convivimos entre nosotros o como compartimos los
recursos. ¿Cómo crees que el cambio en la situación tecnológica va a cambiar el
debate público?
Creo que va a hacer las
cosas más drásticas. Los cambios producidos por la ciencia se están acelerando,
todo tipo de trabajos desaparecerán cada vez más rápido. Muchos se ríen de la
gente que votó a Trump o a favor del Brexit, pero su rabia es muy real y los
economistas te dirán que las razones por las que esta gente está enfadada, por
ser más pobres de lo que eran sus padres, son reales. Y mientras no se haga
nada para resolver estos problemas reales, su enfado aumentará.
La Inteligencia Artificial
puede crear una cantidad enorme de nueva riqueza, no se trata de un juego de
suma cero. Si nos convencemos de que va a haber suficientes impuestos para
proporcionar servicios sociales y unos ingresos básicos, todo el mundo estará
feliz en lugar de enfadado. Hay gente a favor de la Renta Básica Universal,
pero es posible que haya mejores formas de resolver el problema. Si los
gobiernos van a dar dinero a la gente solo para apoyarles, también se lo puede
dar para que la gente trabaje como enfermeros o como profesoras, el tipo de
trabajos que se sabe que dan un propósito a la vida de la gente, conexiones
sociales...
No podemos volver a los criterios de distribución del Egipto de los
faraones, en los que todo estaba en manos de un puñado de individuos, pero si
una sola compañía puede desarrollar una inteligencia artificial general, es
solo cuestión de tiempo que esa compañía posea casi todo. Si la gente que
acumule este poder no quiere compartirlo el futuro será complicado.
Si no hacemos nada, ¿cuál serían las principales amenazas
provocadas por el desarrollo de la IA?
En los próximos tres años
comenzaremos una nueva carrera armamentística con armas letales autónomas. Se
producirán de forma masiva por los superpoderes y en poco tiempo organizaciones
como ISIS podrán tenerlas. Serán los AK-47 del futuro salvo que en este caso
son máquinas perfectas para perpetrar asesinatos anónimos. En diez años, si no
hacemos nada, vamos a ver más desigualdad económica. Y por último, hay mucha
polémica sobre el tiempo necesario para crear una inteligencia artificial
general, pero más de la mitad de los investigadores en IA creen que sucederá en
décadas. En 40 años nos arriesgamos a perder completamente el control del
planeta a manos de un pequeño grupo de gente que desarrolle la IA. Ese es el
escenario catastrófico. Para evitarlo necesitamos que la gente se una a la
conversación.
===========================================
Fuente: https://elpais.com/elpais/2018/08/07/ciencia/1533664021_662128.html?id_externo_promo=enviar_email
===========================================
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.