MIentras Craig Venter da en TED una de esas charlas que te dejan con la boca abierta por la capacidad de hacernos entender un tema tan complejo como es la evolución natural y la ingeniería reversa que están haciendo los bio-ingenieros para crear robots biológicos..... el New York Times saca un artículo muy interesante Scientists Worry Machines May Outsmart Man y es interesante ver como ambas cosas muestran adelantos y como, la nota y la charla, parecen apuntar a cosas diferentes pero es una misma: nosotros como humanos estamos necesitados de acelerar la evolución a toda costa
Digitalizar y sintetizar la vida es desafiante desde cualquier tipo de visión científica y que te digan que tenés God's Complex es una imbecilidad que frenaría nuestra necesidad por entender todo lo que hay a nuestro alcance o, mejor aún, entender todo lo que podemos imaginar ¿quien, que trabaje en robótica o sea un friki, no soñó descubrir el proceso de diseñar un replicante?
Ahora, es interesante que cuando los resultados empiezan a aparecer en una curva exponencial (hace una década se pensaba que decodificar el ADN era imposible) empiezan los debates morales:
generally discounted the possibility of highly centralized superintelligences and the idea that intelligence might spring spontaneously from the Internet. But they agreed that robots that can kill autonomously are either already here or will be soon.
Y lo interesante, como remarca el NYT es que este debate se da en el Asilomar Institute, el mismo que hace 25 años comenzó la discusión sobre la posibilidad, o peligro, de que los avances en bioingeniería se usen como armas letales.... ¿estamos en el momento en el que deberíamos inventar, o al menos pensar, algo como las 3 leyes de Asimov?
Si es cierto, y ahi hay un IF gigantesco, que estamos en ese momento en el que seremos capaces de crear máquinas más inteligentes que nosotros o de sintetizar y crear nuevas formas de vida significa que toda religión va a tener un problema de autodefinición (¿no era Dios el único capaz de hacer esto?) y vamos a llegar en serio al punto donde la Singularidad va a ser una realidad... casi 40 años después de que comenzaron a hablar del término.
Mariano, si te interesa el tema, deberías ver el documental que emitió History Channel USA la semana pasada, llamado That´s ImpossibleS01E02 sobre la evolución de la robótica en pos de los “Verdaderos Terminators”.
De los mejores documentales que vi en un tiempo.
Te dejo el link donde lo podés descargar en varias opciones http://www.rlslog.net/thats-impossible-s01e02-real-terminators-hdtv-xvid-fqm/
Abrazo
Seguramente, conocerás el libro de Kurzweil “La Singularidad está cerca”.
En el mismo, Ray es demasiado optimista, pero él no ve conflicto entre los humanos y máquinas más inteligentes que nosotros. De hecho, el futuro que él vislumbra es de una simbiosis, unos verdaderos ciborgs. La tecnología facilitaría verdaderos enhances en cuanto a inteligencia, espectativa y calidad de vida. De hecho, Kurzweil mismo aspira a la inmortalidad a través de la tecnología ;)
Saludos,
Lisandro
Humildemente (de verdad) dudo un poco de que estemos necesitados de acelerar la evolución. A lo mejor lo que necesitamos con desesperación, como individuos y especie es que en cada uno de nosotros se manifieste el máximo potencial posible de evolución, evolucionando, creciendo, superandose, lo mas posible cada día.
Desde la revolución industrial en adelante incrementamos como individuos y como especie nuestra capacidad intelectual.
Sin embargo, me parece que el desastrozo resultado de esto en cuanto a la salud de nuestro planeta muestra que no “evolucionamos” demasiado, no?
En http://www.spiraldynamics.org/es/faq_basico.htm está un poco mas claro lo que quiero expresar.
Por mas que seamos capaces de crear artefactos u organismos mas inteligentes que nosotros, eso no nos hace capaces de encontrar un mejor SENTIDO a lo que hacemos. Y creo de verdad que ese debería ser el gran IF de nuestro mundo.
Lamentablemente si una inteligencia artificial se desarrolla lo suficiente como para aprender por sí misma, basta que haga un simple 2+2 para que por lógica pura determine que la raza humana es un peligro para el planeta y, que es obvio que la raza humana debe, no ser exterminada, pero sí controlada/cercada/limitada, debido a su instinto violento natural. El mismo instinto que hizo evolucionar a las distintas culturas, pronto puede ser peligroso para la raza misma debido al acceso cada vez más acelerado a nuevas formas de poder reveladas a través de la tecnología. Los enhances del cuerpo y la mente por medio de la tecnología serían maravillosos, pero me preocupa el uso que les puedan dar quienes manejan el poder.
Quizá no, quizá todo salga bien y no nos autodestruyamos ni nos destruyan los bots, esperemos que los científicos tengan dos dedos de frente y agreguen más de una manera de apagar la Skynet o la Matrix en caso de emergencia….
querramos o no, es el fakin futuro…el poder de la biologia cada vez mas en nuestras manos…es el fakin futuro! (por eso estoy estudiando genetica :P)
como todo gran descubrimiento, va a caer en “el lado oscuro” :S
¿Será que Blade Runner fue tan pasmosamente certera y futurista que para el 2019 estemos teniendo alguna especie de replicantes en la vida real?
Las posibilidades de la tecnología son cada vez más amplias e impresionantes. Lástima que su eterno talón de Aquiles sea el mal uso de ella movido por la ambición, el odio o el deseo humano de conquista, territorialidad y sometimiento. Y para eso no hay -por ahora- tecnología que valga para corregirlo.
Ahora, tu comentario implica que la tecnologia es “neutral”… y qeu el uso es bueno o malo ¿los que inventan? ¿no lo hacen motivados por algo en particular dándole un sesgo a la tecnologia para que sea buena o mala? ;)
Me parece que están confundiendo tecnología con ciencia.
La ciencia es amoral.
La tecnología, entendida como la aplicación de los conocimientos generados por la ciencia, puede ser moral o inmoral.
Saludos,
Lisandro